JP2015176495A - オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 - Google Patents

オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 Download PDF

Info

Publication number
JP2015176495A
JP2015176495A JP2014054040A JP2014054040A JP2015176495A JP 2015176495 A JP2015176495 A JP 2015176495A JP 2014054040 A JP2014054040 A JP 2014054040A JP 2014054040 A JP2014054040 A JP 2014054040A JP 2015176495 A JP2015176495 A JP 2015176495A
Authority
JP
Japan
Prior art keywords
motion
character
point
interest
motion data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014054040A
Other languages
English (en)
Other versions
JP6431265B2 (ja
Inventor
陽介 川上
Yosuke Kawakami
陽介 川上
兼太郎 山口
Kentaro Yamaguchi
兼太郎 山口
文孝 島
Fumitaka Shima
文孝 島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Celsys Inc
Original Assignee
Celsys Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Celsys Inc filed Critical Celsys Inc
Priority to JP2014054040A priority Critical patent/JP6431265B2/ja
Publication of JP2015176495A publication Critical patent/JP2015176495A/ja
Application granted granted Critical
Publication of JP6431265B2 publication Critical patent/JP6431265B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】オリジナルキャラクタ(第1のオブジェクト)と物体(連携オブジェクト)とが関連して動く場合のオリジナルキャラクタのモーションデータを用いて,カレントキャラクタ(第2のオブジェクト)の適切なモーションデータを生成する。
【解決手段】三次元空間におけるオブジェクトのモーションデータを生成する際に、前記モーションデータが定義するモーションには、少なくとも移動、回転、及び変形のいずれか1つを含み、第1のオブジェクトが連携オブジェクトと関連して動くように前記第1のオブジェクトのモーションを定義した第1のモーションデータを補正することによって、第2のオブジェクトのための第2のモーションデータを生成し、前記第1のオブジェクトと前記連携オブジェクトとの第1の位置関係を有し、前記第2のオブジェクトと前記連携オブジェクトとの第2の位置関係を、前記第1の位置関係に適合させる。
【選択図】図9

Description

本発明は,三次元空間におけるオブジェクトのモーションの生成方法,プログラム,及び記憶媒体に関する。
三次元(3D)仮想空間又は実空間上において,キャラクタなどの(仮想的な)オブジェクトの移動,回転,変形等を制御することにより,アニメーションなどの製作を支援する技術が存在する。この場合に,複数のボーン(骨)を関節で繋いだスケルトンモデル(骨格モデル)(図1(a))が使われる場合がある。
本願明細書で例示として取り上げるオブジェクトは,図1(a)のようにボーン101,ボーン102等で連結されたスケルトンモデルで構成される。スケルトンモデルを構成する各部位はノードと呼ばれ,各ノードは,親子の関係を持つことも可能である。ノードの回転(曲げ,捻り)の状態は,親ノードを基準とした子ノードの向きで表すことができる。ノードの向きを表すために,各々のノードに座標系が定められる(不図示)。親子関係にあるノードの原点どうしを結ぶ線分,あるいはノード自体がボーンとなる。
人体モデル,動物,構造物等の姿勢(ポーズ,モーション等)を制御する際に用いられるこのようなスケルトンモデルにおいては,図1(a)に示す各々のボーンおよび関節の位置,回転(曲げ,捻り)等を意図したとおりに制御することが必要となる。図1(a)に示されるスケルトンモデルでは,各々のボーンは関節で結合されており,各々のボーンの動きが他のボーンの動きに影響を与える。従来,スケルトンをモデル化し,スケルトンモデルを制御する手法として,種々のものが提案されている。
たとえば,標準モデルに対して予めポーズ又はモーションを定義しておき,制御対象モデルに対して,標準スケルトンモデルのポーズ又はモーションを適用することで,簡便に制御対象モデルのポーズ又はモーションを制御する手法が提案されている(例えば,特許文献1参照)。
特開2013−120395号公報
本明細書では,ポーズ又はモーションを定義するために用いる標準モデルとして,「オリジナルキャラクタ」の語を用いる。また,そのモーションを用いて制御する対象のモデルとして,「カレントキャラクタ」の語を用いる。
図1(a)は,具体的なスケルトンモデルを示している。
図1(b)は,スケルトンモデルに,例えば複数のポリゴンから構成されるスキンを関連付け,オリジナルキャラクタ110を構成した例を示している。
図2(a)は,制御対象モデルとしてのカレントキャラクタのボーンの構成を示しており,例えば,ボーン201,ボーン202を含んでいる。
図2(b)は,複数のボーンに対して体表面を表現する複数のポリゴンを関連付けたカレントキャラクタ210が示されている。
図3(a)は,仮想的な,栓の開いたペットボトル310を示している。
図3(b)は,オリジナルキャラクタ320が,ペットボトル330を右手で保持し,ペットボトル330の飲料を飲んでいるポーズを示している。この場合,ペットボトルの先端部331と,オリジナルキャラクタ320の口321が接触している。このようなポーズ(フレーム)を複数用いて,時間軸上で連続してオリジナルキャラクタ320及びペットボトル330を動かすことによって,三次元空間上で,オリジナルキャラクタ320がペットボトル330の飲料を飲むモーションを作ることができる。
図4(a)は,図3(b)のオリジナルキャラクタのポーズを,カレントキャラクタ420bに対して適用した様子を示した図である。カレントキャラクタ420bは,ペットボトル430bを右手422で持っている。しかしながら,カレントキャラクタ420bの口421bとペットボトルの先端431aとの間が接触しておらず,離れている。
図4(b)は,図4(a)の一部を拡大した図である。口421bとペットボトルの先端431bとの間にズレが生じている。このようなズレが生じる原因は,オリジナルキャラクタ320とカレントキャラクタ420bが,異なる体型や構造を持つためである。したがって,オリジナルキャラクタ320のポーズをそのままカレントキャラクタ420bに適用しても,意図したとおりのポーズが得られず,不自然なポーズとなってしまう場合があることが分かる。したがって,複数のポーズの連続であるモーションにおいても,オリジナルキャラクタのモーションを単に適用しても,カレントキャラクタのモーションが,意図した通りのモーションとならない場合がある。
本発明は,このような不都合を解消することを目的としている。すなわち,オリジナルキャラクタ(第1のオブジェクト)と物体(連携オブジェクト)とが関連して動く場合のオリジナルキャラクタのモーションデータを用いて,カレントキャラクタ(第2のオブジェクト)の適切なモーションデータを生成することを目的とする。
本実施例によれば,三次元空間におけるオブジェクトのモーションデータを,コンピュータが生成する方法であって,前記モーションデータが定義するモーションは,少なくとも移動,回転,及び変形のいずれか1つを含み,当該方法は,第1のオブジェクトが連携オブジェクトと関連して動くように前記第1のオブジェクトのモーションを定義した第1のモーションデータを補正することによって,第2のオブジェクトのための第2のモーションデータを生成するステップであって,前記第1のオブジェクトと前記連携オブジェクトとの第1の位置関係を有し,前記第2のオブジェクトと前記連携オブジェクトとの第2の位置関係を,前記第1の位置関係に適合させる,ステップ,を有する方法が提供される。
実施形態によれば,キャラクタのモーションデータを簡便に生成し,利用することができる。
スケルトンモデル(骨格モデル)の例を示す図である。 カレントキャラクタ(制御対象モデル)の例を示す図である。 オリジナルキャラクタがペットボトルの飲料を飲んでいるポーズを示す図である。 オリジナルキャラクタのポーズを,カレントキャラクタに適用した図である。 カレントキャラクタの補正されたポーズを示した図である。 オリジナルキャラクタ及びカレントキャラクタの着目点を示す図である。 オリジナルキャラクタが,椅子に腰掛けているポーズを示した図である。 オリジナルキャラクタのポーズをカレントキャラクタに適用した図である。 一実施例の処理手順の概要を示したフローチャートである。 カレントキャラクタのポーズの補正に関する詳細なフローチャートである。 補正の正逆の判定処理を示すフローチャートである。 手の向きを保存しておき,移動処理後に手の向きを戻す処理を示す図である。 フルートを吹くポーズを示した図である。 ペットボトルの栓を開けるポーズを示した図である。 シャベルを持ったキャラクタのポーズを示した図である。
なお,本明細書においては,ポーズは,時間的長さがゼロのモーションとして捉えることができるため,モーションを定義するモーションデータ及びポーズを定義するポーズデータは,いずれもモーションデータとして扱う。
また,本明細書では,キャラクタの語を主として用いる。キャラクタは,仮想的な人物又は生物に対して主に用いられる。しかしながら,本発明は,仮想的な人物又は生物以外に,一般的なオブジェクト(例えば,自転車,自動車,ボール等)の仮想的なオブジェクトを排除しない。したがって,本明細書において用いる仮想的なキャラクタ,物体等は,仮想的なオブジェクトの語で総称され得る点に留意すべきである。
また,本明細書では,ボーンを有するスケルトンモデルを三次元オブジェクトの例として用いて説明行うが,本発明は,特定の三次元モデルに限定されるものではない。すなわち,ボーンを持たない三次元モデル,ボーン以外を用いた三次元モデルに,以下に説明する実施例を適用しても良い。
上述のようにしてキャラクタのポーズ又はモーションを作成する際に,物体との絡みが入ると,位置又は向きの調整作業が煩雑になることがある。例えば自転車に跨るポーズを作る際には,サドルと尻,ペダルと足,ハンドルと手の位置合わせが必要である。
また,ある体型のキャラクタを使って作ったポーズやモーションを,異なる体型のキャラクタに適用すると,部位の位置関係に不整合を生じることがある。例えば,「左手で持った携帯電話のボタンを,右手の人差し指で押す」ポーズを,肩幅や腕の長さが異なるキャラクタに適用すると,そのままではボタンと指の位置が合わなくなることがある。
以下に示す実施例は,このような不都合にも対応できるものである。以下,実施例を説明する。
[モーション付き物体の作成]
まず,標準的な体型のキャラクタ(例えば,図3(b)のオリジナルキャラクタ320)を使って,正しいモーションを作る。ここで言う「正しい」とは,物体(例えば,図3(b)のペットボトル330)とキャラクタの部位(例えば,図3(b)のオリジナルキャラクタ320の口321)との位置関係が正しい(この例の場合には,ペットボトルの先端部331が口に接触している)という意味である。前記の携帯電話の例では,ボタンと人差し指の位置が合っていることを意味する(不図示)。また,ここで使用したキャラクタ320を,「オリジナルキャラクタ」(320)と呼ぶことにする。
そして,オリジナルキャラクタ320のモーションデータ(および補正)を適用するキャラクタを「カレントキャラクタ」(420b)と呼ぶ。
オリジナルキャラクタ320に対して作成したモーションデータに,次の情報を付加する。
・キャラクタのどの部位を着目点にするか。
・キャラクタのどの部位を移動部位にするか。
着目点と移動部位は,後述のモーション補正の際に使われる。
着目点とは,例えば,キャラクタに存在する点であり,物体(例えばペットボトル)との位置関係を正しくするべき点をいう。着目点は,モーションデータに関連付けておくことによって,モーションデータが用いられる際に適切な着目点が利用されるようにすることができる。着目点には,例えば,「左目」「口」等のキャラクタに存在する複数の着目点を特定するために,ユニークな名前が付与されていることが望ましい。また,複数のキャラクタに対して,着目点に関する統一的な命名法を定めておくことが望ましい。着目点に関し,統一的な命名がなされていれば,オリジナルキャラクタのモーションデータに関連付けられた着目点を,他のカレントキャラクタに適用する場合に,カレントキャラクタの着目点を容易に特定することができる。
移動部位とは,例えば,カレントキャラクタ420bの部位であって,カレントキャラクタ420bのポーズを補正する際に動かす部位をいう。
オリジナルキャラクタに関して,物体(例えば,図3(b)のペットボトル330)の座標系における着目点(例えば,図3(b)のオリジナルキャラクタ320の口321)の位置を求める。これが「正しい位置関係」である。カレントキャラクタ420bに,モーションデータを適用した場合の,物体(例えば,図4(a)のペットボトル430b)の座標系における着目点(例えば,図4(a)のカレントキャラクタ420bの口421b)の位置を求める。これが「現在の位置関係」である。
そして,上記「正しい位置関係」と上記「現在の位置関係」との差異を求める。移動部位(図4(a)の右手422)を,この差異ベクトルだけ動かして,物体とカレントキャラクタの着目点との位置関係を正しい状態にする。
図5は,カレントキャラクタ520の補正されたポーズを示した図である。
移動部位である腕522を移動させることによって,カレントキャラクタ520の持つペットボトル530と,カレントキャラクタ520の口521との位置関係が正しい状態になり,その結果ペットボトル530の先端531が口521に接触した状態になる。以上の処理手順から分かるように,本補正手法における物体の扱いは,物体座標系における着目点の位置を使用するだけなので,物体の形状に関する情報を一切必要としない。腕522は,IK(inverse kinematics)によって,自然な形で腕522の各部位が移動する。なお、本発明は上記の処理手順に限定されるものではない。
図6(a)は,オリジナルキャラクタ620の着目点の例を示した図である。オリジナルキャラクタ620には,目の着目点621,622,鼻の着目点624,口の着目点625,耳の着目点623が,予め設定されている。
図6(b)は,カレントキャラクタ630の着目点の例を示した図である。カレントキャラクタ630には,目の着目点631,632,鼻の着目点634,口の着目点635,耳の着目点633が,予め設定されている。
図7(a)は,オリジナルキャラクタ720が,椅子750に腰掛けているポーズを示した図である。オリジナルキャラクタ720と椅子750に対して自然な見た目になるようポーズ付けされている。
図7(b)は,オリジナルキャラクタ721に設定された着目点731を示している。
図8(a)は,オリジナルキャラクタのポーズをカレントキャラクタ820aに適用した状態を示した図である。カレントキャラクタ820aの尻が,椅子850aから離れていて,不自然な状態となっていることが分かる。
図8(b)は,着目点821bと椅子850bとの位置関係が正しくなるように,カレントキャラクタ820bのポーズに補正を施した例を示している。この場合には,移動部位は腰と胸である。腰と胸を移動させると,連動して腰から左右手首まで,腰から首を経てその先全て,腰から左右足首までも動く。この場合,左右手首から先,足首から先は動かさなくても良い。
前記の携帯電話の例では,右手の人差し指の先を着目点とし,右手を移動部位とする(不図示)。このようにして,補正用の情報を付加したモーションデータを,「補正情報付きモーション」と呼ぶことにする。
1個の物体に対して,1個または複数個の補正情報付きモーションを付加したものを,「モーション付き物体」と呼ぶことにする。
[モーション付き物体の使用]
ユーザは,例えば次の手順でモーション付き物体を使うことができる。
1) 使いたいキャラクタとモーション付き物体を選ぶ。
2) モーション付き物体が持っているモーションデータの中から,キャラクタに適用したいものを選ぶ。すると,そのキャラクタに合うように補正(後述)が掛かった状態で,そのキャラクタにモーションが適用される。
[モーション補正処理の概要]
上述のように,キャラクタのモーションは,複数のポーズが時系列に並んだものとして扱うことができる。したがって,モーションの補正は,個々のポーズに対する補正として実行することができる。
すでに述べたように,モーションデータ(および補正)を適用する対象となるキャラクタを,「カレントキャラクタ」と呼ぶことにする。
1) オリジナルキャラクタにポーズデータを適用し,物体と着目点との位置関係を求める。
2) カレントキャラクタにポーズデータを適用し,物体と着目点との位置関係を求める。
3) 上記オリジナルキャラクタにおける位置関係1)と,カレントキャラクタにおける位置関係2)との差異を求め,これを「変位量」とする。
4) カレントキャラクタの移動部位を動かすべき量「移動量」を上記変位量から求める。移動部位を移動量だけ移動させことにより,上記変位量が0(又は最小)となるようにする。移動部位の移動にはIK(inverse kinematics)を使う。すなわち,カレントキャラクタの移動部位をIKによって移動させることによって,物体または着目点が移動し,上記変位量が0(又は最小)となる。なお,IKについては,当業者に周知の技術であるため,説明は省略する。
以上の処理によって,物体と着目点との位置関係が正しい状態(または,正しい状態に近い状態)になる。
以上の手法には,以下のような利点がある。
1. ポーズやモーションの作成
モーション(ポーズ)を一から作る代わりに,モーション付き物体が持っているモーション(ポーズ)を適用することで,欲しいモーション(ポーズ)が簡単に得られ,繁雑な位置合わせが不要になる(または,位置あわせを無視できる程度のモーション(ポーズ)が得られる)。
2. ポーズやモーションの適用
モーション(ポーズ)を,元のキャラクタとは異なる体型のキャラクタに適用しても,部位の位置関係に不整合を生じない(または,無視できる程度の不整合に留めることが容易にできる)。
3. モーションのディテール
本補正手法の特徴として,着目点と物体との位置を合わせるのではなく,両者の位置関係を同じ(又は,非常に近い)状態にするという点が挙げられる。この特徴により,オリジナルキャラクタのモーションのディテール(物体と着目点との間の微妙な位置変化)が,モーションの補正後も再現される(または,再現されやすい)。
[部位移動に使うIK(inverse kinematics)]
部位の移動にはIK(inverse kinematics)を使うことができるが,IKの種類には「フルボディIK」と「部分IK」がある。フルボディIKでは,1か所を動かすと全身の部位が追随して動く。これに対して,部分IKでは限定された部位のみが動く。例えば,肩から手首までの部分IKの場合,右手を動かしたときに右肩から先のみが動く。フルボディIKでも,固定点を適切に設定することで,部分IKと同等の挙動をさせることができる。例えば,右肩の位置を固定すれば,右手を動かしたときに追随して動くのは右肩から先のみとなり,前述の部分IKの例と同等になる。
複数のモーション補正情報を使って順に補正を行なう場合,先のモーション補正情報で着目点とした部位,又は物体がアタッチされた部位が,後のモーション補正情報による補正で動くことのないように,IKによる追随範囲を適切に設定する必要がある。
[物体をキャラクタにアタッチする場合]
物体をキャラクタにアタッチさせる場合と,アタッチさせない場合とがある。アタッチされた物体は,キャラクタが移動したりポーズを変えたりしても,アタッチ先の部位と一体となって動く。アタッチの有無の例については,後述の「モーション補正の例」において更に詳述する。
[補正方向の正逆]
移動部位を動かすべき方向は,着目点が存在する部位,又は物体がアタッチされた部位との位置関係によって,正反対の方向となる。着目点が存在する部位が移動部位の移動に追随する場合に,移動部位を動かすべき方向を,「正」方向と定義する。これに対して,物体がアタッチされた部位が移動部位の移動に追随する場合は,移動部位を動かすべき方向が反対になり,この方向を「逆」方向と定義する。移動方向の正逆の例を以下に示す。
・正方向:既に述べた「携帯電話」がこれに該当する。
・逆方向:既に述べた「ペットボトル」がこれに該当する。
[補正量のウェイト付け]
1つのモーション補正情報の中で複数の移動部位を指定し,着目点が追随する移動部位と,物体アタッチ先部位が追随する移動部位の両方を使うこともできる(後述の例「刀」を参照)。前者の移動部位は正方向に移動させる。後者の移動部位は逆方向に移動させる。なお,両者を移動させた結果が正しい(物体と着目点との位置関係が正しい)状態になるためには,それぞれの移動量に係数を掛けて移動量を小さくすることが必要になる。この係数を「ウェイト値」と呼ぶことにする。ウェイト値の和が1になるように設定することで,正しい補正結果が得られる。
[移動補助部位]
移動部位のみではポーズを補正しきれない場合がある。後述の例「自転車」では,カレントキャラクタの腕が短いと,手を移動部位としてポーズを補正しても,手がハンドルに届かない場合がある。このような場合に,さらに移動補助部位として胸等の移動を併用し,手がハンドルに届くように補正することが望ましい。
[着目点の合成]
着目点の位置は,予めキャラクタに設定されていることが望ましい。適切な位置に着目点がない場合もある。この場合には,既存の複数の着目点の位置を合成して代用することができる。これを「合成着目点」と呼ぶことにする。合成の方法は,着目点の座標値の平均をとってもよい。
[着目点座標の事前計算と保存]
補正処理「モーション補正処理の概要」の1)で,オリジナルキャラクタにポーズを適用し,物体と着目点との位置関係を求めているが,これを以下の処理に置き換えることができる。
a) 前もって,モーションの全フレームについて,オリジナルキャラクタにポーズを適用したときの,物体の座標系における着目点の位置を求め,これをデータとして保存しておく。
b) 補正処理実行時に,保存しておいたデータから,該当するフレームの,物体の座標系における着目点の位置を読み出して使う。
以上の処理で,補正処理の実行時に,オリジナルキャラクタにポーズを適用する処理が不要になるため,処理負荷を軽減できる。
[物体の非表示]
大きさ0の物体を使うことができる。あるいは物体を表示しないこともできる。物体に対して,このような取り扱いをすることによって,物体を使わないモーションにも本手法の補正を適用することができる。例えば,合掌ポーズで両手の位置がずれるのを補正できる。
[時間による補正率の変化]
タイムライン(時間軸)上で,モーション毎(フレーム毎)に補正率(補正の程度)を変化させてもよい。
タイムライン上で,補正を必要としないモーションの後に補正を必要とするモーションが続く場合に,急に補正が掛かり,モーションが不連続になることがある。そこで,補正が必要なモーションについては,補正率の値を0から徐々に上げることで,補正が無いモーションから補正があるモーションに移る場合に,モーションが不連続になるのを避けることができる。
[位置による補正率の変化]
物体と着目点との距離に応じて補正率を変えてもよい。
一般的な傾向として,物体が着目点から離れている場合には補正を必要としないことが多い。そこで,物体と着目点との距離が所定の値以上の場合には,距離が大きくなるにつれて補正率を下げてもよい。これにより,キャラクタのモーションがより自然なものになる場合がある。
図9は,一実施例の処理手順の概要を示したフローチャートである。
ステップS910で,キャラクタのモーションをオリジナルキャラクタとカレントキャラクタに適用する。
以下の処理は,キャラクタのポーズ毎(フレーム毎)に処理される。
ステップS920で,全てのカレントキャラクタのポーズについて処理したかが,チェックされる。全てのポーズ(フレーム)が処理されれば終了する(「はい」)。処理すべきポーズ(フレーム)が存在すれば(「いいえ」),処理はステップS925に移る。
ステップS925で,オリジナルキャラクタとカレントキャラクタのポーズを1つずつ順次取り出す。
ステップS930で,オリジナルキャラクタの着目点と物体との位置関係が,カレントキャラクタの着目点と物体との位置関係に適合しているかがチェックされる。適合しているとは,,オリジナルキャラクタの物体の座標系においてオリジナルキャラクタの着目点が所与の座標に位置しているのであれば,カレントキャラクタの物体の座標系においてカレントキャラクタの着目点が同じ座標に位置しているか,その座標に近いところに位置していることを意味する。この判断が「はい」であれば,ステップS920に戻る。この判断が「いいえ」であれば,ステップS940に移る。
ステップS940で,カレントキャラクタの着目点と物体との位置関係を,オリジナルキャラクタの着目点と物体との位置関係に適合させるために,カレントキャラクタの移動部位を移動させて,カレントキャラクタの補正されたポーズデータを得る。なお,移動補助部位が指定されている場合には,移動補助部位を移動させる必要があれば移動させ,カレントキャラクタの修正されたポーズデータを得てもよい。そして処理は,ステップS920に戻る。
ステップS950で,カレントキャラクタの,全ての補正されたポーズデータから,カレントキャラクタのモーションデータを生成する。
以上で,補正されたカレントキャラクタのモーションデータが得られ,このモーションデータを利用して,カレントキャラクタと物体とを動かすことができる。
[モーション補正の例]
モーション補正の例を以下に説明する。表の1つの行が「モーション補正情報」1個に相当する。各モーション補正情報は,上の行から順に適用される。なお,下記のモーション補正の例は,表1のような部分IKを使うことを想定している。
[物体として携帯電話を用いる例]
例えば,左手で持った携帯電話のボタンを,右手の人差し指で押す例を以下に示す。携帯電話は,左手にアタッチされているとする。
ボタンと指先の位置関係が正しくなるようにカレントキャラクタのモーションを補正する。
[物体としてペットボトルを用いる例(飲料を飲む)]
上述したように,右手に持ったボトルを口に運び飲み物を飲む例を以下に示す。ペットボトルは右手にアタッチされているとする。
ペットボトルと口の位置関係が正しくなるように補正する。
[物体として刀を用いる例]
刀を正面に構え,上段に振りかぶり,振り降ろす例を以下に示す。刀は左手にアタッチされているとする。
刀と右手の位置関係が正しくなるように補正する。刀がなるべく正面に来るようにするために,両手を移動部位にして半分ずつ補正することが望ましい。
[物体としてトロンボーンを用いる例]
トロンボーンの演奏を行う場合を想定する。右腕の曲げ伸ばし,頭や上体を動かす等を行っても良い。この場合には,物体自体がモーション(トロンボーン可動部の伸び縮み)を持っても良い。トロンボーンは左手にアタッチされているとする。
トロンボーンと口の位置関係,及びトロンボーンと右手の位置関係が正しくなるように補正する。このモーション補正では,補正の順序が重要である。「逆」の移動部位を先に移動させ,次に「正」の移動部位を移動させる順序で補正する必要がある。この補正順序を逆にすると,まず右手の位置をトロンボーンに合わせ,その後トロンボーンの位置を口に合わせるので,結果はトロンボーンと右手の位置がずれてしまう。このようにならないよう,補正の順序を適正に行うことが必要である。なお、本発明の補正順序は、この順序に限定されるものではない。
[物体として自転車を用いる例]
自転車を漕ぐ。物体が動き(ペダルの回転,車輪の回転等)を持っても良い。自転車の全体の移動が伴う。
自転車と各着目点との位置関係が正しくなるように補正する。右手を移動部位として右手位置を前方に補正しても,右手がハンドルに届かない場合には,さらに胸を(上体を前方に)動かしてもよい。左手についても同様である。
[物体として椅子(大柄キャラクタ)を用いる例]
立った状態から椅子に座るまでのモーションを生成する場合以下に示す。座ったとき足が床に着くことがを想定している。
[物体として椅子(小柄キャラクタ)を用いる例]
立った状態から椅子に座るまでモーションを生成する場合を以下に示す。座ったとき足が床から浮くことを想定している。
前半:右腿を椅子に乗せる。
後半:全身を移動させる。
[物体としてドアを用いる例]
右手でドアノブを握り,ドアを開けて部屋に入る動作を示す。物体がモーション(ドアノブの回転,ドアの開閉等)を持っている。
ドア(ドア枠)と右手との位置関係が正しくなるように補正する。その結果,ドアノブと右手の位置が合う。
以下に本明細書において用いた用語の定義を示す。
本明細書において用いる記号を以下のように定義する。
BOpoi:オリジナルキャラクタの,着目点が乗るボーン。
BCpoi:カレントキャラクタの,着目点が乗るボーン。
M'bp:ワールド座標系におけるボーンBOpoiの位置・向きを表すマトリクス(4×4行列)。
Mbp:ワールド座標系におけるボーンBCpoiの位置・向きを表すマトリクス(4×4行列)。
U'poi:ボーンBOpoiの座標系における着目点の位置を表すベクトル(3次元ベクトル)。
Upoi:ボーンBCpoiの座標系における着目点の位置を表すベクトル(3次元ベクトル)。
V'poi:ワールド座標系におけるオリジナルキャラクタの着目点の位置を表すベクトル(3次元ベクトル)。
Vpoi:ワールド座標系におけるカレントキャラクタの着目点の位置を表すベクトル(3次元ベクトル)。
BOobj:オリジナルキャラクタの,物体のアタッチ先ボーン。
BCobj:カレントキャラクタの,物体のアタッチ先ボーン。
M'bo:ワールド座標系におけるボーンBOobjの位置・向きを表すマトリクス(4×4行列)。
Mbo:ワールド座標系におけるボーンBCobjの位置・向きを表すマトリクス(4×4行列)。
L'obj:ボーンBOobjの座標系における物体の位置・向きを表すマトリクス(4×4行列)。
Lobj:ボーンBCobjの座標系における物体の位置・向きを表すマトリクス(4×4行列)。
M'obj:ワールド座標系におけるオリジナルキャラクタの物体の位置・向きを表すマトリクス(4×4行列)。
Mobj:ワールド座標系におけるカレントキャラクタの物体の位置・向きを表すマトリクス(4×4行列)。
V'poi_obj:物体座標系におけるオリジナルキャラクタの着目点の位置を表すベクトル(3次元ベクトル)。
Kr:補正率。補正を掛ける程度を表し0以上1以下の値を持つ。0が補正なし,1が完全補正を意味する。
Ks:補正の正逆係数。補正方向の正逆を表し,1または-1の値を持つ。正方向であれば-1,逆方向であれば1。
Kw:補正のウェイト値。物体アタッチ先部位と着目点部位の両方を移動させる場合に,両者の移動量の割合を調整する値。
Mhf:ワールド座標系における手(又は足)ノードの向きを表すマトリクス(3×3行列)。
[補正処理]
図10は,カレントキャラクタのポーズの補正に関する詳細なフローチャートを示している。
オリジナルキャラクタにポーズを適用する。これによりM'bpとM'boが決まる。
U'poiは,キャラクタ毎に決まった値を持っているので,その値を使う。
L'objは,オリジナルキャラクタを使ってモーションを作った際の値を使う。
ステップS1010で,オリジナルキャラクタの物体の位置・向きを求める:
M'objを次式で求める。
M'obj=L'objM'bo (1)
ステップS1022で,オリジナルキャラクタの着目点の位置を求める:
V'poiを次式で求める。
V'poi=U'poiM'bp (2)
ステップS1024で,カレントキャラクタの着目点の位置を求める:
カレントキャラクタにポーズを適用する。これによりMbpとMboが決まる。
Upoiは,キャラクタ毎に決まった値を持っているので,その値を使う。
Lobjは,カレントキャラクタに対する物体のアタッチ状態を使う。
Vpoiを次式で求める。
Vpoi=UpoiMbp (3)
ステップS1026で,カレントキャラクタの物体の位置・向きを求める:
Mobjを次式で求める。
Mobj=LobjMbo (4)
ステップS1030で,物体座標系における,着目点のあるべき位置Ptを求める。
Pt=KrV'poiM'obj -1+(1-Kr)VpoiMobj -1 (5)
ステップs1040で,ワールド座標系における,着目点のあるべき位置からのずれVdを求める。
Vd=Vpoi-PtMobj (6)
ステップS1050で,移動部位が手又は足であるかを判断する。「はい」であればステップS1052に進む。「いいえ」であれば,ステップS1054に進む。
ステップS1052で,ワールド座標系における手(又は足)ノードの向きを取得し,Mhfとする。
すなわち,移動前の手(または足)の向き(ワールド座標系)をMhfとして保存しておく。
ステップS1054で,次式により,移動部位の移動量Vmを求める。
Vm=KsKwVd (7)
正逆係数Ksを決めるのに必要な移動方向の正逆の判定方法は,図11を用いて後述する。
ステップS1056で,移動部位をVmだけ移動させる。
ステップS1057で,移動部位が手又は足であるかを判断する。「はい」であればステップS1058に進む。「いいえ」であれば,ステップS1060に進む。
ステップS1058で,手(又は足)ノードの向きを元の向きMhfに戻す。
図12は,手の向きを保存する処理(ステップS1052),および移動処理後に手の向きを戻す処理(ステップS1058)を示している。図12(a)は,手1200のノード1210を動かす前の状態を示している。図12(b)は,IKを用いて手1201を動かした状態を示している。手1201の向きが,手1200とは異なった向きになっているのが分かる。図12(c)は,保存しておいたMhfを読み出し,手1200と同じ向きに,手1202の方向を戻した状態を示している。このように,IKを使って手(または足)を移動量1220だけ動かすと,移動させた手(または足)の向き(ワールド座標系)が変化する。手(または足)に着目点が設定されている場合,手の向きが変化すると,着目点の移動量が移動部位(手または足)の移動量とは異なる量になり,正しく補正ができない。また,手(または足)に物体がアタッチされている場合も同様で,物体の移動量が移動部位(手または足)の移動量と異なる量になり,正しく補正ができない。そこで,移動後に,手(または足)の向きをに戻すことで,正しく補正がなされるようにする。
なお,本実施例の場合,手又は足に対して,Mhfを用いた上述の処理を施したが,他の部位に対して,この処理を施すように設定しても良い。この処理を施すか否かは,移動に使用するIKの挙動に基づいて,予め決定しておくことができる。
ステップS1060で,移動補助部位があるかを判断する。「はい」であれば,S1070に進む。「いいえ」であれば,終了する。
ステップS1070で,カウンタをリセットするために,counter=0とする。
ステップS1082で,カレントキャラクタの着目点の位置を求める:
カレントキャラクタにポーズを適用する。これによりMbpとMboが決まる。
Upoiは,キャラクタ毎に決まった値を持っているので,その値を使う。
Lobjは,カレントキャラクタに対する物体のアタッチ状態を使う。
Vpoiを次式で求める。
Vpoi=UpoiMbp
ステップS1084で,カレントキャラクタの物体の位置・向きを求める:
Mobjを次式で求める。
Mobj=LobjMbo
ステップS1086で,ワールド座標系における,着目点のあるべき位置からのずれVdを求める。
Vd=Vpoi-PtMobj
ステップS1088で,Vdがeps以下か又はcounterの値がN以上かを判断する。epsは位置合わせの許容値で,予め決められた値である。epsの値としては,キャラクタの身長の1/2000程度としてもよい。Nは移動補助部位の最大移動回数で,予め決められた値である。Nの値としては,3程度としてもよい。
ステップS1088で「はい」であれば終了する。「いいえ」であれば,ステップS1090に進む。
ステップS1090で,ワールド座標系における移動量Vmを次式で求める。
Vm=KsVd
正逆係数Ksを決めるのに必要な移動方向の正逆の判定方法は,図11を用いて後述する。
ステップS1092で,移動部位をVmだけ移動させる。
ステップS1094でcounterを1増やし,ステップS1082及びステップS1084に戻る。
(物体をアタッチしない場合の処理)
なお,物体をアタッチしない場合(物体が椅子の場合など)には,上記「補正処理」に対して,以下の変更を加える。
物体のアタッチ先ボーンであるBOobj,BCobjは存在しない。そのため,これらのボーンの位置・向きを表すマトリクスM'bo,Mbo,L'obj,Lobjも存在しない。
モーション毎に所定のM'objの値を付与しておく。例えば椅子に座るモーションに椅子の位置・向きを付与する。式(1)でM'objを求める代わりに,この値を使う。
Mobjの値は,カレントキャラクタにモーションを適用する際の,物体の位置・向きを使う。式(4)でMobjを求める代わりに,この値を使う。
(事前計算の利用)
式(5)の中のV'poiM'obj -1については,カレントキャラクタについての情報を含まないので,事前に計算することができる。
V'poi_obj=V'poiM'obj -1 (8)
V'poi_objは,物体座標系におけるオリジナルキャラクタの着目点の位置を意味する。V'poi_objをモーションの全フレームについて事前計算して保存しておく。モーション補正実行時には,保存しておいたV'poi_objを使う。
これにより,補正実行時には,以下の処理および情報が不要になる。
・オリジナルキャラクタに対するポーズ適用。
・式(1),(2)の計算。
・U'poi,L'objの値。
以上が,ポーズの補正フローの詳細である。
図11は,補正時の移動方向の正逆を判定する処理を示すフローチャートである。
ステップS1110で,物体がキャラクタにアタッチされているかを判断する。「いいえ」であればステップS1112に進む。「はい」であれば,ステップS1114に進む。
ステップS1112で,移動方向は正であると決定される。
ステップS1114で,着目点(のノードのどれか)が移動部位の連動範囲内かが判断される。「はい」であれば,ステップS1116に進む。「いいえ」であればステップS1118に進む。
ステップS1116で,移動方向は正であると決定される。
ステップS1118で,物体のアタッチ先が,移動部位の連動範囲内かが判断される。「はい」であればステップS1120に進む。「いいえ」であれば,ステップS1122に進む。
ステップS1120で,移動方向は逆であると決定される。
ステップS1122で,不正な組合せであると決定される。この場合には,補正を行わなくても良い。
以上が,補正の移動方向の正逆を判定する処理の詳細である。
[その他の実施例]
以上説明した処理を用いた以下の実施例を説明する。
[物体としてフルートを用いる例]
図13は,フルートを吹くポーズを示した図である。図13(a)は,オリジナルキャラクタ1300がフルート1309を吹いているポーズを示している。フルート1309が右手1302にアタッチされている。左手1303は,フルートの適正な位置に添えられている。口1304は,フルートの吹き口1305に対して適正な位置にある。
図13(b)は,1300のポーズを,補正せずにカレントキャラクタ1310にそのまま適用した状態を示している。フルート1319は右手1312にアタッチされている。左手1313は,フルート1319と適正な位置関係になっていない。また,フルートの吹き口(不図示)は口1314と大きく離れていて,カレントキャラクタ1310の中に隠れてしまっている。
図13(c)は,以下の表の補正情報に基づいて適正に補正されたカレントキャラクタ1320のポーズを示している。
フルートの演奏を行っているため,頭や上体を動かすモーションが付加されても良い。フルートと口の位置関係,およびフルートと左手の位置関係が正しくなるように補正する。このモーション補正では,補正の順序が重要である。まず「逆」の移動部位(右手1322)を移動させ,次に「正」の移動部位(左手1323)を移動させる。この順序を逆にすると,まず左手の位置をフルートに合わせ,その後フルートの位置を口に合わせるので,結果はフルートと左手の位置がずれてしまう。
[物体としてペットボトルを用いる例(キャップを回す)]
図14は,ペットボトルの栓を開けるポーズを示している。図14(a)は,オリジナルキャラクタ1400の右手1402にペットボトル1409がアタッチされている。左手1404がペットボトルの栓1408に添えられている。
図14(b)は,ポーズを補正せずに,カレントキャラクタ1410に適用した場合を示している。ペットボトルの栓1418と,左手1414との位置がずれていることが分かる。
図14(c)は,カレントキャラクタ1420の右手1422を移動させて,ポーズを補正した例を示している。ペットボトルの栓1428の位置が移動し,左手1424の位置と整合している。この場合の補正の処理は以下の表の通りである。
図14(d)は,カレントキャラクタ1430の左手1434を移動させて,ポーズを補正した例を示している。左手1434が移動し,ペットボトルの栓1438と整合している。この場合の補正の処理は以下の表の通りである。
なお,両手を移動させて,ポーズを補正することも可能である(不図示)。この場合の補正の処理の内容は以下の表の通りである。
[物体としてシャベルを用いる例]
図15は,シャベルを持ったキャラクタのポーズを補正する例を示している。図15(a)は,オリジナルキャラクタ1500がシャベル1509を両手で持っているポーズを示している。右手1504にシャベル1509がアタッチされている。左手1502は,シャベルの柄の中間位置1508を握っている。
図15(b)は,カレントキャラクタ1510に,補正をせずにポーズを適用した場合を示している。シャベル1519の柄の中間位置1518と,左手1512との位置がずれているのが分かる。
図15(c)は,カレントキャラクタ1520の左手1522を動かして,シャベル1529の柄の中間位置1528との位置関係が正しくなるように,ポーズを補正した状態を示している。この場合の補正の処理は以下の表の通りである。
[変形例]
以上説明した実施例の方法は,コンピュータにより実行され得る。また,実施例の方法は,コンピュータに実行させるプログラムとして,インプリメントされてもよい。
また,以上の実施例におけるモーションデータは,物体に関連付けられたデータ構造を有する。また,このデータ構造を有するファイルは,記憶媒体に保存され得る。物体には,1つ以上のモーションデータが関連付けられて,データ構造を形成する。また,このデータ構造を有するファイルは,記憶媒体に保存され得る。三次元空間で物体を定義するデータとモーションデータとが同一の記憶媒体に格納されても良い。
また,オリジナルキャラクタの着目点は,モーションデータと関連付けられて記憶され得る。カレントキャラクタの着目点は,オリジナルキャラクタの着目点に対応する着目点が,選択され得る。
なお,上述の実施例において,方法のステップは,矛盾のない限り,同時に,又は順序を入れ替えて実行されてもよい。
以上の実施例は,ハードウエアの装置としてインプリメントされ得る。
既に述べたように,オリジナルキャラクタ,カレントキャラクタ,及び物体は,オブジェクトの語によって表現されても良い。
また,物体自体が動き,回転,変形してもよい。
加えて,各請求項に記載された発明は,仮想空間におけるオブジェクトのモーションの制御に限定されるものではなく,実空間における現実のオブジェクトのモーションの制御に用いることができる。実空間において,本発明を適用する場合には,位置センサ,近接センサ,撮像画像のパターン認識技術等が併用して用いられても良い。
以上の実施例は,請求項に記載された発明を限定するものではなく,例示として取り扱われることは言うまでもない。
本明細書において,オリジナルキャラクタ,物体,及びカレントキャラクタは,それぞれ,第1のオブジェクト,連携オブジェクト,及び第2のオブジェクトの一例である。
101:ボーン
310:物体(ペットボトル)
320:オリジナルキャラクタ
420b:カレントキャラクタ

Claims (13)

  1. 三次元空間におけるオブジェクトのモーションデータを,コンピュータが生成する方法であって,前記モーションデータが定義するモーションは,少なくとも移動,回転,及び変形のいずれか1つを含み,
    当該方法は,
    第1のオブジェクトが連携オブジェクトと関連して動くように前記第1のオブジェクトのモーションを定義した第1のモーションデータを補正することによって,第2のオブジェクトのための第2のモーションデータを生成するステップであって,前記第1のオブジェクトと前記連携オブジェクトとの第1の位置関係を有し,前記第2のオブジェクトと前記連携オブジェクトとの第2の位置関係を,前記第1の位置関係に適合させる,ステップ,
    を有する方法。
  2. 前記第1の位置関係は,前記連携オブジェクトからみた前記第1のオブジェクトの着目点の第1の相対的な位置であり,
    前記第2の位置関係は,前記連携オブジェクトからみた前記第2のオブジェクトの着目点の第2の相対的な位置である,
    請求項1記載の方法。
  3. 前記第2のモーションデータを生成するステップは,
    前記第1の相対的な位置と前記第2の相対的な位置との変位量が最小化するように,前記第1のオブジェクトの所定の移動部位に対応する前記第2のオブジェクトの移動部位の位置を移動させるステップ,
    を含む,請求項2記載の方法。
  4. 前記第2のモーションデータを生成するステップは,
    前記第2のモーションデータを適用した際の前記第2のオブジェクトのモーションが,時間軸上で滑らかとなるよう,前記第2のオブジェクトのモーションデータを平滑化する,
    請求項1ないし3のうちいずれか1項記載の方法。
  5. 前記連携オブジェクトは,大きさが零であるか,又は非表示とされる,請求項1ないし4のうちいずれか1項記載の方法。
  6. 前記第1のオブジェクトの前記所定の移動部位は,複数の候補が存在し,予め定められた優先度に基づいて,前記複数の候補から順次選択され利用される,
    請求項3記載の方法。
  7. 前記第1のオブジェクトの着目点は,前記連携オブジェクトに,予め関連付けられており,
    前記第2のオブジェクトの着目点は,予め関連付けられた前記第1のオブジェクトの着目点に基づいて特定される,請求項1ないし6のうちいずれか1項記載の方法。
  8. 前記第1のモーションデータは,前記連携オブジェクトに,予め関連付けられている,請求項1ないし7のうちいずれか1項記載の方法。
  9. 請求項1ないし8のうちいずれか1項記載の方法をコンピュータに実行させるためのプログラム。
  10. 前記連携オブジェクトを定義するデータと,
    請求項8記載の方法により前記連携オブジェクトに関連付けられた1つ以上の前記第1のモーションデータと,
    を有するファイルのデータ構造。
  11. 請求項10記載のデータ構造を有するファイルを記憶した記憶媒体。
  12. 三次元空間におけるオブジェクトのモーションデータを含むデータ構造であって,前記モーションデータが定義するモーションは,少なくとも移動,回転,及び変形のいずれか1つを含み,
    当該データ構造は,
    第1のオブジェクトが連携オブジェクトと関連して動くように前記第1のオブジェクトのモーションを定義した第1のモーションデータと,
    前記連携オブジェクトを三次元空間上で定義する連携オブジェクト定義データと,
    を有し,
    前記第1のモーションデータ及び前記連携オブジェクト定義データは,第2のオブジェクトのモーションを定義する第2のモーションデータを生成するために用いられる,
    データ構造。
  13. 請求項12記載のデータ構造を有する,記憶媒体。
JP2014054040A 2014-03-17 2014-03-17 オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 Active JP6431265B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014054040A JP6431265B2 (ja) 2014-03-17 2014-03-17 オブジェクトのモーションの生成方法,プログラム,及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014054040A JP6431265B2 (ja) 2014-03-17 2014-03-17 オブジェクトのモーションの生成方法,プログラム,及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2015176495A true JP2015176495A (ja) 2015-10-05
JP6431265B2 JP6431265B2 (ja) 2018-11-28

Family

ID=54255601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014054040A Active JP6431265B2 (ja) 2014-03-17 2014-03-17 オブジェクトのモーションの生成方法,プログラム,及び記憶媒体

Country Status (1)

Country Link
JP (1) JP6431265B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028809A (ja) * 2016-08-18 2018-02-22 株式会社カプコン ゲームプログラムおよびゲームシステム
JP2020177347A (ja) * 2019-04-16 2020-10-29 日産自動車株式会社 情報処理装置及び情報処理方法
JP2022080984A (ja) * 2020-11-19 2022-05-31 株式会社コーエーテクモゲームス プログラム、情報処理方法及び情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144086A (ja) * 1997-11-07 1999-05-28 Namco Ltd 画像生成装置及び情報記憶媒体
JPH11232478A (ja) * 1998-02-17 1999-08-27 Nec Corp 動画生成システム、動画生成方法及び記録媒体
JP2002052242A (ja) * 2000-01-28 2002-02-19 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP2011065578A (ja) * 2009-09-18 2011-03-31 Konami Digital Entertainment Co Ltd 画像生成装置、画像生成方法、ならびに、プログラム
JP2011253308A (ja) * 2010-06-01 2011-12-15 Copcom Co Ltd プログラム、当該プログラムを記録した記録媒体、および、当該プログラムを実行するコンピュータ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144086A (ja) * 1997-11-07 1999-05-28 Namco Ltd 画像生成装置及び情報記憶媒体
JPH11232478A (ja) * 1998-02-17 1999-08-27 Nec Corp 動画生成システム、動画生成方法及び記録媒体
JP2002052242A (ja) * 2000-01-28 2002-02-19 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP2011065578A (ja) * 2009-09-18 2011-03-31 Konami Digital Entertainment Co Ltd 画像生成装置、画像生成方法、ならびに、プログラム
JP2011253308A (ja) * 2010-06-01 2011-12-15 Copcom Co Ltd プログラム、当該プログラムを記録した記録媒体、および、当該プログラムを実行するコンピュータ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028809A (ja) * 2016-08-18 2018-02-22 株式会社カプコン ゲームプログラムおよびゲームシステム
JP2020177347A (ja) * 2019-04-16 2020-10-29 日産自動車株式会社 情報処理装置及び情報処理方法
JP7214548B2 (ja) 2019-04-16 2023-01-30 日産自動車株式会社 情報処理装置及び情報処理方法
JP2022080984A (ja) * 2020-11-19 2022-05-31 株式会社コーエーテクモゲームス プログラム、情報処理方法及び情報処理装置
JP7312737B2 (ja) 2020-11-19 2023-07-21 株式会社コーエーテクモゲームス プログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
JP6431265B2 (ja) 2018-11-28

Similar Documents

Publication Publication Date Title
US7872653B2 (en) Mesh puppetry
JP3996015B2 (ja) 姿勢認識装置及び自律ロボット
KR20210011984A (ko) 이미지 처리 방법 및 장치, 이미지 디바이스, 및 저장 매체
JP7126812B2 (ja) 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム
JP6431265B2 (ja) オブジェクトのモーションの生成方法,プログラム,及び記憶媒体
CN112602090A (zh) 用于插值不同输入的方法和系统
WO2022143178A1 (zh) 一种运动重定向方法、装置、电子设备及存储介质
CN110020600B (zh) 生成用于训练人脸对齐模型的数据集的方法
US6608624B1 (en) Method for accelerating 3D animation production
CN107080940A (zh) 基于深度相机Kinect的体感交互转换方法及装置
WO2012111622A1 (ja) 動作モデリング装置及び方法、並びにプログラム
TW201401224A (zh) 二維角色表現三維動作之系統及方法
JP4435212B2 (ja) 姿勢認識装置及び自律ロボット
CN105488834B (zh) 角色面部朝向的调整方法及装置
Neff et al. Methods for exploring expressive stance
WO2021240848A1 (ja) 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム
Feng et al. Automating the transfer of a generic set of behaviors onto a virtual character
KR20210091955A (ko) 운동 자세 교정 프로그램
CN113313009A (zh) 连拍的输出图像方法、装置、终端及可读存储介质
KR102438488B1 (ko) 3d 마커리스 모션 캡처 기반 3d 아바타 생성 장치 및 방법
CN101540057B (zh) 虚拟动物驱动方法和装置
US10083536B2 (en) System for mapping animation from a source character to a destination character while conserving angular configuration
JP2011215709A (ja) 漫画作成支援装置、漫画作成支援方法及びプログラム
CN112270764B (zh) 一种用于合影的虚拟人姿态生成方法
JPH09212676A (ja) 画像合成方法及び画像合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181102

R150 Certificate of patent or registration of utility model

Ref document number: 6431265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250