JP2002269580A - 動画像生成システム - Google Patents
動画像生成システムInfo
- Publication number
- JP2002269580A JP2002269580A JP2001063854A JP2001063854A JP2002269580A JP 2002269580 A JP2002269580 A JP 2002269580A JP 2001063854 A JP2001063854 A JP 2001063854A JP 2001063854 A JP2001063854 A JP 2001063854A JP 2002269580 A JP2002269580 A JP 2002269580A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- image
- dimensional
- human body
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
を利用した動画像処理の適用により、リアルな人物CG
を容易に生成する。 【解決手段】 2次元動画像を取得し、その2次元動画
像の人物から、オブジェクトのテクスチャ・データの抽
出と、人体の3次元モデルを構成する各オブジェクトの
初期姿勢データおよび動作パラメータを得る。そのオブ
ジェクトのテクスチャ・データ、動作パラメータを用い
て3次元モデルを生成し、自由な視点位置から見た人物
画像を生成することができる。その際に3次元モデルの
オブジェクトに対するテクスチャ・データの不足する部
分を、抽出したテクスチャ・データより補間して得る。
また、2次元動画像より得た動作パラメータを変更する
ことで、取得した2次元動画像とは異なる動きの動画像
を生成したり、他のオブジェクトを合成して、別の衣服
や髪型の合成を行うこともできる。
Description
像から、リアルな人物3次元CGを容易に生成すること
ができるシステムであり、特にビデオ映像から生成した
人物の3次元モデルを用いて、リアルな動画像を生成で
きる人物動画像生成システムに関する。
ームの開発では、リアルな人物CGの生成が重要な課題
である。ところが、人物のように複雑な被写体のCGを
生成する作業は、ほとんどがアニメーターの手作業で行
われていて、非常にコストが高いという問題がある。近
年では、実際に存在する俳優のCGが必要とされること
も多い。例えば、映画の制作現場では、危険なスタント
・シーンを撮影するときに、代役で撮影した映像を加工
して、主演している俳優が演技をしているように見せる
ことが必要となる。また、コマーシャル・フィルム(C
M)では、過去の有名な人物を登場させて、他の俳優と
競演する場面が増えている。ところが、従来手法では、
既に撮影したフィルムから手作業で映像を切り出してつ
なぎ合わせる程度しかできないため、制約が大きいだけ
でなく、作業に必要な労力も膨大である。また、ビデオ
編集においても、より自由度の高い人物画像の編集が望
まれている。例えば、既に撮影した映像中の人物を、異
なるカメラ・アングルから見た場合に変更したり、衣服
や髪型の変更、姿勢の変更を行うことができれば、ポス
ト・プロダクションの作業をより効果的に行うことがで
きる。
する手法としては、CGの分野でイメージ・ベース・レ
ンダリング手法が提案されている。この手法では、実写
画像に3次元モデルを当てはめることで、自由な視点位
置から見た映像を生成する。ところが、従来手法では、
屋外の建築物などの単純な形状を持つ物体や、顔のよう
に単一の物体を対象としている。そのため、人物のよう
な複雑な動作を行う被写体へ適用することができないと
いう問題がある。自由な視点位置から画像を生成する手
法については、コンピュータ・ビジョンの分野でも、Vi
rtualized Reality(仮想化された現実)とも呼ばれて
盛んに研究が行われている。これらの手法では、撮影環
境内に多数のカメラを設置して、ステレオ法などの手段
により3次元モデルを生成する。ところが、正確な3次
元モデルを推定するためには、多数のカメラが必要とな
り、コストが高くなるという問題がある。また、オクル
ージョンによって見えない部分については、3次元形状
を復元することができないという問題がある。
オ画像より復元した人体の3次元モデルを利用した動画
像生成処理の適用により、リアルな人物CGを容易に生
成することである。
めに、本発明は、動画像生成システムであって、2次元
動画像を取得する動画像取得手段と、前記取得した2次
元動画像内の人物から、人体の3次元モデルを構成する
各オブジェクトの動作パラメータを得る動作推定手段
と、前記2次元動画像内の人物よりオブジェクトのテク
スチャ・データを抽出するテクスチャ抽出手段と、前記
オブジェクトの動作パラメータを用いて、3次元モデル
を生成する3次元モデル生成手段と、前記3次元モデル
から、視点を設定して2次元の動画像を生成する画像生
成手段とを備える。これにより、生成した人体モデルと
テクスチャを利用して、新たな視点位置を設定すること
により別の視点位置から見た人物画像も生成することが
できる。
動画像内の人物から前記人体の3次元モデルを構成する
各オブジェクトの初期姿勢データを得る手段を有するこ
ともできる。前記3次元モデル生成手段は、前記動作推
定手段で得た動作パラメータを変更する動作変更手段を
さらに備え、取得した2次元動画像の人物とは異なる動
きの動画像を生成することもできる。その際に、前記画
像生成手段は、前記生成した新たな3次元モデルのオブ
ジェクトに対するテクスチャ・データの不足する部分
を、前記抽出したテクスチャ・データより補間して得る
こともできる。前記3次元モデル生成手段は、前記生成
した3次元モデルに他のオブジェクトを合成することに
より、取得した動画像の人物に、CGによる別の衣服や
髪型の合成を行うこともできる。本動画像生成システム
をコンピュータ・システムに構成させるコンピュータ・
プログラムおよびコンピュータ・プログラムを記録した
記録媒体も本発明である。
3次元モデルを利用した動画像処理の適用により、リア
ルな人物CGを容易に生成する人物画像生成システムで
ある。図1は本発明を用いた実施形態の一例である、モ
デルに基づく人物動画像生成システムの機能構成図を示
す。図1に示すように、本システムは、テレビカメラに
より人物の動画像を連続的に取得する画像取得部10、
人物の各関節のパラメータを推定したり、顔や衣服など
の人物テクスチャを抽出する動作推定部20、後述する
人体モデルを利用した隠蔽箇所の復元や、異なる視点位
置から見た画像の生成を行なったり、衣服CGや髪型C
Gの合成や、姿勢の変更などを行う画像生成部40、そ
して生成した結果を表示する画像表示部50で構成して
いる。
得部10で取得した人物動画像に、あらかじめシステム
に用意してある人体の3次元モデルを当てはめて、動作
推定部20において、各関節の3次元動作を推定すると
共に、顔や衣服などの輝度情報を人体モデルのテクスチ
ャとして蓄積する。また、画像生成部40において、撮
影した視点位置から見たときに隠蔽されている箇所を、
人体モデルを利用したCGの生成で補うことで、全身像
を復元する。このようにして得た画像を画像表示部50
から表示している。図2〜図4は、本発明における処理
の概要を分かりやすく説明するために、ビデオ映像に上
述の処理を適用した例を示している。図2(a)は画像
取得部10で取得した入力画像の例である。図2(b)
は動作推定部20で人体モデルの姿勢を推定した例であ
る。図3(c)は、画像生成部40で人体の3次元モデ
ルにテクスチャ・マッピングをした人体画像を、自由な
視点位置から見た例である。そしてこのとき、画像生成
部40は撮影した視点位置から見たときに隠蔽されてい
る箇所を、人体モデルを利用したCGの生成で補ってい
る。図3(d)は前述のCGの生成で補った画像の例を
示す図である。
した人体モデルとテクスチャを利用して、自由な視点位
置から見た人物画像を生成したり、入力画像とは異なる
動作の人物画像を生成したり、人物のような複雑な被写
体に、CGによる別の衣服や髪型の合成を行うことがで
きる。図4(e)は衣服のCGを合成した例、図4
(f)は異なる姿勢へ変更した例である。また、多様な
姿勢を持つ人物画像を、関節角の変更データを用いて生
成できるため、動画像圧縮の手段としても利用すること
ができる。以上のような処理を行うシステムを以下に詳
細に説明する。
定部20におけるモデルに基づく人物動作を、動画像を
構成する連続した画像(フレーム)間から推定する処理
を以下に詳細に説明する。 (移動量の推定)動作推定部20においては、人体の3
次元モデルを当てはめて、各関節の3次元動作を推定し
ている。図5に、動作推定部20で用いている人体モデ
ル300を示す。図5のように、人体モデル300は、
各パーツをオブジェクトで表し、それらを接続すること
で全体を表している。この人体モデル300は、頭部3
10、胴体315、右上腕322、左上腕324、右前
腕332、左前腕334、右腿342、左腿344、右
膝下352、左膝下354の各パーツ(各オブジェク
ト)で構成している。動作推定部20では、このような
人体モデル300を利用してフレーム間の人物動作を推
定する。人体モデル300の各パーツ(各オブジェク
ト)の接続関係は、胴体315を頂点として、腕や頭部
といった末端のパーツに向かって親子関係の接続として
定めることができる。親パーツが動くと、その子に当た
るパーツは親パーツの座標系で規定される接続関係で一
緒に動くことになる。この人体モデル300を用いて、
以下で動作について説明を行う。なお、この人体モデル
は標準形をシステムで用意して、ユーザが対象となる人
物に会わせて調整することで得ることができる。図6
は、カメラ座標系およびワールド座標系と人体モデルの
関係を示す図である。この図において、動画像はカメラ
座標系で記述される画像面410に表示される。人体モ
デル300上の任意の点を、ワールド座標系を用いて、
を表す)と、カメラ座標系に投影した画像面410上の
点(X,Y)は、
に関する3次元速度ベクトルを、
度を表している。画像面410上の速度ベクトル(U,
V)とすると、両者の関係は、
ける時刻tでの輝度をE(X,Y,t)とする。そし
て、(Ex,Ey)を輝度微分、Etを時間微分とする
と、画像面410上の速度ベクトル(U,V)は、次の
時空間勾配の拘束条件式を満たす。
モデル300上の任意の点pと、画像面410上の点
(X,Y)および輝度値Etの関係を示すことができ
る。
と姿勢を表すベクトルsを
度ベクトルの関係は、ヤコビ行列J(s)=∂g/∂s
により、線形式で関係付けることができる。
画像面410上の点の輝度値の関係式を導くことができ
る。
の関係をp=g(s)で表した。この関係は人体の幾何
学構造から導出することができる。以下では、人体モデ
ルの幾何学的な関係を記述する際に、同次座標系を利用
する。同次座標系では、(x,y,z,w)の3次元空
間内の座標値は(x/w,y/w,z/w)となる。
運動は、物体座標系における剛体変換εiで表すことが
できる。3×3の回転行列をC、3次元の並行移動ベク
トルをDとすると、剛体変換εiは、次式のように表す
ことができる。
の点
る。
ーツが運動したときに、カメラ座標系で見た人体モデル
上の点ρsが、どのように変化するかを求めることが必
要となる。この関係式は、次の3つのステップで求め
る。 1)まず、カメラ座標系で見た胴体モデル上の点ρ
sを、ワールド座標系に変換する操作を、剛体変換εs
で表す。
ρwがρw’に移動する。ρw’を求めるためには、ワ
ールド座標系の点ρwを物体座標系に変換して、胴体の
運動εiを適用した後に、ワールド座標系に戻す操作を
行う。この変換規則を
ができる。
に変換する。
が得られる。
では胴体の運動を表すヤコビ行列を導出したが、他の人
体パーツの場合は胴体を親としているため、運動に依存
関係が生じる。以下では、依存関係が1段階の場合(上
脚,上腕,頭)と、依存関係が2段階の場合(下脚,下
腕)の場合について、関係式を導出する。 1)上脚,上腕,頭の運動 胴体だけを親とする、左右上脚、左右上腕、頭の5つの
物体に関して定式化を行う。まず、ρsをワールド座標
系に変換する。
適用する。そして、親(この場合は胴体(i=0))の
移動による変換Fi=[εoiεiεoi −1]を適用
する。
分することで、ヤコビ行列を求める。
更に胴体を親として持っている。この場合も、胴体だけ
を親とする、依存関係が1段階の場合(上脚,上腕,
頭)と同様な変換規則を適用することで次式が得られ
る。
間微分することで、ヤコビ行列を求める。
ことができる。
点の輝度値の関係式を人体モデル300上の複数の点か
ら求めて、最小2乗法で解くことにより、人体の動作パ
ラメータsを求める。そして以下で説明する初期姿勢
に、上記で求めた動作パラメータを加算することで、各
フレームの人体モデル300の姿勢を得る。
フレーム間の動きしか推定することができないため、人
体モデル300の初期姿勢を推定することが必要とな
る。以下では、拡張カルマン・フィルタにより、シルエ
ット画像から抽出した中心線と、人体モデルの体軸を一
致させる手法を述べる。ワールド座標系での人体モデル
300の各パーツの姿勢aを表した式を以下に示す。
である。また、rはワールド座標の各座標軸である回転
軸に沿ったベクトルであり、ベクトルの大きさは回転角
に等しい。
応する人体モデル300中のパーツとの関係を示した図
である。3次元(3D)線分Pの投影された画像面41
0上の2次元(2D)予測線分がQである。図7におけ
る2次元(2D)観測線分Q’と2D予測線分Qを、2
次元画面上410での始点および終点を表わすワールド
座標系のベクトルq1’,q2’,q1およびq2で表
わした式を以下に示す。
び終点を表わすベクトルp1およびp2で表わした式を
以下に示す。
線分Pの組をlとして、以下の式に示す。
2D観測線分Q’の組lを求める手法を以下に説明す
る。図8は入力した動画像より人体モデルの初期位置を
推定するまでの処理の過程を示す図である。この図8を
参照しながら以下に説明をする。
した画像のシルエット画像から中心線を推定する際に
は、手や足などの部位が胴体に隠れた場合、姿勢を推定
できない。ところが、本発明のシステムでは、フレーム
間の移動量を推定する手法と組み合わせて利用するた
め、処理に適したフレームだけを選択できれば良い。以
下の手順で中心線の推定を行う。
ト画像を予め選択してシステムに記憶しておく。このと
きに、シルエット画像に対応した人体モデルの姿勢パラ
メータも与えておく。姿勢パラメータは後述する手法に
より姿勢を微調整することができるので、大まかな値で
構わない。 2)図8(a)(i)および(ii)のような、画像取得
部10より取得した低解像度の入力画像系列で、あらか
じめシステムに記憶してあるシルエット画像とのマッチ
ングを行い、姿勢が類似しているフレームを選択する。 3)選択したシルエット画像では、人体モデルの大まか
な姿勢が分かっているため、画像面410上に各パーツ
の領域を投影することができる。それぞれの領域内のシ
ルエットを切り出して、主軸を求めて中心線とする。図
8(b)(i)および(ii)は入力画像に人体モデルを
当てはめ、各パーツの中心線を抽出し、表示した画像を
示す。
て、3D線分Pと、それに対応する画像面410上での
2D観測線分Q’の組lを求めることができ、後述する
手法により人体モデルの正確な初期位置の推定を行うこ
とができる。
確な場合は、観測画像から得られた画像面410上の2
D観測線分Q’とカメラの原点Oとが作る平面Mの上に
3D線分Pが含まれる。ところが各パーツの姿勢aに誤
差がある場合は、図7(a)のように、画像面410上
に表示される線分Q’とカメラの原点Oとが作る平面M
と3D線分Pの間に距離が生じる。この距離の最短距離
を、予測誤差h(a,l)とし、以下の式のように表
す。
出される3×3の回転行列である。また、nは面Mの単
位法線ベクトル
り、図7(b)のように画像面410上の2D予測線分
Qが2D観測線分Q’と重なる。そして2D観測線分
Q’とカメラの原点が作る平面の上に3D線分Pが含ま
れるようになる。このときの3D線分Pの姿勢aが画像
面410上に表示されている2D観測線分Q’に対応し
ているということになる。h(a,l)は非線形なの
で、観測値l=^liと推定値a=^ai−1のまわり
に1次テーラー展開をして線形近似する。
の偏微分係数は、以下のカルマン・フィルタを適用して
人体モデルの各パーツの姿勢a=[r,d]Tの最適値
を求める際に利用する。
線分Pの誤差h(a,l)が最小になるように、人体姿
勢aを補正し、位置の誤差分布σxiを減少させる。直
前に示したh(a,li)の線形近似式をゼロとおいて
書き直すと、次のような観測方程式が得られる。
xiの2乗誤差を最小にする推定値は、カルマン・フィ
ルタで与えられる。
が行われるたびに更新される。以上の姿勢推定を人体の
各部位に適用することで、人体モデルの初期姿勢を推定
する。本発明のシステムでは、胴体の姿勢を最初に求め
て、上腕、上脚、下腕、下脚と胴体に近い順番に中心線
とのマッチングを行い、姿勢の推定を行う。このように
して、図8(a)(i)および(ii)の入力画像に初期
姿勢を推定し、図8(c)(i)および(ii)のように
人体モデルを重ね合わせた画像を得ることができる。
では、シルエット画像のマッチングにより、抽出した中
心線を利用して、3D線分Pと対応する2D観測線分
Q’の組lが求まったとして説明した。しかし、撮影環
境内に中心線として抽出可能な複数の線分がある場合、
1つの3D線分に対して複数の2D線分の候補があるこ
ととなる。そこで以下に示す2つの手法を併用して対応
付けを行う。まず2D画像面410上で見たときに、2
D観測線分Q’に射影したときに射影像が2D観測線分
Q’と重なる線分を候補として選択する。次に、推定値
の誤差分布と、2D、3D線分の誤差分布を考慮に入れ
て、統計的に一致すると判定できる線分を選択する。
法を示す。まず、図7(a)のように、3D線分Pを画
面上に投影して、2D予測線分Q=(q1,q 2)を求
める。また、観測画像から2D観測線分Q’=
(q1’,q2’)を得る。2D観測線分Q’に対して
射影した2D予測線分Qの射影像が重複領域をもつ場合
は、対応の候補として選択する。重複領域の判定方法と
しては、2D予測線分Qを2D観測線分Q’に射影した
ときに、q1あるいはq2のどちらかの点がQ’の内部
にあれば、2D予測線分Qの射影像が2D観測線分Q’
に重なっていると考えることができる。まず、q1を
Q’に射影した場合の座標cは、Q’に沿う単位方向ベ
クトルを
トルの正規化を表わす)とすると、
て行い、上記の条件を満たさない線分は棄却する。
布σliを使ってχ2検定を行い、統計的に一致しない
と考えられる線分を棄却する。ここでは、2D−3D線
分が一致していると仮定して、仮説検定を行う。人体姿
勢a=[r,d]Tと観測値l=(P,Q’)の誤差分
布を、正規分布σai〜N(0,P0),σli〜N
(0,L0)と仮定する。h(^ai−l,^li)の
1次、2次統計量は、
ることができる。
ai−1,^li)〜N(0,Z i)であるため、k
(^ai−1,^li)〜χ2(ζ)となる(ただしζ
=Rank(Zi))。χ2(ζ)分布から、確率に基
づくしきい値を設置することができる。例えばk(^a
i−1,^li)<9.21は、Ziがランク2(ζ=
2)のときに99%の線分が受け付けられることを意味
している。しきい値以上の線分は、統計的に一致すると
考えられないため、棄却することができる。複数の線分
が候補として残った場合は、k(^ai−1,^li)
の距離値が最小のものを選択する。以上の2つの手法を
併用して、2D予測線分Qが2D観測線分Q’に一番近
い3D線分Pと画像面410上で対応する2D観測線分
Q’の組l=(P,Q’)を求めることができる。な
お、上述の人体モデルの初期姿勢は、ユーザーが人体モ
デルの姿勢を推定して画像面に投影し、入力画像に重ね
合わせて当てはめることによりで求めてもよい。
ている隠蔽箇所の復元処理を、以下に詳細に説明する。
図9は上述の手法で、人体モデルにテクスチャ・マッピ
ングを行い、撮影位置とは異なる視点位置から見た例を
示す図である。図9(a)の2次元の画像より、人物の
姿勢を推定することができると、この姿勢における人体
パーツの3次元モデル上の輝度分布を求めることができ
る。顔、皮膚、衣服等の輝度情報を、3次元モデル上の
テクスチャとして蓄積する。このように人物テクスチャ
をマッピングした3次元モデルから、従来のCGモデル
をレンダリングするのと同じ手法で、自由な視点位置か
ら見た画像を生成することができる。
1台のテレビカメラで撮影した画像からでは、人物の全
身像の輝度情報を得ることができないという問題が起こ
る。例えば、図9(a)のようにカメラに対して前に向
いている人物を撮影した場合は、人物の背後が隠蔽され
ていて撮影できない。そのため、図9(b)のように異
なる方向から見た場合に、全身像を表示することができ
ない。この問題を解決するため、画像生成部40では、
人体モデルを利用した復元手法を用いている。隠蔽部分
を復元する手法としてはいくつかあるが、例として2つ
の手法を説明する。
よる復元 入力画像から得られた輝度情報を利用する方法として
は、様々なものがあるが、ここでは腕や足などの人体パ
ーツの対称性を利用した方法を述べる。図10は、入力
された画像中の人体パーツの対称性から輝度情報を補間
する手法を説明するための図である。図10に示すよう
に、体軸を垂直に切ってみたとき(図10(a)参照)
に、画像から得られた輝度値で点対称の位置にある隠蔽
部分の輝度値を埋める(図10(b)参照)ことで補間
して全体の輝度値を得る(図10(c)参照)。このと
きに、点対称の補間では求まらず、隙間になっている箇
所や、部分的に空白になっているところは、近傍の輝度
値を参照して、スプライン補間などの手法で輝度値を補
間する。なお、より高度な手法として、入力画像から洋
服の模様(テクスチャ)を分析して、隠蔽部分に張り付
ける等の補間とすることもできる。
間することができる。頭髪の色は、画像中の輝度値を参
照して決定する。図11はCGで頭髪を生成した例を示
す図である。図11(a)は、人体モデルに頭髪を張り
付けたところである。この頭髪に重力をかけるという計
算をすることで、図11(b)のように頭髪を頭部にフ
ィッティングすることができる。図11(c)は人物が
歩いた場合の頭髪の動的な変化をシミュレートした例を
示したものである。
40で行っている、人物とCG画像の合成処理につい
て、以下に詳細に説明する。画像生成部40では、推定
した人物の3次元姿勢を利用してCG画像を生成するこ
とができるため、入力画像とは異なる衣服CGや頭髪C
Gを人物と合成することも可能である。図12はCGに
よる衣服の例を示す図である。以下に、図12に示すよ
うな衣服CGを人物と合成する例で説明する。図12
(a)は衣服を生成したところである。この衣服を人体
の3次元モデルに衣服モデルを着せる(重ね合わせ
る)。まず、モデルと衣服画像の衝突計算を行うこと
で、図12(a)で示すような生成した衣服画像から、
人体モデルの形状に合わせた衣服画像を生成する。衣服
と人体モデルの衝突計算は、従来から提案されている手
法を利用する。その結果、図12(b)のように衣服画
像が人物の3次元形状にフィッティングする。次にフレ
ーム間の人体の動作に合わせて、衣服のダイナミックな
動きをシミュレートする。人体の動作情報は、上述の手
法で推定した値を利用する。また、衣服画像のシミュレ
ーション手法は、従来から提案されている手法を利用す
る。図12(c)は、歩行動作に合わせて衣服シミュレ
ーションを行った例である。このようにして得られた衣
服モデルと人体モデルを同時にレンダリングすること
で、合成した映像が得られる。図13は衣服CGを合成
した例を示す図である。図13(b)は、上記の処理を
行って図13(a)のような入力画像の人物に衣服CG
を合成した画像を示す図である。
まで説明したように、画像生成部40では、人物の動作
推定と隠蔽箇所の復元をする手法により、人体の3次元
モデルと、顔、衣服などの人物テクスチャを得ることが
できる。その上、画像生成部40では、人体モデルの各
関節の角度を変更するだけで、様々な姿勢を持った人物
画像を生成することができる。これについて、以下に詳
しく説明する。
を動かして異なる姿勢に変更した例を示す図である。図
14(a)は、立っている人物画像から得られる人体モ
デルである。このような入力画像から得られる人体モデ
ルの各関節の角度を変更することにより、例えば、左手
を前に突き出したようにした図14(b)や、左手をあ
げて膝をついているようにした図14(c)の画像を生
成することができる。図15は入力画像から得られた人
物の人体モデルの姿勢を変形したものを示す図である。
図15(a)のような人物画像を入力し、この画像から
得た人体モデルの関節の角度を変える。関節の角度を変
えた人体モデルにテクスチャをマッピングし、最終的に
図15(b)のように異なる姿勢の人物画像に変更でき
る。
理特性を変更した動きを与えることで、入力画像とは異
なる動きをしている人物動画像を生成することができ
る。動作の物理特性の変更は、人体モデルの質量や慣性
モーメントを変更して、物理シミュレーションを行うこ
とで得られる。例えば、映像中の人物が歩行動作をして
いる場合、歩いている速さを変えたり、重い荷物を持っ
ているような動作に変更することに利用する。
の関節角を動かすときに、異なる人物の動きを計測した
結果を当てはめることもできる。例えば、あらかじめマ
リリン・モンローの歩き方を映画の中から計測してお
く。そして、その計測した歩き方を図15に示すような
入力した女性の映像に対して適用することにより、例え
ばマリリン・モンローの歩き方で動かすことができる。
手法では、顔、衣服などの人物テクスチャとの対応が取
れているため、顔だけを異なる人物に差し替えるなど
の、画像の構造を利用したビデオ編集を行うことができ
る。以上のように本システムでは、ビデオ映像から人物
画像を生成するため、人物CGを生成するときに一般的
に必要となる複雑な作業を省略して、リアルな人物動画
像を容易に生成することができる。そして、実在する俳
優のビデオ映像から人物CGを生成できるため、例え
ば、映画の制作現場において、危険なスタントシーンを
撮影するときに、主演している俳優が演技をしているよ
うに見せることができる。また、コマーシャルフィルム
(CM)の撮影において、過去の有名な人物を登場させ
て、他の俳優と競演させることができる。
ベースに応用した場合の機能構成を示す図である。図1
の構成と同様であるが、動作推定部20で人物動画像を
人体の姿勢角と人物テクスチャに分解したデータを格納
しておく蓄積部36と、蓄積部36より与えられた条件
に一致するデータを検索して取出し、画像生成部40に
データを渡す検索部38を備えている。ビデオ編集にお
いては、より自由度の高い人物画像の編集が望まれてい
る。例えば、既に撮影した映像中の人物を、異なるカメ
ラアングルから見た場合に変更したり、衣服や髪型の変
更、姿勢の変更を行うことができれば、ポスト・プロダ
クションの作業をより効果的に行うことができる。そこ
で本発明を応用して、動画像データベースに映像素材を
蓄積しておき、簡便に検索することで映像素材を再利用
することができる。
像取得部10からとりこんだ映像を動作推定部20によ
って動作パラメータと人物テクスチャを求め、それらを
蓄積部36に蓄積する。一方、検索部38は「人物が歩
いているシーン」「座っているシーン」等の人物の動作
を利用した検索条件を与え、検索を行い、検索条件に該
当する動作パラメータを取出すことができる。また、本
システムでは、人物テクスチャを分離して蓄積している
ため、「赤い洋服を着た人物が写っているシーン」のよ
うに、画像の構造を検索条件として利用した検索も可能
である。もちろん検索条件に該当する人物テクスチャも
取出すことができる。動画像データベースである蓄積部
36から検索部38が取出した動作パラメータと人物テ
クスチャは、画像生成部40において、カメラアングル
を変更したり、衣服や髪型の変更、姿勢の変更を行うこ
とができる。
影した映像中の人物を、異なる視点から見た場合に変更
したり、衣服や髪型の変更、姿勢の変更を行うことがで
きる。そのため、ポスト・プロダクションの作業をより
効果的に行うことができる。なお、これまでに述べたシ
ステムを実施するためのコンピュータ・プログラムを格
納した記録媒体から読み取ることにより、パソコンやワ
ークステーション、複数のコンピュータ・システム上に
本発明のシステムを実装することができる。また、プロ
グラムをインターネットのような通信回線を介して、取
得することにより、本システムをコンピュータ・システ
ムに実装することもできる。
理の適用により、リアルな人物CGを容易に生成するこ
とができ、ビデオ映像から人物の動作情報と輝度情報を
取得することで、リアルな人物CGを容易に生成するこ
とができる。そのため、ビデオ映像中の人物画像に対し
て、自由な視点位置から見たり、異なる動作に変更する
などの高度な操作を行うことが可能になる。また、人物
のような複雑な被写体に対して、衣服や髪型などCGを
合成することができる。さらに、多様な姿勢を持つ人物
画像を、関節角の変更で生成できるため、動画像圧縮の
手段としても利用することができる。
能構成を示す図である。
す図である。
す図である。
す図である。
デルの関係を示す図である。
示した図である。
の過程を示す図である。
例を示す図である。
報を補間する手法を示す図である。
である。
る。
た例を示す図である。
姿勢を変形したものを示す図である。
合の機能構成を示す図である。
Claims (7)
- 【請求項1】動画像生成システムであって、 2次元動画像を取得する動画像取得手段と、 前記取得した2次元動画像内の人物から、人体の3次元
モデルを構成する各オブジェクトの動作パラメータを得
る動作推定手段と、 前記2次元動画像内の人物よりオブジェクトのテクスチ
ャ・データを抽出するテクスチャ抽出手段と、 前記オブジェクトの動作パラメータを用いて、3次元モ
デルを生成する3次元モデル生成手段と、 前記3次元モデルから、視点を設定して2次元の動画像
を生成する画像生成手段とを備えることを特徴とする動
画像生成システム。 - 【請求項2】請求項1記載の動画像生成システムにおい
て、 前記動作推定手段は、前記取得した2次元動画像内の人
物から前記人体の3次元モデルを構成する各オブジェク
トの初期姿勢データを得る手段を有することを特徴とす
る画像生成システム。 - 【請求項3】請求項1又は2に記載の動画像生成システ
ムにおいて、 前記3次元モデル生成手段は、前記動作推定手段で得た
動作パラメータを変更する動作変更手段をさらに備え、
取得した2次元動画像の人物とは異なる動きの動画像を
生成することを特徴とする画像生成システム。 - 【請求項4】 請求項1〜3のいずれかに記載の動画像
生成システムにおいて、 前記画像生成手段は、前記生成した新たな3次元モデル
のオブジェクトに対するテクスチャ・データの不足する
部分を、前記抽出したテクスチャ・データより補間して
得ることを特徴とする動画像生成システム。 - 【請求項5】 請求項1〜4のいずれかに記載の画像生
成システムにおいて、 前記3次元モデル生成手段は、さらに、前記生成した3
次元モデルに、他のオブジェクトを合成することを特徴
とする動画像生成システム。 - 【請求項6】請求項1〜5のいずれかに記載の動画像生
成システムをコンピュータ・システムに構成させるコン
ピュータ・プログラム。 - 【請求項7】請求項6に記載のコンピュータ・プログラ
ムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001063854A JP4695275B2 (ja) | 2001-03-07 | 2001-03-07 | 動画像生成システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001063854A JP4695275B2 (ja) | 2001-03-07 | 2001-03-07 | 動画像生成システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002269580A true JP2002269580A (ja) | 2002-09-20 |
JP4695275B2 JP4695275B2 (ja) | 2011-06-08 |
Family
ID=18922773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001063854A Expired - Fee Related JP4695275B2 (ja) | 2001-03-07 | 2001-03-07 | 動画像生成システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4695275B2 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050039928A (ko) * | 2003-10-27 | 2005-05-03 | 이현창 | 컨텐츠 변형이 가능한 사이버 캐릭터 제공 장치 및 방법 |
KR100682849B1 (ko) | 2004-11-05 | 2007-02-15 | 한국전자통신연구원 | 디지털 캐릭터 생성 장치 및 그 방법 |
US7308332B2 (en) * | 2005-03-11 | 2007-12-11 | Kabushiki Kaisha Toshiba | Virtual clothing modeling apparatus and method |
CN100369064C (zh) * | 2005-07-14 | 2008-02-13 | 中国科学院计算技术研究所 | 一种基于视频内容的人体姿态变形方法 |
KR100856824B1 (ko) | 2007-07-23 | 2008-09-05 | 재단법인서울대학교산학협력재단 | 캐릭터 시뮬레이션 방법 및 시스템 |
JP2010134798A (ja) * | 2008-12-05 | 2010-06-17 | Namco Bandai Games Inc | プログラム、情報記憶媒体、ゲーム装置、及びゲームシステム |
US7999811B2 (en) | 2007-01-16 | 2011-08-16 | Sony Corporation | Image processing device, method, and program, and objective function |
JP2011238222A (ja) * | 2010-04-30 | 2011-11-24 | Liberovision Ag | 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法 |
JP2012208719A (ja) * | 2011-03-29 | 2012-10-25 | Casio Comput Co Ltd | 撮像装置及び撮像方法、並びにプログラム |
JP2013137785A (ja) * | 2004-07-30 | 2013-07-11 | Extreme Reality Ltd Israel | 3d空間次元に基づく画像処理のための装置およびシステム |
JP2020194569A (ja) * | 2016-01-28 | 2020-12-03 | 日本電信電話株式会社 | 仮想環境構築装置、仮想環境構築方法、およびプログラム |
CN113570688A (zh) * | 2021-07-24 | 2021-10-29 | 深圳市研色科技有限公司 | 一种文字动画自动生成方法及系统 |
JP2022037891A (ja) * | 2020-08-25 | 2022-03-09 | 株式会社セルシス | 3次元ポーズデータ生成システム、方法、プログラム |
JP2023504649A (ja) * | 2020-03-04 | 2023-02-06 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム |
WO2023132261A1 (ja) * | 2022-01-06 | 2023-07-13 | 国立研究開発法人情報通信研究機構 | 情報処理システム、情報処理方法および情報処理プログラム |
JP7390495B2 (ja) | 2020-03-27 | 2023-12-01 | 北京達佳互▲れん▼信息技術有限公司 | 髪のレンダリング方法、装置、電子機器及び記憶媒体 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200084395A (ko) | 2018-12-20 | 2020-07-13 | 삼성전자주식회사 | 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법 |
CN112906553B (zh) * | 2021-02-09 | 2022-05-17 | 北京字跳网络技术有限公司 | 图像处理方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08147494A (ja) * | 1994-11-17 | 1996-06-07 | Matsushita Electric Ind Co Ltd | 頭髪画像生成装置 |
JPH0935082A (ja) * | 1995-07-19 | 1997-02-07 | Hitachi Ltd | 画像処理方法および画像処理装置 |
JP2001005973A (ja) * | 1999-04-20 | 2001-01-12 | Atr Media Integration & Communications Res Lab | カラー画像による人物の3次元姿勢推定方法および装置 |
-
2001
- 2001-03-07 JP JP2001063854A patent/JP4695275B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08147494A (ja) * | 1994-11-17 | 1996-06-07 | Matsushita Electric Ind Co Ltd | 頭髪画像生成装置 |
JPH0935082A (ja) * | 1995-07-19 | 1997-02-07 | Hitachi Ltd | 画像処理方法および画像処理装置 |
JP2001005973A (ja) * | 1999-04-20 | 2001-01-12 | Atr Media Integration & Communications Res Lab | カラー画像による人物の3次元姿勢推定方法および装置 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050039928A (ko) * | 2003-10-27 | 2005-05-03 | 이현창 | 컨텐츠 변형이 가능한 사이버 캐릭터 제공 장치 및 방법 |
JP2013157014A (ja) * | 2004-07-30 | 2013-08-15 | Extreme Reality Ltd Israel | 3d空間次元に基づく画像処理のための装置およびシステム |
JP2013137785A (ja) * | 2004-07-30 | 2013-07-11 | Extreme Reality Ltd Israel | 3d空間次元に基づく画像処理のための装置およびシステム |
KR100682849B1 (ko) | 2004-11-05 | 2007-02-15 | 한국전자통신연구원 | 디지털 캐릭터 생성 장치 및 그 방법 |
US7308332B2 (en) * | 2005-03-11 | 2007-12-11 | Kabushiki Kaisha Toshiba | Virtual clothing modeling apparatus and method |
US7433753B2 (en) | 2005-03-11 | 2008-10-07 | Kabushiki Kaisha Toshiba | Virtual clothing modeling apparatus and method |
CN100369064C (zh) * | 2005-07-14 | 2008-02-13 | 中国科学院计算技术研究所 | 一种基于视频内容的人体姿态变形方法 |
US7999811B2 (en) | 2007-01-16 | 2011-08-16 | Sony Corporation | Image processing device, method, and program, and objective function |
US8350861B2 (en) | 2007-07-23 | 2013-01-08 | Snu R&Db Foundation | Method and system for simulating character |
KR100856824B1 (ko) | 2007-07-23 | 2008-09-05 | 재단법인서울대학교산학협력재단 | 캐릭터 시뮬레이션 방법 및 시스템 |
JP2010134798A (ja) * | 2008-12-05 | 2010-06-17 | Namco Bandai Games Inc | プログラム、情報記憶媒体、ゲーム装置、及びゲームシステム |
JP2011238222A (ja) * | 2010-04-30 | 2011-11-24 | Liberovision Ag | 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法 |
JP2012208719A (ja) * | 2011-03-29 | 2012-10-25 | Casio Comput Co Ltd | 撮像装置及び撮像方法、並びにプログラム |
JP2020194569A (ja) * | 2016-01-28 | 2020-12-03 | 日本電信電話株式会社 | 仮想環境構築装置、仮想環境構築方法、およびプログラム |
JP7508171B2 (ja) | 2020-03-04 | 2024-07-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム |
US11978142B2 (en) | 2020-03-04 | 2024-05-07 | Tencent America LLC | Method and device for synthesizing motion sequence of virtual object |
JP2023504649A (ja) * | 2020-03-04 | 2023-02-06 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム |
JP7390495B2 (ja) | 2020-03-27 | 2023-12-01 | 北京達佳互▲れん▼信息技術有限公司 | 髪のレンダリング方法、装置、電子機器及び記憶媒体 |
JP2022037891A (ja) * | 2020-08-25 | 2022-03-09 | 株式会社セルシス | 3次元ポーズデータ生成システム、方法、プログラム |
JP7212908B2 (ja) | 2020-08-25 | 2023-01-26 | 株式会社セルシス | 3次元ポーズデータ生成システム、方法、プログラム |
CN113570688A (zh) * | 2021-07-24 | 2021-10-29 | 深圳市研色科技有限公司 | 一种文字动画自动生成方法及系统 |
WO2023132261A1 (ja) * | 2022-01-06 | 2023-07-13 | 国立研究開発法人情報通信研究機構 | 情報処理システム、情報処理方法および情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4695275B2 (ja) | 2011-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Achenbach et al. | Fast generation of realistic virtual humans | |
Mueller et al. | Real-time hand tracking under occlusion from an egocentric rgb-d sensor | |
JP4695275B2 (ja) | 動画像生成システム | |
US20200021752A1 (en) | Skeleton-based effects and background replacement | |
De Aguiar et al. | Performance capture from sparse multi-view video | |
JP4473754B2 (ja) | 仮想試着装置 | |
KR101424942B1 (ko) | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 | |
US9196074B1 (en) | Refining facial animation models | |
KR101794731B1 (ko) | 2차원 캐릭터 그림데이터를 애니메이션이 가능한 3차원 모델로 변형하는 방법 및 장치 | |
JP2011521357A (ja) | ビデオ画像を利用したモーションキャプチャのシステム、方法、及び装置 | |
CN109829976A (zh) | 一种基于全息技术实时表演方法及其系统 | |
Yang et al. | A virtual try-on system in augmented reality using RGB-D cameras for footwear personalization | |
Bregler et al. | Video motion capture | |
CN115951784B (zh) | 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法 | |
CN108230431B (zh) | 一种二维虚拟形象的人体动作动画生成方法及系统 | |
Valente et al. | Face tracking and realistic animations for telecommunicant clones | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
JPH10240908A (ja) | 映像合成方法 | |
WO2021240848A1 (ja) | 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム | |
Richter et al. | Real-time reshaping of humans | |
CA3204613A1 (en) | Volumetric video from an image source | |
Remondino et al. | Human motion reconstruction and animation from video sequences | |
CN116246041A (zh) | 一种基于ar的手机虚拟试衣系统和方法 | |
CN113112586A (zh) | 基于先验模型的实时人体三维重建方法 | |
Akinjala et al. | Animating human movement & gestures on an agent using Microsoft kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100323 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100622 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100924 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20101006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110225 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140304 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4695275 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |