JP2002269580A - 動画像生成システム - Google Patents

動画像生成システム

Info

Publication number
JP2002269580A
JP2002269580A JP2001063854A JP2001063854A JP2002269580A JP 2002269580 A JP2002269580 A JP 2002269580A JP 2001063854 A JP2001063854 A JP 2001063854A JP 2001063854 A JP2001063854 A JP 2001063854A JP 2002269580 A JP2002269580 A JP 2002269580A
Authority
JP
Japan
Prior art keywords
moving image
image
dimensional
human body
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001063854A
Other languages
English (en)
Other versions
JP4695275B2 (ja
Inventor
Junichi Hoshino
准一 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2001063854A priority Critical patent/JP4695275B2/ja
Publication of JP2002269580A publication Critical patent/JP2002269580A/ja
Application granted granted Critical
Publication of JP4695275B2 publication Critical patent/JP4695275B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】 ビデオ画像より復元した人体の3次元モデル
を利用した動画像処理の適用により、リアルな人物CG
を容易に生成する。 【解決手段】 2次元動画像を取得し、その2次元動画
像の人物から、オブジェクトのテクスチャ・データの抽
出と、人体の3次元モデルを構成する各オブジェクトの
初期姿勢データおよび動作パラメータを得る。そのオブ
ジェクトのテクスチャ・データ、動作パラメータを用い
て3次元モデルを生成し、自由な視点位置から見た人物
画像を生成することができる。その際に3次元モデルの
オブジェクトに対するテクスチャ・データの不足する部
分を、抽出したテクスチャ・データより補間して得る。
また、2次元動画像より得た動作パラメータを変更する
ことで、取得した2次元動画像とは異なる動きの動画像
を生成したり、他のオブジェクトを合成して、別の衣服
や髪型の合成を行うこともできる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、2次元のビデオ映
像から、リアルな人物3次元CGを容易に生成すること
ができるシステムであり、特にビデオ映像から生成した
人物の3次元モデルを用いて、リアルな動画像を生成で
きる人物動画像生成システムに関する。
【0002】
【背景技術】今日、映画の特殊効果の生成や、ビデオゲ
ームの開発では、リアルな人物CGの生成が重要な課題
である。ところが、人物のように複雑な被写体のCGを
生成する作業は、ほとんどがアニメーターの手作業で行
われていて、非常にコストが高いという問題がある。近
年では、実際に存在する俳優のCGが必要とされること
も多い。例えば、映画の制作現場では、危険なスタント
・シーンを撮影するときに、代役で撮影した映像を加工
して、主演している俳優が演技をしているように見せる
ことが必要となる。また、コマーシャル・フィルム(C
M)では、過去の有名な人物を登場させて、他の俳優と
競演する場面が増えている。ところが、従来手法では、
既に撮影したフィルムから手作業で映像を切り出してつ
なぎ合わせる程度しかできないため、制約が大きいだけ
でなく、作業に必要な労力も膨大である。また、ビデオ
編集においても、より自由度の高い人物画像の編集が望
まれている。例えば、既に撮影した映像中の人物を、異
なるカメラ・アングルから見た場合に変更したり、衣服
や髪型の変更、姿勢の変更を行うことができれば、ポス
ト・プロダクションの作業をより効果的に行うことがで
きる。
【0003】これらのようにリアルな映像を容易に生成
する手法としては、CGの分野でイメージ・ベース・レ
ンダリング手法が提案されている。この手法では、実写
画像に3次元モデルを当てはめることで、自由な視点位
置から見た映像を生成する。ところが、従来手法では、
屋外の建築物などの単純な形状を持つ物体や、顔のよう
に単一の物体を対象としている。そのため、人物のよう
な複雑な動作を行う被写体へ適用することができないと
いう問題がある。自由な視点位置から画像を生成する手
法については、コンピュータ・ビジョンの分野でも、Vi
rtualized Reality(仮想化された現実)とも呼ばれて
盛んに研究が行われている。これらの手法では、撮影環
境内に多数のカメラを設置して、ステレオ法などの手段
により3次元モデルを生成する。ところが、正確な3次
元モデルを推定するためには、多数のカメラが必要とな
り、コストが高くなるという問題がある。また、オクル
ージョンによって見えない部分については、3次元形状
を復元することができないという問題がある。
【0004】
【発明が解決しようとする課題】本発明の目的は、ビデ
オ画像より復元した人体の3次元モデルを利用した動画
像生成処理の適用により、リアルな人物CGを容易に生
成することである。
【0005】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明は、動画像生成システムであって、2次元
動画像を取得する動画像取得手段と、前記取得した2次
元動画像内の人物から、人体の3次元モデルを構成する
各オブジェクトの動作パラメータを得る動作推定手段
と、前記2次元動画像内の人物よりオブジェクトのテク
スチャ・データを抽出するテクスチャ抽出手段と、前記
オブジェクトの動作パラメータを用いて、3次元モデル
を生成する3次元モデル生成手段と、前記3次元モデル
から、視点を設定して2次元の動画像を生成する画像生
成手段とを備える。これにより、生成した人体モデルと
テクスチャを利用して、新たな視点位置を設定すること
により別の視点位置から見た人物画像も生成することが
できる。
【0006】前記動作推定手段は、前記取得した2次元
動画像内の人物から前記人体の3次元モデルを構成する
各オブジェクトの初期姿勢データを得る手段を有するこ
ともできる。前記3次元モデル生成手段は、前記動作推
定手段で得た動作パラメータを変更する動作変更手段を
さらに備え、取得した2次元動画像の人物とは異なる動
きの動画像を生成することもできる。その際に、前記画
像生成手段は、前記生成した新たな3次元モデルのオブ
ジェクトに対するテクスチャ・データの不足する部分
を、前記抽出したテクスチャ・データより補間して得る
こともできる。前記3次元モデル生成手段は、前記生成
した3次元モデルに他のオブジェクトを合成することに
より、取得した動画像の人物に、CGによる別の衣服や
髪型の合成を行うこともできる。本動画像生成システム
をコンピュータ・システムに構成させるコンピュータ・
プログラムおよびコンピュータ・プログラムを記録した
記録媒体も本発明である。
【0007】
【発明の実施の形態】<本発明の概要>本発明は人体の
3次元モデルを利用した動画像処理の適用により、リア
ルな人物CGを容易に生成する人物画像生成システムで
ある。図1は本発明を用いた実施形態の一例である、モ
デルに基づく人物動画像生成システムの機能構成図を示
す。図1に示すように、本システムは、テレビカメラに
より人物の動画像を連続的に取得する画像取得部10、
人物の各関節のパラメータを推定したり、顔や衣服など
の人物テクスチャを抽出する動作推定部20、後述する
人体モデルを利用した隠蔽箇所の復元や、異なる視点位
置から見た画像の生成を行なったり、衣服CGや髪型C
Gの合成や、姿勢の変更などを行う画像生成部40、そ
して生成した結果を表示する画像表示部50で構成して
いる。
【0008】このような構成の本システムでは、画像取
得部10で取得した人物動画像に、あらかじめシステム
に用意してある人体の3次元モデルを当てはめて、動作
推定部20において、各関節の3次元動作を推定すると
共に、顔や衣服などの輝度情報を人体モデルのテクスチ
ャとして蓄積する。また、画像生成部40において、撮
影した視点位置から見たときに隠蔽されている箇所を、
人体モデルを利用したCGの生成で補うことで、全身像
を復元する。このようにして得た画像を画像表示部50
から表示している。図2〜図4は、本発明における処理
の概要を分かりやすく説明するために、ビデオ映像に上
述の処理を適用した例を示している。図2(a)は画像
取得部10で取得した入力画像の例である。図2(b)
は動作推定部20で人体モデルの姿勢を推定した例であ
る。図3(c)は、画像生成部40で人体の3次元モデ
ルにテクスチャ・マッピングをした人体画像を、自由な
視点位置から見た例である。そしてこのとき、画像生成
部40は撮影した視点位置から見たときに隠蔽されてい
る箇所を、人体モデルを利用したCGの生成で補ってい
る。図3(d)は前述のCGの生成で補った画像の例を
示す図である。
【0009】このように、本システムにおいては、生成
した人体モデルとテクスチャを利用して、自由な視点位
置から見た人物画像を生成したり、入力画像とは異なる
動作の人物画像を生成したり、人物のような複雑な被写
体に、CGによる別の衣服や髪型の合成を行うことがで
きる。図4(e)は衣服のCGを合成した例、図4
(f)は異なる姿勢へ変更した例である。また、多様な
姿勢を持つ人物画像を、関節角の変更データを用いて生
成できるため、動画像圧縮の手段としても利用すること
ができる。以上のような処理を行うシステムを以下に詳
細に説明する。
【0010】<モデルに基づく人物動作の推定>動作推
定部20におけるモデルに基づく人物動作を、動画像を
構成する連続した画像(フレーム)間から推定する処理
を以下に詳細に説明する。 (移動量の推定)動作推定部20においては、人体の3
次元モデルを当てはめて、各関節の3次元動作を推定し
ている。図5に、動作推定部20で用いている人体モデ
ル300を示す。図5のように、人体モデル300は、
各パーツをオブジェクトで表し、それらを接続すること
で全体を表している。この人体モデル300は、頭部3
10、胴体315、右上腕322、左上腕324、右前
腕332、左前腕334、右腿342、左腿344、右
膝下352、左膝下354の各パーツ(各オブジェク
ト)で構成している。動作推定部20では、このような
人体モデル300を利用してフレーム間の人物動作を推
定する。人体モデル300の各パーツ(各オブジェク
ト)の接続関係は、胴体315を頂点として、腕や頭部
といった末端のパーツに向かって親子関係の接続として
定めることができる。親パーツが動くと、その子に当た
るパーツは親パーツの座標系で規定される接続関係で一
緒に動くことになる。この人体モデル300を用いて、
以下で動作について説明を行う。なお、この人体モデル
は標準形をシステムで用意して、ユーザが対象となる人
物に会わせて調整することで得ることができる。図6
は、カメラ座標系およびワールド座標系と人体モデルの
関係を示す図である。この図において、動画像はカメラ
座標系で記述される画像面410に表示される。人体モ
デル300上の任意の点を、ワールド座標系を用いて、
【数1】p=(x,y,z) とする(上式で括弧の肩に付けられているTは転置行列
を表す)と、カメラ座標系に投影した画像面410上の
点(X,Y)は、
【数2】 X=fx/z Y=fy/z (fは画像面410を生成するカメラの焦点距離) となる。同様に、人体モデル300上にある任意の点p
に関する3次元速度ベクトルを、
【数3】 とすると、このベクトルはフレーム間での点pの移動速
度を表している。画像面410上の速度ベクトル(U,
V)とすると、両者の関係は、
【数4】U=(fu−Xw)/z V=(fv−Yw)/z となる。
【0011】また、画像面410上の点(X,Y)にお
ける時刻tでの輝度をE(X,Y,t)とする。そし
て、(Ex,Ey)を輝度微分、Eを時間微分とする
と、画像面410上の速度ベクトル(U,V)は、次の
時空間勾配の拘束条件式を満たす。
【数5】EU+EV+E=0 この式に上述のU,Vを代入すると、次式のように人体
モデル300上の任意の点pと、画像面410上の点
(X,Y)および輝度値Eの関係を示すことができ
る。
【数6】
【0012】次に、人体モデル300の全関節角の位置
と姿勢を表すベクトルsを
【数7】s=(s,s,……,s) として、sとpの関係を便宜的に非線形関数gを用いて
【数8】p=g(s) で表す。関数gは非線形であるが、sの時間変化率と速
度ベクトルの関係は、ヤコビ行列J(s)=∂g/∂s
により、線形式で関係付けることができる。
【数9】 よって、人体モデル300の全関節sの時間変化率と、
画像面410上の点の輝度値の関係式を導くことができ
る。
【数10】 上述では姿勢パラメータsと人体モデル上の任意の点p
の関係をp=g(s)で表した。この関係は人体の幾何
学構造から導出することができる。以下では、人体モデ
ルの幾何学的な関係を記述する際に、同次座標系を利用
する。同次座標系では、(x,y,z,w)の3次元空
間内の座標値は(x/w,y/w,z/w)となる。
【0013】(胴体のヤコビ行列の導出)人体モデルの
運動は、物体座標系における剛体変換εで表すことが
できる。3×3の回転行列をC、3次元の並行移動ベク
トルをDとすると、剛体変換εは、次式のように表す
ことができる。
【数11】 ただし、0はゼロの転置行列を表す。また、物体座標
の点
【数12】ρoi=(xoi,yoi,zoi,1) に剛体変換εを施す場合は、次式で表すことができ
る。
【数13】ρoi’=ερoi
【0014】ヤコビ行列を求めるためには、人体の各パ
ーツが運動したときに、カメラ座標系で見た人体モデル
上の点ρが、どのように変化するかを求めることが必
要となる。この関係式は、次の3つのステップで求め
る。 1)まず、カメラ座標系で見た胴体モデル上の点ρ
を、ワールド座標系に変換する操作を、剛体変換ε
で表す。
【数14】ρ=ερ 2)次に、胴体の運動を適用すると、胴体モデル上の点
ρがρ’に移動する。ρ’を求めるためには、ワ
ールド座標系の点ρを物体座標系に変換して、胴体の
運動εを適用した後に、ワールド座標系に戻す操作を
行う。この変換規則を
【数15】F=εoiεεoi −1 とおくと、胴体モデル上の点ρ’は次式で求めること
ができる。
【数16】ρ’=Fρ=Fερ 3)最後に、ワールド座標系の点ρ’をカメラ座標系
に変換する。
【数17】 ρ’=ε −1ρ’=ε −1ερ 上記のP’を時間微分することで、下記のヤコビ行列
が得られる。
【数18】
【0015】(その他の関節のヤコビ行列の導出)上記
では胴体の運動を表すヤコビ行列を導出したが、他の人
体パーツの場合は胴体を親としているため、運動に依存
関係が生じる。以下では、依存関係が1段階の場合(上
脚,上腕,頭)と、依存関係が2段階の場合(下脚,下
腕)の場合について、関係式を導出する。 1)上脚,上腕,頭の運動 胴体だけを親とする、左右上脚、左右上腕、頭の5つの
物体に関して定式化を行う。まず、ρをワールド座標
系に変換する。
【数19】ρ=εsjρ この場合は、子の移動に伴う剛体変換と座標変換F
適用する。そして、親(この場合は胴体(i=0))の
移動による変換F=[εoiεεoi −1]を適用
する。
【数20】ρsj''=εsj −1εsjρ そして胴体のヤコビ行列の導出と同様にρ’を時間微
分することで、ヤコビ行列を求める。
【0016】2)下脚,下腕の運動 右左下脚、右左下腕の場合は、上脚、上腕を親に持ち、
更に胴体を親として持っている。この場合も、胴体だけ
を親とする、依存関係が1段階の場合(上脚,上腕,
頭)と同様な変換規則を適用することで次式が得られ
る。
【数21】 ρsj'''=εsj −1i1εsjρ そしてこれまでのヤコビ行列の導出と同様にρ’を時
間微分することで、ヤコビ行列を求める。
【0017】3)N個の物体が接続された場合 物体の数が増加した場合も,2)と同様の規則で求める
ことができる。
【数22】 以上のヤコビ行列を利用して、上述の画像面410上の
点の輝度値の関係式を人体モデル300上の複数の点か
ら求めて、最小2乗法で解くことにより、人体の動作パ
ラメータsを求める。そして以下で説明する初期姿勢
に、上記で求めた動作パラメータを加算することで、各
フレームの人体モデル300の姿勢を得る。
【0018】<初期姿勢の推定>上述の動作推定法では
フレーム間の動きしか推定することができないため、人
体モデル300の初期姿勢を推定することが必要とな
る。以下では、拡張カルマン・フィルタにより、シルエ
ット画像から抽出した中心線と、人体モデルの体軸を一
致させる手法を述べる。ワールド座標系での人体モデル
300の各パーツの姿勢aを表した式を以下に示す。
【数23】a=[r,d] dはワールド座標の原点からの移動成分を表すベクトル
である。また、rはワールド座標の各座標軸である回転
軸に沿ったベクトルであり、ベクトルの大きさは回転角
に等しい。
【0019】図7は、画面上の線分の関係と、それに対
応する人体モデル300中のパーツとの関係を示した図
である。3次元(3D)線分Pの投影された画像面41
0上の2次元(2D)予測線分がQである。図7におけ
る2次元(2D)観測線分Q’と2D予測線分Qを、2
次元画面上410での始点および終点を表わすワールド
座標系のベクトルq’,q’,qおよびqで表
わした式を以下に示す。
【数24】Q’=(q’,q’) Q=(q,q) また、3D線分Pをワールド座標系での線分の始点およ
び終点を表わすベクトルpおよびpで表わした式を
以下に示す。
【数25】P=(p,p) そして、初期位置で観測された2D観測線分Q’と3D
線分Pの組をlとして、以下の式に示す。
【数26】l=(P,Q’) この3D線分Pと、それに対応する画像面410上での
2D観測線分Q’の組lを求める手法を以下に説明す
る。図8は入力した動画像より人体モデルの初期位置を
推定するまでの処理の過程を示す図である。この図8を
参照しながら以下に説明をする。
【0020】(中心線の推定)画像取得部10より取得
した画像のシルエット画像から中心線を推定する際に
は、手や足などの部位が胴体に隠れた場合、姿勢を推定
できない。ところが、本発明のシステムでは、フレーム
間の移動量を推定する手法と組み合わせて利用するた
め、処理に適したフレームだけを選択できれば良い。以
下の手順で中心線の推定を行う。
【0021】1)中心線が抽出しやすい姿勢のシルエッ
ト画像を予め選択してシステムに記憶しておく。このと
きに、シルエット画像に対応した人体モデルの姿勢パラ
メータも与えておく。姿勢パラメータは後述する手法に
より姿勢を微調整することができるので、大まかな値で
構わない。 2)図8(a)(i)および(ii)のような、画像取得
部10より取得した低解像度の入力画像系列で、あらか
じめシステムに記憶してあるシルエット画像とのマッチ
ングを行い、姿勢が類似しているフレームを選択する。 3)選択したシルエット画像では、人体モデルの大まか
な姿勢が分かっているため、画像面410上に各パーツ
の領域を投影することができる。それぞれの領域内のシ
ルエットを切り出して、主軸を求めて中心線とする。図
8(b)(i)および(ii)は入力画像に人体モデルを
当てはめ、各パーツの中心線を抽出し、表示した画像を
示す。
【0022】上記の手法より、抽出した中心線を利用し
て、3D線分Pと、それに対応する画像面410上での
2D観測線分Q’の組lを求めることができ、後述する
手法により人体モデルの正確な初期位置の推定を行うこ
とができる。
【0023】(初期姿勢の調整)各パーツの姿勢aが正
確な場合は、観測画像から得られた画像面410上の2
D観測線分Q’とカメラの原点Oとが作る平面Mの上に
3D線分Pが含まれる。ところが各パーツの姿勢aに誤
差がある場合は、図7(a)のように、画像面410上
に表示される線分Q’とカメラの原点Oとが作る平面M
と3D線分Pの間に距離が生じる。この距離の最短距離
を、予測誤差h(a,l)とし、以下の式のように表
す。
【数27】 h(a,l)は2×1のベクトルである。Rはrから導
出される3×3の回転行列である。また、nは面Mの単
位法線ベクトル
【数28】 である。aに誤差がない場合は、h(a,l)=0とな
り、図7(b)のように画像面410上の2D予測線分
Qが2D観測線分Q’と重なる。そして2D観測線分
Q’とカメラの原点が作る平面の上に3D線分Pが含ま
れるようになる。このときの3D線分Pの姿勢aが画像
面410上に表示されている2D観測線分Q’に対応し
ているということになる。h(a,l)は非線形なの
で、観測値l=^lと推定値a=^ai−1のまわり
に1次テーラー展開をして線形近似する。
【数29】 ただし∂h/∂a,∂h/∂lは偏微分を表す。これら
の偏微分係数は、以下のカルマン・フィルタを適用して
人体モデルの各パーツの姿勢a=[r,d]の最適値
を求める際に利用する。
【0024】対応付けがついた2D観測線分Q’と3D
線分Pの誤差h(a,l)が最小になるように、人体姿
勢aを補正し、位置の誤差分布σxiを減少させる。直
前に示したh(a,l)の線形近似式をゼロとおいて
書き直すと、次のような観測方程式が得られる。
【数30】z=Ha+ν ただし、
【数31】 である。ここでνの分散Bは次のように求める。
【数32】
【0025】以上の観測方程式より、人体パーツの姿勢
の2乗誤差を最小にする推定値は、カルマン・フィ
ルタで与えられる。
【数33】 人体姿勢aと誤差分布σは、新しい線分の対応付け
が行われるたびに更新される。以上の姿勢推定を人体の
各部位に適用することで、人体モデルの初期姿勢を推定
する。本発明のシステムでは、胴体の姿勢を最初に求め
て、上腕、上脚、下腕、下脚と胴体に近い順番に中心線
とのマッチングを行い、姿勢の推定を行う。このように
して、図8(a)(i)および(ii)の入力画像に初期
姿勢を推定し、図8(c)(i)および(ii)のように
人体モデルを重ね合わせた画像を得ることができる。
【0026】(2D、3D線分の対応付け)上述の手法
では、シルエット画像のマッチングにより、抽出した中
心線を利用して、3D線分Pと対応する2D観測線分
Q’の組lが求まったとして説明した。しかし、撮影環
境内に中心線として抽出可能な複数の線分がある場合、
1つの3D線分に対して複数の2D線分の候補があるこ
ととなる。そこで以下に示す2つの手法を併用して対応
付けを行う。まず2D画像面410上で見たときに、2
D観測線分Q’に射影したときに射影像が2D観測線分
Q’と重なる線分を候補として選択する。次に、推定値
の誤差分布と、2D、3D線分の誤差分布を考慮に入れ
て、統計的に一致すると判定できる線分を選択する。
【0027】1)2次元画面上での対応付け 図7を用いて2次元画像面410上で対応付けを行う手
法を示す。まず、図7(a)のように、3D線分Pを画
面上に投影して、2D予測線分Q=(q,q )を求
める。また、観測画像から2D観測線分Q’=
(q’,q’)を得る。2D観測線分Q’に対して
射影した2D予測線分Qの射影像が重複領域をもつ場合
は、対応の候補として選択する。重複領域の判定方法と
しては、2D予測線分Qを2D観測線分Q’に射影した
ときに、qあるいはqのどちらかの点がQ’の内部
にあれば、2D予測線分Qの射影像が2D観測線分Q’
に重なっていると考えることができる。まず、q
Q’に射影した場合の座標cは、Q’に沿う単位方向ベ
クトルを
【数34】m=N[q’−q’](N[ ]はベク
トルの正規化を表わす)とすると、
【数35】c=q’+m・(q−q’)m である。そして、cがQ’の内部に含まれる条件は、
【数36】(c−q’)・(c−q’)<0 となる。この操作をq,q,q’,q’に関し
て行い、上記の条件を満たさない線分は棄却する。
【0028】2)誤差分布を考慮に入れた対応付け 人体姿勢の誤差分布σxiと、2D,3D線分の誤差分
布σliを使ってχ検定を行い、統計的に一致しない
と考えられる線分を棄却する。ここでは、2D−3D線
分が一致していると仮定して、仮説検定を行う。人体姿
勢a=[r,d]と観測値l=(P,Q’)の誤差分
布を、正規分布σai〜N(0,P),σli〜N
(0,L)と仮定する。h(^ai−l,^l)の
1次、2次統計量は、
【数37】
【数38】 となる。これよりマハラノビス距離kを次のように求め
ることができる。
【数39】 h(^ai−1,^l)の誤差分布はh(^
i−1,^l)〜N(0,Z )であるため、k
(^ai−1,^l)〜χ(ζ)となる(ただしζ
=Rank(Z))。χ(ζ)分布から、確率に基
づくしきい値を設置することができる。例えばk(^a
i−1,^l)<9.21は、Zがランク2(ζ=
2)のときに99%の線分が受け付けられることを意味
している。しきい値以上の線分は、統計的に一致すると
考えられないため、棄却することができる。複数の線分
が候補として残った場合は、k(^ai−1,^l
の距離値が最小のものを選択する。以上の2つの手法を
併用して、2D予測線分Qが2D観測線分Q’に一番近
い3D線分Pと画像面410上で対応する2D観測線分
Q’の組l=(P,Q’)を求めることができる。な
お、上述の人体モデルの初期姿勢は、ユーザーが人体モ
デルの姿勢を推定して画像面に投影し、入力画像に重ね
合わせて当てはめることによりで求めてもよい。
【0029】<隠蔽箇所の復元>画像生成部40で行っ
ている隠蔽箇所の復元処理を、以下に詳細に説明する。
図9は上述の手法で、人体モデルにテクスチャ・マッピ
ングを行い、撮影位置とは異なる視点位置から見た例を
示す図である。図9(a)の2次元の画像より、人物の
姿勢を推定することができると、この姿勢における人体
パーツの3次元モデル上の輝度分布を求めることができ
る。顔、皮膚、衣服等の輝度情報を、3次元モデル上の
テクスチャとして蓄積する。このように人物テクスチャ
をマッピングした3次元モデルから、従来のCGモデル
をレンダリングするのと同じ手法で、自由な視点位置か
ら見た画像を生成することができる。
【0030】しかし、図9(b)からも分かるように、
1台のテレビカメラで撮影した画像からでは、人物の全
身像の輝度情報を得ることができないという問題が起こ
る。例えば、図9(a)のようにカメラに対して前に向
いている人物を撮影した場合は、人物の背後が隠蔽され
ていて撮影できない。そのため、図9(b)のように異
なる方向から見た場合に、全身像を表示することができ
ない。この問題を解決するため、画像生成部40では、
人体モデルを利用した復元手法を用いている。隠蔽部分
を復元する手法としてはいくつかあるが、例として2つ
の手法を説明する。
【0031】入力画像から得られた輝度情報の利用に
よる復元 入力画像から得られた輝度情報を利用する方法として
は、様々なものがあるが、ここでは腕や足などの人体パ
ーツの対称性を利用した方法を述べる。図10は、入力
された画像中の人体パーツの対称性から輝度情報を補間
する手法を説明するための図である。図10に示すよう
に、体軸を垂直に切ってみたとき(図10(a)参照)
に、画像から得られた輝度値で点対称の位置にある隠蔽
部分の輝度値を埋める(図10(b)参照)ことで補間
して全体の輝度値を得る(図10(c)参照)。このと
きに、点対称の補間では求まらず、隙間になっている箇
所や、部分的に空白になっているところは、近傍の輝度
値を参照して、スプライン補間などの手法で輝度値を補
間する。なお、より高度な手法として、入力画像から洋
服の模様(テクスチャ)を分析して、隠蔽部分に張り付
ける等の補間とすることもできる。
【0032】CGの生成による復元 頭髪のように形状が予測できるものに関してはCGで補
間することができる。頭髪の色は、画像中の輝度値を参
照して決定する。図11はCGで頭髪を生成した例を示
す図である。図11(a)は、人体モデルに頭髪を張り
付けたところである。この頭髪に重力をかけるという計
算をすることで、図11(b)のように頭髪を頭部にフ
ィッティングすることができる。図11(c)は人物が
歩いた場合の頭髪の動的な変化をシミュレートした例を
示したものである。
【0033】<人物画像とCG画像の合成>画像生成部
40で行っている、人物とCG画像の合成処理につい
て、以下に詳細に説明する。画像生成部40では、推定
した人物の3次元姿勢を利用してCG画像を生成するこ
とができるため、入力画像とは異なる衣服CGや頭髪C
Gを人物と合成することも可能である。図12はCGに
よる衣服の例を示す図である。以下に、図12に示すよ
うな衣服CGを人物と合成する例で説明する。図12
(a)は衣服を生成したところである。この衣服を人体
の3次元モデルに衣服モデルを着せる(重ね合わせ
る)。まず、モデルと衣服画像の衝突計算を行うこと
で、図12(a)で示すような生成した衣服画像から、
人体モデルの形状に合わせた衣服画像を生成する。衣服
と人体モデルの衝突計算は、従来から提案されている手
法を利用する。その結果、図12(b)のように衣服画
像が人物の3次元形状にフィッティングする。次にフレ
ーム間の人体の動作に合わせて、衣服のダイナミックな
動きをシミュレートする。人体の動作情報は、上述の手
法で推定した値を利用する。また、衣服画像のシミュレ
ーション手法は、従来から提案されている手法を利用す
る。図12(c)は、歩行動作に合わせて衣服シミュレ
ーションを行った例である。このようにして得られた衣
服モデルと人体モデルを同時にレンダリングすること
で、合成した映像が得られる。図13は衣服CGを合成
した例を示す図である。図13(b)は、上記の処理を
行って図13(a)のような入力画像の人物に衣服CG
を合成した画像を示す図である。
【0034】<モデルに基づく人物動画像の編集>これ
まで説明したように、画像生成部40では、人物の動作
推定と隠蔽箇所の復元をする手法により、人体の3次元
モデルと、顔、衣服などの人物テクスチャを得ることが
できる。その上、画像生成部40では、人体モデルの各
関節の角度を変更するだけで、様々な姿勢を持った人物
画像を生成することができる。これについて、以下に詳
しく説明する。
【0035】(異なる姿勢の生成)図14は人体モデル
を動かして異なる姿勢に変更した例を示す図である。図
14(a)は、立っている人物画像から得られる人体モ
デルである。このような入力画像から得られる人体モデ
ルの各関節の角度を変更することにより、例えば、左手
を前に突き出したようにした図14(b)や、左手をあ
げて膝をついているようにした図14(c)の画像を生
成することができる。図15は入力画像から得られた人
物の人体モデルの姿勢を変形したものを示す図である。
図15(a)のような人物画像を入力し、この画像から
得た人体モデルの関節の角度を変える。関節の角度を変
えた人体モデルにテクスチャをマッピングし、最終的に
図15(b)のように異なる姿勢の人物画像に変更でき
る。
【0036】(動作の物理特性の変更)人体モデルに物
理特性を変更した動きを与えることで、入力画像とは異
なる動きをしている人物動画像を生成することができ
る。動作の物理特性の変更は、人体モデルの質量や慣性
モーメントを変更して、物理シミュレーションを行うこ
とで得られる。例えば、映像中の人物が歩行動作をして
いる場合、歩いている速さを変えたり、重い荷物を持っ
ているような動作に変更することに利用する。
【0037】(異なる動き情報の当てはめ)人体モデル
の関節角を動かすときに、異なる人物の動きを計測した
結果を当てはめることもできる。例えば、あらかじめマ
リリン・モンローの歩き方を映画の中から計測してお
く。そして、その計測した歩き方を図15に示すような
入力した女性の映像に対して適用することにより、例え
ばマリリン・モンローの歩き方で動かすことができる。
【0038】(部分的な人物テクスチャの張り替え)本
手法では、顔、衣服などの人物テクスチャとの対応が取
れているため、顔だけを異なる人物に差し替えるなど
の、画像の構造を利用したビデオ編集を行うことができ
る。以上のように本システムでは、ビデオ映像から人物
画像を生成するため、人物CGを生成するときに一般的
に必要となる複雑な作業を省略して、リアルな人物動画
像を容易に生成することができる。そして、実在する俳
優のビデオ映像から人物CGを生成できるため、例え
ば、映画の制作現場において、危険なスタントシーンを
撮影するときに、主演している俳優が演技をしているよ
うに見せることができる。また、コマーシャルフィルム
(CM)の撮影において、過去の有名な人物を登場させ
て、他の俳優と競演させることができる。
【0039】<その他の実施形態> (動画像データベース)図16は本発明を動画像データ
ベースに応用した場合の機能構成を示す図である。図1
の構成と同様であるが、動作推定部20で人物動画像を
人体の姿勢角と人物テクスチャに分解したデータを格納
しておく蓄積部36と、蓄積部36より与えられた条件
に一致するデータを検索して取出し、画像生成部40に
データを渡す検索部38を備えている。ビデオ編集にお
いては、より自由度の高い人物画像の編集が望まれてい
る。例えば、既に撮影した映像中の人物を、異なるカメ
ラアングルから見た場合に変更したり、衣服や髪型の変
更、姿勢の変更を行うことができれば、ポスト・プロダ
クションの作業をより効果的に行うことができる。そこ
で本発明を応用して、動画像データベースに映像素材を
蓄積しておき、簡便に検索することで映像素材を再利用
することができる。
【0040】具体的な実現手段として、本システムの画
像取得部10からとりこんだ映像を動作推定部20によ
って動作パラメータと人物テクスチャを求め、それらを
蓄積部36に蓄積する。一方、検索部38は「人物が歩
いているシーン」「座っているシーン」等の人物の動作
を利用した検索条件を与え、検索を行い、検索条件に該
当する動作パラメータを取出すことができる。また、本
システムでは、人物テクスチャを分離して蓄積している
ため、「赤い洋服を着た人物が写っているシーン」のよ
うに、画像の構造を検索条件として利用した検索も可能
である。もちろん検索条件に該当する人物テクスチャも
取出すことができる。動画像データベースである蓄積部
36から検索部38が取出した動作パラメータと人物テ
クスチャは、画像生成部40において、カメラアングル
を変更したり、衣服や髪型の変更、姿勢の変更を行うこ
とができる。
【0041】上述のようにビデオ編集において、既に撮
影した映像中の人物を、異なる視点から見た場合に変更
したり、衣服や髪型の変更、姿勢の変更を行うことがで
きる。そのため、ポスト・プロダクションの作業をより
効果的に行うことができる。なお、これまでに述べたシ
ステムを実施するためのコンピュータ・プログラムを格
納した記録媒体から読み取ることにより、パソコンやワ
ークステーション、複数のコンピュータ・システム上に
本発明のシステムを実装することができる。また、プロ
グラムをインターネットのような通信回線を介して、取
得することにより、本システムをコンピュータ・システ
ムに実装することもできる。
【0042】
【発明の効果】人体の3次元モデルを利用した動画像処
理の適用により、リアルな人物CGを容易に生成するこ
とができ、ビデオ映像から人物の動作情報と輝度情報を
取得することで、リアルな人物CGを容易に生成するこ
とができる。そのため、ビデオ映像中の人物画像に対し
て、自由な視点位置から見たり、異なる動作に変更する
などの高度な操作を行うことが可能になる。また、人物
のような複雑な被写体に対して、衣服や髪型などCGを
合成することができる。さらに、多様な姿勢を持つ人物
画像を、関節角の変更で生成できるため、動画像圧縮の
手段としても利用することができる。
【図面の簡単な説明】
【図1】 モデルに基づく人物動画像生成システムの機
能構成を示す図である。
【図2】 ビデオ映像に本発明の処理を適用した例を示
す図である。
【図3】 ビデオ映像に本発明の処理を適用した例を示
す図である。
【図4】 ビデオ映像に本発明の処理を適用した例を示
す図である。
【図5】 人体モデルを示す図である。
【図6】 カメラ座標系およびワールド座標系と人体モ
デルの関係を示す図である。
【図7】 画面上の線分の関係と人体パーツとの関係を
示した図である。
【図8】 人体モデルの初期位置を推定するまでの処理
の過程を示す図である。
【図9】 撮影位置とは異なる視点位置から画像を見た
例を示す図である。
【図10】 入力された画像中の人体パーツから輝度情
報を補間する手法を示す図である。
【図11】 CGで頭髪を生成した例を示す図である。
【図12】 CGの衣服シミュレーションの例を示す図
である。
【図13】 衣服CGを合成した実験例を示す図であ
る。
【図14】 人体モデルを動かして異なる姿勢に変更し
た例を示す図である。
【図15】 入力画像から得られた人物の人体モデルの
姿勢を変形したものを示す図である。
【図16】 本発明を動画像データベースに応用した場
合の機能構成を示す図である。
【符号の説明】
10 画像取得部 20 動作推定部 36 蓄積部 38 検索部 40 画像生成部 50 画像表示部 300 人体モデル 310 頭部 315 胴体 322 右上腕 324 左上腕 332 右前腕 334 左前腕 342 右腿 344 左腿 352 右膝下 354 左膝下 410 画像面

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】動画像生成システムであって、 2次元動画像を取得する動画像取得手段と、 前記取得した2次元動画像内の人物から、人体の3次元
    モデルを構成する各オブジェクトの動作パラメータを得
    る動作推定手段と、 前記2次元動画像内の人物よりオブジェクトのテクスチ
    ャ・データを抽出するテクスチャ抽出手段と、 前記オブジェクトの動作パラメータを用いて、3次元モ
    デルを生成する3次元モデル生成手段と、 前記3次元モデルから、視点を設定して2次元の動画像
    を生成する画像生成手段とを備えることを特徴とする動
    画像生成システム。
  2. 【請求項2】請求項1記載の動画像生成システムにおい
    て、 前記動作推定手段は、前記取得した2次元動画像内の人
    物から前記人体の3次元モデルを構成する各オブジェク
    トの初期姿勢データを得る手段を有することを特徴とす
    る画像生成システム。
  3. 【請求項3】請求項1又は2に記載の動画像生成システ
    ムにおいて、 前記3次元モデル生成手段は、前記動作推定手段で得た
    動作パラメータを変更する動作変更手段をさらに備え、
    取得した2次元動画像の人物とは異なる動きの動画像を
    生成することを特徴とする画像生成システム。
  4. 【請求項4】 請求項1〜3のいずれかに記載の動画像
    生成システムにおいて、 前記画像生成手段は、前記生成した新たな3次元モデル
    のオブジェクトに対するテクスチャ・データの不足する
    部分を、前記抽出したテクスチャ・データより補間して
    得ることを特徴とする動画像生成システム。
  5. 【請求項5】 請求項1〜4のいずれかに記載の画像生
    成システムにおいて、 前記3次元モデル生成手段は、さらに、前記生成した3
    次元モデルに、他のオブジェクトを合成することを特徴
    とする動画像生成システム。
  6. 【請求項6】請求項1〜5のいずれかに記載の動画像生
    成システムをコンピュータ・システムに構成させるコン
    ピュータ・プログラム。
  7. 【請求項7】請求項6に記載のコンピュータ・プログラ
    ムを記録した記録媒体。
JP2001063854A 2001-03-07 2001-03-07 動画像生成システム Expired - Fee Related JP4695275B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001063854A JP4695275B2 (ja) 2001-03-07 2001-03-07 動画像生成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001063854A JP4695275B2 (ja) 2001-03-07 2001-03-07 動画像生成システム

Publications (2)

Publication Number Publication Date
JP2002269580A true JP2002269580A (ja) 2002-09-20
JP4695275B2 JP4695275B2 (ja) 2011-06-08

Family

ID=18922773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001063854A Expired - Fee Related JP4695275B2 (ja) 2001-03-07 2001-03-07 動画像生成システム

Country Status (1)

Country Link
JP (1) JP4695275B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050039928A (ko) * 2003-10-27 2005-05-03 이현창 컨텐츠 변형이 가능한 사이버 캐릭터 제공 장치 및 방법
KR100682849B1 (ko) 2004-11-05 2007-02-15 한국전자통신연구원 디지털 캐릭터 생성 장치 및 그 방법
US7308332B2 (en) * 2005-03-11 2007-12-11 Kabushiki Kaisha Toshiba Virtual clothing modeling apparatus and method
CN100369064C (zh) * 2005-07-14 2008-02-13 中国科学院计算技术研究所 一种基于视频内容的人体姿态变形方法
KR100856824B1 (ko) 2007-07-23 2008-09-05 재단법인서울대학교산학협력재단 캐릭터 시뮬레이션 방법 및 시스템
JP2010134798A (ja) * 2008-12-05 2010-06-17 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置、及びゲームシステム
US7999811B2 (en) 2007-01-16 2011-08-16 Sony Corporation Image processing device, method, and program, and objective function
JP2011238222A (ja) * 2010-04-30 2011-11-24 Liberovision Ag 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
JP2012208719A (ja) * 2011-03-29 2012-10-25 Casio Comput Co Ltd 撮像装置及び撮像方法、並びにプログラム
JP2013137785A (ja) * 2004-07-30 2013-07-11 Extreme Reality Ltd Israel 3d空間次元に基づく画像処理のための装置およびシステム
JP2020194569A (ja) * 2016-01-28 2020-12-03 日本電信電話株式会社 仮想環境構築装置、仮想環境構築方法、およびプログラム
CN113570688A (zh) * 2021-07-24 2021-10-29 深圳市研色科技有限公司 一种文字动画自动生成方法及系统
JP2022037891A (ja) * 2020-08-25 2022-03-09 株式会社セルシス 3次元ポーズデータ生成システム、方法、プログラム
JP2023504649A (ja) * 2020-03-04 2023-02-06 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム
WO2023132261A1 (ja) * 2022-01-06 2023-07-13 国立研究開発法人情報通信研究機構 情報処理システム、情報処理方法および情報処理プログラム
JP7390495B2 (ja) 2020-03-27 2023-12-01 北京達佳互▲れん▼信息技術有限公司 髪のレンダリング方法、装置、電子機器及び記憶媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200084395A (ko) 2018-12-20 2020-07-13 삼성전자주식회사 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법
CN112906553B (zh) * 2021-02-09 2022-05-17 北京字跳网络技术有限公司 图像处理方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147494A (ja) * 1994-11-17 1996-06-07 Matsushita Electric Ind Co Ltd 頭髪画像生成装置
JPH0935082A (ja) * 1995-07-19 1997-02-07 Hitachi Ltd 画像処理方法および画像処理装置
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147494A (ja) * 1994-11-17 1996-06-07 Matsushita Electric Ind Co Ltd 頭髪画像生成装置
JPH0935082A (ja) * 1995-07-19 1997-02-07 Hitachi Ltd 画像処理方法および画像処理装置
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050039928A (ko) * 2003-10-27 2005-05-03 이현창 컨텐츠 변형이 가능한 사이버 캐릭터 제공 장치 및 방법
JP2013157014A (ja) * 2004-07-30 2013-08-15 Extreme Reality Ltd Israel 3d空間次元に基づく画像処理のための装置およびシステム
JP2013137785A (ja) * 2004-07-30 2013-07-11 Extreme Reality Ltd Israel 3d空間次元に基づく画像処理のための装置およびシステム
KR100682849B1 (ko) 2004-11-05 2007-02-15 한국전자통신연구원 디지털 캐릭터 생성 장치 및 그 방법
US7308332B2 (en) * 2005-03-11 2007-12-11 Kabushiki Kaisha Toshiba Virtual clothing modeling apparatus and method
US7433753B2 (en) 2005-03-11 2008-10-07 Kabushiki Kaisha Toshiba Virtual clothing modeling apparatus and method
CN100369064C (zh) * 2005-07-14 2008-02-13 中国科学院计算技术研究所 一种基于视频内容的人体姿态变形方法
US7999811B2 (en) 2007-01-16 2011-08-16 Sony Corporation Image processing device, method, and program, and objective function
US8350861B2 (en) 2007-07-23 2013-01-08 Snu R&Db Foundation Method and system for simulating character
KR100856824B1 (ko) 2007-07-23 2008-09-05 재단법인서울대학교산학협력재단 캐릭터 시뮬레이션 방법 및 시스템
JP2010134798A (ja) * 2008-12-05 2010-06-17 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置、及びゲームシステム
JP2011238222A (ja) * 2010-04-30 2011-11-24 Liberovision Ag 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
JP2012208719A (ja) * 2011-03-29 2012-10-25 Casio Comput Co Ltd 撮像装置及び撮像方法、並びにプログラム
JP2020194569A (ja) * 2016-01-28 2020-12-03 日本電信電話株式会社 仮想環境構築装置、仮想環境構築方法、およびプログラム
JP7508171B2 (ja) 2020-03-04 2024-07-01 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム
US11978142B2 (en) 2020-03-04 2024-05-07 Tencent America LLC Method and device for synthesizing motion sequence of virtual object
JP2023504649A (ja) * 2020-03-04 2023-02-06 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想オブジェクトのモーションシーケンスの合成方法及び生成方法、並びに合成装置、コンピュータプログラム
JP7390495B2 (ja) 2020-03-27 2023-12-01 北京達佳互▲れん▼信息技術有限公司 髪のレンダリング方法、装置、電子機器及び記憶媒体
JP2022037891A (ja) * 2020-08-25 2022-03-09 株式会社セルシス 3次元ポーズデータ生成システム、方法、プログラム
JP7212908B2 (ja) 2020-08-25 2023-01-26 株式会社セルシス 3次元ポーズデータ生成システム、方法、プログラム
CN113570688A (zh) * 2021-07-24 2021-10-29 深圳市研色科技有限公司 一种文字动画自动生成方法及系统
WO2023132261A1 (ja) * 2022-01-06 2023-07-13 国立研究開発法人情報通信研究機構 情報処理システム、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP4695275B2 (ja) 2011-06-08

Similar Documents

Publication Publication Date Title
Achenbach et al. Fast generation of realistic virtual humans
Mueller et al. Real-time hand tracking under occlusion from an egocentric rgb-d sensor
JP4695275B2 (ja) 動画像生成システム
US20200021752A1 (en) Skeleton-based effects and background replacement
De Aguiar et al. Performance capture from sparse multi-view video
JP4473754B2 (ja) 仮想試着装置
KR101424942B1 (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US9196074B1 (en) Refining facial animation models
KR101794731B1 (ko) 2차원 캐릭터 그림데이터를 애니메이션이 가능한 3차원 모델로 변형하는 방법 및 장치
JP2011521357A (ja) ビデオ画像を利用したモーションキャプチャのシステム、方法、及び装置
CN109829976A (zh) 一种基于全息技术实时表演方法及其系统
Yang et al. A virtual try-on system in augmented reality using RGB-D cameras for footwear personalization
Bregler et al. Video motion capture
CN115951784B (zh) 一种基于双神经辐射场的穿衣人体运动捕捉和生成方法
CN108230431B (zh) 一种二维虚拟形象的人体动作动画生成方法及系统
Valente et al. Face tracking and realistic animations for telecommunicant clones
Zou et al. Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking
JPH10240908A (ja) 映像合成方法
WO2021240848A1 (ja) 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム
Richter et al. Real-time reshaping of humans
CA3204613A1 (en) Volumetric video from an image source
Remondino et al. Human motion reconstruction and animation from video sequences
CN116246041A (zh) 一种基于ar的手机虚拟试衣系统和方法
CN113112586A (zh) 基于先验模型的实时人体三维重建方法
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100622

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100924

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4695275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees