JP4202479B2 - 三次元動作復元システム - Google Patents
三次元動作復元システム Download PDFInfo
- Publication number
- JP4202479B2 JP4202479B2 JP26991298A JP26991298A JP4202479B2 JP 4202479 B2 JP4202479 B2 JP 4202479B2 JP 26991298 A JP26991298 A JP 26991298A JP 26991298 A JP26991298 A JP 26991298A JP 4202479 B2 JP4202479 B2 JP 4202479B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- dimensional
- image
- segments
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
この発明は、身体の動作を認識するシステムに関し、より詳しくは、実際のまたは前もって記録された身体のイメージシーケンスから人物の身体の三次元の位置推定を復元するための三次元動作復元システムに関するものである。
【0002】
【従来の技術】
人物が動いているフィルムまたは映像を見る際、二次元で映し出されるイメージをある期間見て、動いている人物の三次元での動作を容易に推定できる。ダンサーはフィルムに描写された動作を繰り返すことができる。しかし、そのような三次元の動作をコンピュータが推定することは困難である。
【0003】
三次元の動作を推測する同等の能力を有するコンピュータから多くの応用ができる。対話式ゲームや仮想現実と同様にエレベータやエスカレータの公共安全への応用がある。コンピュータグラフィックでは、成長産業はデジタル化された人物像の動作がコンピュータグラフィックのキャラクターを動かす「動作捕獲」(motion capture)に専心している。人物の三次元動作の情報は複測定カメラおよび特別な目的の目印を利用する磁気センサや光学技術のいずれかによってデジタル化される。しかし不都合なことに、いずれの技術も高価であり、扱いにくい。単一カメラ映像から三次元像の動作情報を得ることで、一般の一眼ビデオカメラでの動作捕獲を可能にし、記録保持フィルムまたは映像に応用できる。
【0004】
【発明が解決しようとする課題】
L.Goncalves、E.D.Bernardo、E.Ursella、およびP.Peronaの、「Monocular tracking of the human arm in 3d.」(Proc. 5th Intl. Conf. on Computer Vision,764−770ページ、IEEE、1995年)に述べられているように、制限された観察および動作状態下で、Goncalvesおよび合作者が三次元で腕の動作をトラックした。「Model‐based tracking of self‐occluding articulated objects」(Proc. 5th Intl. Conf. on Computer Vision、612−617ページ、IEEE、1995年)と題されるJ.M.RehgおよびT.Kanadeの記事では、いくつかの手の動作が三次元でトラックされ、かなりの咬合が認められている。しかしながら、これには三次元モデルの初期設定および制御された観察状態が必要である。一つ以上のカメラから身体の位置を復元する作業は、D.M.GavrilaおよびL.S.Davisの、「3‐d model‐based tracking of humans in action: a multi‐view approach」(Proc. IEEE CVPR、73−80ページ、1996年)に述べられているように、より成功しやすい。I.Essaにより編集され、「Internaltional Workshop on Automatic Face‐ and Gesture‐ Recognition」(IEEE Computer Society, Killington, バーモント、1997年)と題される本に示されているように、この研究の注目度に反して、単一カメラ映像から三次元像動作を復元する問題はまだ満足のいくようには解決されていない。
【0005】
【課題を解決するための手段】
個人に目印を使用せずに、また6つものカメラを使用せずに人物の動作を感知するために、映像入力信号および元のトレーニング集合を取り、映像入力、トレーニングデータおよび手動で入力された修正に対応する身体の目印の最適化された三次元の座標を出力するオプティマイザーが使用される。
【0006】
最適化を成し遂げるために、オプティマイザーは入力映像を説明し,ユーザ修正に対応し、またもっともらしい三次元動作セグメントであるのに最も起こりそうなトレーニングデータの線形結合を見つけだす。一実施例では、最適な三次元座標を導き出してから、行為者の身体に物理的な目印を使用せずに、行為者を観察する単一カメラからリアルな漫画のキャラクターが生成される。行為者の動作をキャラクター化できるだけでなく、記録保持フィルムをフィルム中の行為者の動作に関して解析可能である。結果として、いかなる目的にでも簡単な面倒でない方法で動画を生成することができる。
【0007】
一実施例において、オプティマイザーは以下の公式に従って役割を果たす。
【0008】
【数3】
【0009】
ここで、E(→α)は見つけだされる最適係数 により最小となるエネルギー関数であり、→Rはイメージデータからの時間経過に伴うセンサ応答のベクトルである。なお、「→」はベクトルを表す。関数→fは身体の動作係数→αを予測されたセンサ応答に変換する。→Iiはユーザにより特定されるi番目のポイント位置であり、Piは対応するi番目の棒線像部二次元位置上に係数αを射影する。λ1およびλ2はイメージデータのウェート、人物の動作に対する優先、対話的に特定された二次元ポイントの一致を反映する定数である。
【0010】
本発明では、トレーニングデータの形でどのように人物が動くかについての強固な事前知識が用いられる。この事前知識が三次元人物の動作例と適合して三次元復元を劇的に向上させる。
【0011】
本発明では、簡略化されたイメージレンダリング領域での三次元復元はベイズ解析を利用して、イメージデータから像の動作を推定することについての基本的な疑問への解析解を提供する。ベイズの方法を実際のイメージに適用することは、困難なフィルムシーケンスからさえも復元を可能にする自動二次元追跡エラーの対話的修正に対応する本システムを用いて、記録保持映像から人物像の動作を復元することを可能にする。一実施例においては、棒線像が動いている人物のイメージ上に重ねられ、ユーザが二次元動作推定エラーを確認し修正するのを可能にする。
【0012】
要するに、統計学的アプローチと共に動作の捕獲例の集合を用いて人物像の短い動作シーケンスにガウスの確率モデルが形成される単眼的に観察されたイメージシーケンスから、人物の三次元の動作を復元するためのシステムが提供される。簡略化されたレンダリング領域において、これにより与えられた二次元の一時的なシーケンスからリアルな動画を生成するために使用される人物動作の最適な三次元推定がもたらされる。本発明はまた、推定が困難な動作形態を識別するのに有用である。一実施例では、不正確にトラックされた身体の部分を手動で修正できるように、棒線像が入力映像イメージ上に重ねられる。棒線像の修正は、入力映像シーケンスで表現される動作をより正確に三次元で復元するように手動で修正できるようにする。対話式追跡システム(interactive tracking system)は実際の映像シーケンスを処理し、人物像の動作を三次元でよく復元する。
【0013】
【発明の実施の形態】
実施の形態1.
図1を参照して、一実施例において、個人の身体の動作の三次元推定を提供するシステム10が、行為者の動作に類似する動作の漫画のキャラクターを提供するのに使用される。前述したように、人物の動作に基づいてリアルに動く漫画のキャラクターを生成することは難しい。
【0014】
示される実施例では、行為者12の動作はビデオカメラ14で撮影され、16においてデジタル化されてオプティマイザー20につながれる。この目的は、与えられた三次元動作トレーニングデータ集合22から最適な三次元の身体座標を見つけることである。
【0015】
一実施例において、トレーニングデータは人物動作の基底ベクトルと呼ばれるものを定義する断片またはセグメントに分割される。これらの値を係数で掛け、その結果を足すと新しい動作がもたらされる。基底ベクトルとは以下の構成要素、フレーム番号、そのフレーム中の各目印数、および各目印のx、y、およびz位置を有するベクトルである。目印がトレーニングデータ集合から得られることに注意する。トレーニングデータ集合の目印は、身体部分の位置を示す身体上の様々な位置を示す。これらは個人の衣服上に物理的な目印を配置し、複数のカメラから三角測量することにより物理的な目印の三次元位置を測定するのと同様である。動画用のトレーニングデータはマサチューセッツ州、ケンブリッジにあるAdaptive Optics Associatesから商業的に利用でき、そこではデータセットが、例えば、ダンサーに関して提供され目印で身体部分の位置が示される。これらのトレーニング集合のかたちでの動作シーケンス例は本システムで使用される事前データを提供する。
【0016】
断片が所定数のフレームを有することが言及される。さらに一実施例においては、一断片とその次の断片の開始部分の間でいくつのフレームがスキップされるかを示すオフセットが存在する。
【0017】
オプティマイザー20の目的は、(1)入力映像データを最もよく説明し、(2)以後説明されるユーザ修正に対応する、三次元動作トレーニングデータ集合の係数の集合を見つけることである。本システムは二次元データを操作するが、これは漫画のキャラクターに加えられる身体の動作を描写するのに必要な三次元データを提供するのには通常不十分であることに注意する。
【0018】
三次元推定は、二次元イメージ情報および二次元ユーザ修正を明らかにする三次元トレーニングデータの最も起こりそうな線形結合を見つけることを通して、二次元映像データから導き出される。
【0019】
身体の動作の三次元描写を完成するために、三つめの次元を推測することが必要である。どのようにこれが成し遂げられるかは、一般的に、トレーニングデータからの三つめの次元の情報に始まる。明確には、トレーニングデータの特定の線形結合への事前優先(prior preference)が形成される。これはトレーニングデータから得られる。次に、オプティマイザー20は所与の線形結合への事前優先の強さを、どのくらいその線形結合が入力映像データを説明し、またユーザ修正を明らかにするかに対してトレードオフする。
【0020】
オプティマイザー20はトレーニング動作断片の最適な線形結合を繰り返し探し、研究されている動作への最適な係数集合を出力する。ここでは、24で示されるように、この出力は前述の身体目印の推定三次元座標と呼ばれる。
【0021】
要求はされないが、推定がどのぐらい正確かは一実施例においてユーザにより確認される。この実施例では、26で示される回復した目印位置の三次元から二次元への投影が、モニタ30で視覚比較が行われる28で示されるように対応する映像に重なるように作られた棒線像に変換される。ユーザは棒線像の位置と映像中の行為者の位置とを比較して、行為者の対応する身体位置と一列にするために棒線像にどのような調整が行われなければならないかを確認する。これは装置32で行われる。マウス34は、一実施例において、棒線像のどの身体部分が選択されたのか、またその棒線像の身体部分がどこに行くべきなのかを指定するのに利用される。これは、マウスで調整される目印を選択すること、およびもう一度マウスをクリックしてその目印が映像身体イメージ上のどこに移動されるべきなのかを指定することを通して成し遂げられる。
【0022】
オプティマイザー20の働きのため、手動で各目印を調整することは必要ではないしまた好ましくない。むしろ、調整するための選択目印を特定する対話的処理を通して、オプティマイザー20は変更された棒線像の推定を出力する。人間の身体ができることは限られているために、棒線像への可能性の範囲は限られている。これは、トレーニングデータに潜在的に含まれている一定量の事前知識が結果として生ずる三次元棒線像座標に少しずつ漏れ出すためである。
【0023】
行為者の身体全体に目印を配置するのに頼るよりもむしろ、本システムは妨害されない行為者の映像シーケンスから同じ三次元情報を回復(recover)する。もはや、行為者の動作を検出するために6台のカメラで観察したり、服に装置をつける必要もない。むしろ、デジタル化された映像を解析して動作を検出し行為者の動作を模倣する漫画の対応キャラクターを生成するのに使用される目印を含む三次元棒線像描写を提供する。
【0024】
40で示されるように、推定三次元座標は一実施例において、所定のキャラクターモデルを三次元座標にあわせることによりキャラクターモデルを生成するのに使用される。いったんキャラクターモデルが三次元座標にあわせられると、キャラクターモデルが42で表示される。キャラクター表示は、好みの衣装にしたり、像を回転させるためにカメラ視点を変えられるし、またはゲーム中で別のキャラクターや背景要素と互いに関係させたりもできることに注意すべきである。結果として、テレビゲーム作成が簡略化され、また行為者に邪魔な装置をつけることなく、また高価な動作捕獲設備なしでよりリアルなものを作成できるようになった。
【0025】
行為者または運動選手の動作をビデオカメラにより捕獲するだけでなく、フィルムまたは映像中のキャラクターに似たキャラクターをフィルムまたは映像中のキャラクターと同じように動かすことができるように、記録保持フィルムまたは映像を解析することも可能である。このように、キャラクターを新しい設定で、または新しいカメラアングルから再レンダリングできる。さらに、フィルム上で本来捕らえたキャラクターを、不可能であったことだが、目印を物理的に配置せずに互いに関係させることができる。このために、本発明を利用して、仮想世界で亡くなった俳優を生き返らせたり、またキャラクターとリアルに相互に関係させたりできる。
【0026】
同様の技術が、与えられた環境でどの動作が非正常行動となるのかを確かめるために利用される。例えば、エスカレータで降りている人々をリアルタイムで観察でき、万が一人が倒れても、この事実は本装置により検出できる。さらに、本技術を用いて時間および動作の研究を生み出すことが可能である。
【0027】
後述されるように、オプティマイザー20が最適化する関数は所与の三次元身体動作のベイズの事後確率として解釈される。これは断片係数(snippet coefficient)の集合の事前確率を利用して成される。動作が断片の線形結合として表されることが理解されるだろう。このように、事前確率は所与の断片係数の集合によって示される動作を生じさせる人物の確率の数学的表現である。さらに、事前確率は新しい映像のない、すなわち映像を見る前のトレーニングデータから生じることが理解されるだろう。事後確率は、映像データを検査しユーザ修正をオプション的に組み入れた後の集合の確率を示す。
【0028】
オプティマイザー20は、ベイズの数学的確率法を利用して、身体の動作を描写するのに使用される三次元推定が最適であることを確認する。これは、映像データの説明、ユーザ修正への対応、および起こりそうな人物三次元動作の推定、の間で最適なトレードオフを提示する。
【0029】
さらに詳しくは、一実施例において、ここで使用されるトレーニング例は、商業的に得られたそれぞれ5〜10秒の10の三次元動作捕獲シーケンスである。データは、1秒ごとに約20フレームでサンプルされた、各シーケンスの120から240の一時的なフレームでの37の目印の位置情報である。動作は、おそらく動作捕獲設備の範囲および精密さを示すよう設計された短い活動の折衷集合である。
【0030】
図2は、10の動作シーケンスのうちの3つの部分集合を表している。他の動作表示でのように、これらの像は、明確にするために一時的に二段抽出されかつ時空間的にオフセットされた、動画化されたシーケンスの「ストロボスコープ的」表示を表す。線は解釈しやすい棒状の人を作成するために、目印または円の間に引かれる。
【0031】
本発明の目的は、これらの例から習得された三次元動作の簡素で扱いやすいがそれでいて有用な確率モデルを求めることである。一実施例において、動作信号は所定の短い一時的長さの「セグメント」に分割される。事前モデルは2,3のフレームにわたる目印位置の一時的セグメントでの確率分布である。
【0032】
人物動作のユニットにフレームを多く選びすぎる場合は、トレーニングデータは、十分に信頼性のあるそのような複雑なベクトルのモデルを提供するのに充分な長さがない。選んだフレームが少なすぎる場合は、本モデルを用いて十分な動作規則を捕獲できない。各セグメントに10のフレームが適当であることがわかっている。5フレームのオーバーラップしたオフセットと共に元データからサンプリングすると、257の10フレームのセグメントが得られそれぞれが1110の番号で表される、すなわち、37の身体目印掛ける3つの次元掛ける10のフレームである。
【0033】
R.O.DudaおよびP.E.Hartによる「Pattern classification and scene analysis」(Wiley‐Interscience, 1973年)またM.TurkおよびA.Pentlandによる「Eigenfaces for recognition」(J. of Cognitive Neuroscience、3(1)、1991年)に述べられているように、これらのベクトルを説明し、次元数削減においての主構成要素解析(principle components analysis), PCAの連続により動機づけられる確率モデルを得るために、最初にこれらの動作セグメントが基底関数(basis functions)の線形結合として記述できるかどうかを確かめる。これは、始めに平均ベクトル→mを部分追跡(subtraking)した後で、列の1110の次元トレーニングベクトルを一緒にスタックすることにより、トレーニング行列Mを形成して成される。特異値分解 (SVD)はM=USV’を提供するが、Uの列は基底関数であり、Sの対角要素は対応する特異値である。図4の実線は特異値スペクトルを示す。スペクトルは急降下するが、これはデータのよい概要、すなわち、50の固有ベクトルから91%の分散、を提供する。
【0034】
図3は、40の固有ベクトルを用いて合成した典型的な動作シーケンスを示し、不完全な、しかしよい復元を示している。このように、1110の次元空間の50の次元部分空間でのそれぞれの座標により1110の次元動作セグメントベクトルを要約できる。
【0035】
もちろん、特異値自体は動作セグメントデータについての追加情報を提供する。前述のDudaの著書に述べられるように、分散がA=USであるガウスの確率分布の結果得られるものとしてデータをモデルできる。この確率モデルは、B.MoghaddamおよびA.PentlandによるProbabilistic visual learning for object detection(Proc. 5th Intl. Conf. Computer Vision、786〜793ページ、IEEE, 1995年)に述べられるように、部分空間情報自体だけよりも強固である。
【0036】
図5は、10フレームの人物動作セグメントの結果として得られた確率モデルからの3つの無作為な抽出を示す図である。動作は、もちろん不揃いであるが、人物のもっともらしい動作に見える。このガウスの分布は時がたつにつれてどのように人物が動くかに対する有用な事前モデルを提供する。しかもなお、容易に作業しいくつかの解析推定結果を提供するのに十分なほど簡略である。
【0037】
目標は、イメージシーケンスから三次元の人物動作を推定することである。そのためには、簡略化されたレンダリング状態を利用するが、その簡略化されたレンダリング状態とは以下のことである。身体は透き通り、各目印は画面に直交的にレンダリングされる。人物動作の基底係数(basis coefficient)→αにより記述される像からなる動作に対してのレンダリングされたイメージシーケンス →yは、
【0038】
【数4】
【0039】
であり、PはイメージシーケンスU→αのy次元をつぶす(collapse)射影演算子である。このようなレンダリング状態では目印は互いに識別可能であることに注意する。
【0040】
像の三次元動作を推定するために、与えられた目印の二次元観察→yに対して、→αにより特定される最も起こりそうな三次元解釈を見つけだす。ベイズの定理により、
【0041】
【数5】
【0042】
が得られるが、ここでk1は、最適にしようとするパラメータ→αとは無関係な正規化定数である。上に展開されたように、事前確率P(→α)に対しての多次元ガウス(gaussian)は、
【0043】
【数6】
【0044】
ここで、k2は別の正規化定数である。観察ノイズ(observation noise)を共分散がσであるi.i.d ガウスとしてモデルする場合、ベイズの定理の尤度項(likelihood term)に対して、
【0045】
【数7】
【0046】
ここで、k3は正規化定数である。
【0047】
事後分布はこれら二つのガウスの産物である。編集者A.Gelbによる「Applied optimal estimation」(MIT Press、1974年)に記述されるように、「二次式の平方化」の行列一般化(matrix generalization)により見つけられる平均と共分散を有する別のガウスをもたらす。αについての平方エラー最適推定(squared error optimal estimate)は、以下の式のとおりである。
【0048】
【数8】
【0049】
図6(a)〜(d)は、この推定を、10のフレームセグメントがそれぞれ5フレームにオフセットされた20フレームの三次元動作セグメントのオーバーラップされたシーケンスに適用したものを示す。一実験では、10シーケンスの内の一つがトレーニングデータから省略され、その部分集合がこのテストに使用された。図6(a)は元のシーケンスを表し、図6(b)は正投影を表す。図6(c)はガウスの事前情報を省略した尤度項のみに起因する三次元復元である。これは、視覚データを最もよく説明する人物動作の基底関数の係数を見つける。三次元復元は不十分であることに注意する。図6(d)は方程式6の完全なベイズの解である。事前情報を含めるとはるかによい三次元復元が得られる。本ガウスの確率モデルおよび簡略化されたレンダリング状態は最適三次元動作推定についての解析解を与える。
【0050】
また、二次元シーケンスを観察した後の推定三次元配置での不確定性(uncertainty)を示す共分散行列Qが知られている。ここで、Iは観察の次元性を有する行と列である単位行列である。
【0051】
【数9】
【0052】
もちろん、人物動作モデルなしでは、各目印の奥行きは全くの未知である。本システムの人物動作の事前モデルは大部分の不明確性を取り除く。事後共分散Qの構成は、イメージシーケンスの観察後に、不明確性が三次元構造に残っていることを明らかにする。図4は、事前共分散の対角項(diagonal terms)、すなわち実線と事後共分散の対角項、すなわち点線の比較を表す。一つの形態、形態2では、不確定性が実質的に減少しないことを示す。これは、図7(a)に示されるように、ほとんどカメラの視界線にそって移動する固定平行移動形態(rigid translation mode)に一致する。二番目に高い不確定性形態である形態1は、図7(b)に示されるように、もう一つの固定平行移動形態である。最も高い事後不確定性を有する非固定形態である形態10は、図7(c)に示される。この形態では、個人の腕をカメラの視界線にそって広げている。この不確定性の高い形態は図6(d)の復元で観察されたエラーを反映していることに注意する。
【0053】
本ガウスの事前モデル下では、時間経過に伴う目印位置の正投影を見てどのくらいの三次元動作情報が得られるか測ることができる。図6(a)〜図6(d)の例では、事前確率分布が50の次元パラメータ空間で一定の空間を占める。事後確率分布の体積に対するその体積の割合は10−14である。直観的に高次元の体積を測定することは困難だが、割合は小さく、また事後不確定性はかなり減少する。また、処理後に、ユーザ対話または固定接地制限(rigid ground contact constraints)を適用することにより、固定形態の不明確性を取り除こうと思うかもしれない。
【0054】
以下の結論が、簡略化されたレンダリング領域における問題の研究から導き出される。人物動作の事前知識を使用することは実際に単眼イメージシーケンスデータから可能な三次元復元を向上させる。人物動作の本トレーニング集合について、観察後に残っている不確定性はカメラから離れた固定平行移動に、またカメラ線にそって腕を広げる形態にある。復元は大体よい。用いられたイメージ情報は棒線像の目印位置の二次元射影である。結論としては、おおまかに直交的にレンダリングされた、映像シーケンスにおいて人物像の上部に二次元棒線像を正確に重ねることが可能であれば、実際のイメージに匹敵する三次元復元精度が得られるはずである。
【0055】
三次元の身体の動作を推定するためには、最初に人物像の二次元動作イメージの棒線像概略を見つけようとする。これは様々な研究グループが取り組んできている問題であり、Hager、BelheumerおよびBlackにより述べられるように、大部分解決された。さらに、G.D.HagerおよびP.N.Belhumeurによる「Real‐time tracking of image regions with changes in geometry and illumination」(Proc. IEEE CVPR、403〜410ページ、1996年)、またM.J.Black、Y.Yacoob、A.D.JepsonおよびD.J.Fleetによる「Learning paramterized models of image motion」(Proc. IEEE CVPR、561〜567ページ、1997年)に述べられるように、合作者は特定の人物行動をトラックするためにパラメータ化された動作モデルを発展させた。Computer GraphicsのAnnual Conference Seriesでの「3D position, attitude and shape input using video tracking of hands and lips」(Proc. SIGGRAPH 94, 185〜192ページ、1994年)と題されたA.BlakeおよびM.Isardによる記事には、研究者が非固定物体の輪郭を基にした追跡を展開している。C.Wren、A.Azarbayejani,T.DarrellおよびA.Pentlandの「Pfinder: real‐time tracking of the human body」(Intl. Conf. on Automatic Face and Gesture Recognition、51〜56ページ、Killington、バーモント、1996年、IEEE Computer Society)によるPfinderは静止した環境で人物像をトラックすることに注意する。
【0056】
以下に本追跡方法を説明する。困難なフィルムシーケンスからさえも三次元像を復元することは重要であったため、自動追跡の間違いを対話的に修正することが許された。これは、どの期間にわたってどの人物をトラックするかを特定する、問題に必要な他の対話に加えたものである。
【0057】
目標は、簡略化されたレンダリングについて展開された復元方法を自然な場面に進展させることを論証することであった。興味の時間枠にわたるイメージレンダリングは、動いている背景の効果を無視した状態で、おおまかに直交していると仮定された。カメラフレームに対する像の動作は復元されたが、背景は復元されなかった。
【0058】
人物像の服装パターンにいくらかの独立性を得るために、イメージ輝度の勾配が取られ、また勾配強度(gradient strength)が局所コントラスト強度(local contrast strength)のおおまかな平均(blurred average)により正規化された。正規化された辺強度(edge strength)が8つのセンサにより10の低解析度サンプリングをするのに十分なほどにぼやけさせられた(blur)。
【0059】
棒線像の棒の位置に基づいて、各棒に所定の辺強度を割り当てながら、センサが何を見るべきかの予測が形成された。観察されたセンサ応答と予測間の差分を2乗したものがペナルティーされた(penalized)。
【0060】
ユーザは、あらゆる時間枠でいかなる棒線像部も正しい位置に対話的に指定できる。これは、その特定の時間にイメージ位置と棒線像部の間にばねを効果的に設置する。
【0061】
これら二つの入力は、関数最適配列(function optimization scheme)において事前情報と統合される。求めようとする→αはエネルギーE(→α)を最小にするものである。
【0062】
【数10】
【0063】
→Rはイメージデータからの時間経過に伴うセンサ応答のベクトルである。関数→fは身体動作係数→αを予測されたセンサ応答に変換する。→Iiはユーザにより特定されるi番目のポイント位置であり、Piはα係数を対応するi番目の棒線像部分二次元位置上に射影する。λ1およびλ2は、イメージデータのウェート、人物動作に対する優先、および対話的に特定される二次元ポイントの一致を反映する定数である。
【0064】
ベイズのフレームワークにおいて、Eは事後確率のマイナスの対数として解釈する。λ1およびλ2は、観察とユーザの「雑音強度(noise strength)」を表す。センサ応答の違いについての二次ペナルティー(quadratic penalty)は、尤度項の対数であり、対話的に配置されたばねとガウスの事前動作モデルの両方はパラメータについての事前情報を表す。また、事前確率の計算においてのすべてのトレーニングデータを90°回転させたものが含まれる。三次元身体動作パラメータは事後確率を最大にするものが見つけられる。
【0065】
回復した最適なαは時間経過に伴う回復した目印位置をもたらす。目印位置は最小2乗法を用いて簡単な像モデルでの円筒位置へ当てはめられる。
【0066】
図8(a)〜図8(c)はバリスニコフ(?Barishnikov)ダンスの、結果として得られた100のフレームシーケンスからの三次元像位置の推定を示す。三次元復元アルゴリズムをテストするために、二次元追跡アルゴリズムを用いるよりもむしろ、フレームごとにおよそ一つの位置を対話的に特定して、動作シーケンス上に棒線像を正確に重ねることを保証した。図8(a)は、入力シーケンスおよび重ねられた棒線像を示す。
【0067】
方程式1のEは、オーバーラップされた10フレームの各セグメントの→α推定を見つけるために、最小化される。オーバーラップしたセグメントからの位置は、線形的に混合された。各セグメントのカメラから離れたオフセットは、次セグメントへの連続性を保証するために設置された。
【0068】
図8(b)は、カメラの位置から30°離れたところから観察した回復した三次元目印位置を示す。図8(c)は、同様のカメラから離れた位置から観察した三次元円筒モデルを示す。人物動作についての簡単なガウスの事前モデルが与えられると、結果は非常に強固である。三次元のダンスは動作捕獲トレーニング集合から習得した基本動作の線形結合としてレンダリングされる。踊っている円筒像は一般的に、ダンサーの三次元での動作を捕獲する。円筒ダンサーはバリスニコフでのようにつま先立ちしないが、つま先立ちはトレーニング集合にはない。
【0069】
統計モデルを用いて、人物が動いているイメージシーケンスから人物像の三次元位置を推定する。人物動作のモデルは、測定された追跡システムから得られた三次元動作の捕獲データのトレーニング集合から習得された。
【0070】
それらの結果は、動いている人のイメージ上に二次元の棒線像を配置できる場合での三次元像動作の推定のしかたを表す。そのようなトラッカー(tracker)が開発され、三次元回復方法をテストするために追跡間違いの対話的修正が可能になった。一台のカメラから観察された困難なダンスシーケンスの三次元動作のよい回復が得られた。これらの結果は、ベイズのフレームワークにおいて、人物動作の事前知識を、人々のイメージを解釈する問題に加えることの力を表している。
【0071】
三次元推定をより強固にする三つの改良点があることに注意する。第一の改良として、方程式8の和の第一項は、
【0072】
【数11】
【0073】
により置き換えられる。ここで、tは動作セグメントの各フレームのフレーム時間の指数である。→It はそのベクトル引数の二次元位置における時間tでのイメージ輝度のベクトルである。→M(α)は、結合係数αにより与えられるトレーニングセグメントの線形結合によって表される人物動作での各目印の二次元位置である。このように、この項を最小にする係数αは、イメージ中の目印位置でのイメージ輝度がフレームによる変化が最も少ないことがわかるだろう。これは、映像で人物像をトラックするための像モデルを助長する。
【0074】
第二に、動作セグメントは順番に推定されることが可能で、しばしば時間が重複する。例えば、動作セグメント1が映像フレーム1から10に対応し、動作セグメント2が映像フレーム2から11等に対応してもよい。それぞれのセグメントについて、三次元推定が形成される。特定の映像フレーム番号についての三次元復元は、重複しているすべての動作セグメントの推定平均として計算される。
【0075】
このように、方程式8に最適なαを見つける前に、様々な時間フレームへの目印位置の初期推定が、前動作セグメントからの動作推定から計算できる。
【0076】
トレーニングセグメントの適する部分集合が、最適化しようとする線形結合において用いられてもよいことは明白であろう。すべての時間で全トレーニングセグメントを用いることは、モデルに多すぎる自由度を与え、不十分な復元を導く。復元は、最適化に用いるセグメントを小さい数、言ってみれば、5または10などの現断片(current snippet)の現行の最もよい推定に近い数に制限することにより向上できる。
【0077】
第二項は、
【0078】
【数12】
【0079】
で置き換えらることができ、ここで、
【0080】
【数13】
【0081】
とは係数→αの事前平均値である。好適な実施例において、
【0082】
【数14】
【0083】
は、Nの選択されたトレーニングセグメントのそれぞれに対して、選択されたトレーニングセグメント
【0084】
【数15】
【0085】
の小さい数の平均値に設定される。
【0086】
【発明の効果】
この発明に係る三次元動作復元システムは、以上説明したとおり、単一のカメラで撮影された人のイメージシーケンスから人物像の三次元動作を復元するための三次元動作復元システムであって、前記単一のカメラで撮影されたイメージシーケンスをデジタル化する手段と、トレーニングイメージシーケンスとして、代表的な動作及びその目印を含む三次元動作トレーニングデータを提供する手段と、前記三次元動作トレーニングデータと前記デジタル化されたイメージシーケンスを一時的セグメント(segment)にグループ化する手段であって、各一時的セグメントがあらかじめ決められたフレームを含む、グループ化する手段と、前記デジタル化する手段及び前記グループ化する手段に結びつき、前記単一のカメラで撮影されたイメージシーケンスに対応する前記三次元動作トレーニングデータの前記一時的セグメントの線形結合を見つけるように、前記目印に従って前記三次元動作トレーニングデータの前記一時的セグメントを最適化する手段と、対応する目印の推定三次元座標を出力する手段と、前記三次元動作トレーニングデータの前記一時的セグメントの線形結合における前記目印の推定三次元座標に対してキャラクターモデルをあわせる手段と、前記キャラクターモデル及びその動作を表示する手段とを備え、前記最適化する手段は、
【数16】
を実行する手段を含み、ここで、E ( →α ) は見つけられる最適係数→αにより最小となるエネルギー関数であり、→Rはイメージデータからの時間経過に伴うセンサ応答のベクトルであり、関数→fは身体動作係数→αを予測されたセンサ応答に変換し、→I i はユーザにより特定されるi番目のポイント位置であり、P i はα係数を対応するi番目の棒線像部分二次元位置上に射影し、λ 1 及びλ 2 は、イメージデータのウェート、人物動作に対する優先、及び対話的に特定される二次元ポイントの一致を反映する定数であるので、いかなる目的にでも簡単な面倒でない方法で動画を生成することができるという効果を奏する。
【0087】
また、この発明に係る三次元動作復元システムは、以上説明したとおり、推定三次元座標に対応する二次元棒線像を生成する手段と、前記デジタル化されたイメージシーケンスに前記二次元棒線像を重ねる手段と、その結果を表示する手段と、ユーザ入力装置と、前記ユーザ入力装置に応答して、前記結果を修正する手段とをさらに備え、前記最適化する手段は、修正結果に従って前記推定三次元座標を修正する手段を含むので、いかなる目的にでも簡単な面倒でない方法で動画を生成することができるという効果を奏する。
【0089】
また、この発明に係る三次元動作復元システムは、以上説明したとおり、各動作セグメントは多数のフレームを有し、またさらに、
【数17】
により置き換える手段を含み、ここで、tは動作セグメントの各フレームのフレーム時間の指数であり、→Iiはそのベクトル引数の二次元位置における時間tでのイメージ輝度(image strength)のベクトルであり、→M(α)は、結合係数αにより与えられるトレーニングセグメントの線形結合によって表される人物動作の各目印の二次元位置であり、フレームからフレームへの目印位置でのイメージ輝度を最小化するともに、前記人物の動作をトラックするためのキャラクターモデルを助長するので、いかなる目的にでも簡単な面倒でない方法で動画を生成することができるという効果を奏する。
【0090】
また、この発明に係る三次元動作復元システムは、以上説明したとおり、選択された動作セグメントをオーバーラップすることで、動作セグメントを順に推定して所与の期間に複数の推定三次元座標を得て、オーバーラップされたすべての動作セグメントでの推定平均値を計算することにより所定のフレームに三次元復元を提供する手段を備えるので、いかなる目的にでも簡単な面倒でない方法で動画を生成することができるという効果を奏する。
【0091】
さらに、この発明に係る三次元動作復元システムは、以上説明したとおり、前記一時的セグメントは部分集合に分割され、前記最適化する手段が、前記最適化する手段により推定されるセグメントの現行の最もよい推定に最も近い一時的セグメントの部分集合を選択する手段を備え、それによりあわせすぎ(overfit)を防ぎ、このようにして、前記推定三次元座標の推定を向上させるので、いかなる目的にでも簡単な面倒でない方法で動画を生成することができるという効果を奏する。
【図面の簡単な説明】
【図1】 リアルな動画を提供するために用いられる三次元動作推定を提供するための映像または記録保持フィルム入力を有するシステムのブロック図である。
【図2】 10シーケンスのトレーニング集合からの動作シーケンス例を示す図である。
【図3】 基底関数の線形結合としての人物動作信号の近似値を示す図であり、(a)は40の基底関数近似値を示し、(b)は元の人物動作シーケンスを示している。
【図4】 人物動作の事前不確定性を大幅に減らす画面での目印位置の測定を用いて、半対数スケールで描かれた事前および事後共分散行列対角要素を示すグラフである。
【図5】 37の三次元目印位置のガウスの事前分布からの3つの無作為抽出を示す図であり、結果はすべて人物に見え、また人物動作に大まかに一致している。
【図6】 元の三次元シーケンス、正投影され明快にするために目印が線でつながれたイメージ、事前情報を省いた三次元復元、を示す図であり、イメージデータおよび完全なベイズの復元を最も良く説明する人物動作の固有空間での三次元像が表されている。事前情報の追加で原物により類似する復元が生成されることに注意する。高事後共分散形態(high posterior covariance modes)は元のシーケンスとの残りの差分を説明する。
【図7】 最高の事後不確定性を有する三つの形態を示す図である。
【図8】 トラックされた二次元棒線像が重ねられたバリスニコフダンスの100のフレームシーケンスからのサンプル、三次元像動作にガウスの事前モデルを使用して推測された三次元目印位置、およびダンサーの三次元動作を捕獲する復元された三次元動作中円筒像(recovered 3‐d moving cylinder figure)、をそれぞれ示す図である。
【符号の説明】
10 三次元動作復元システム、12 行為者、14 ビデオカメラ、16 デジタイザ、20 オプティマイザー、22 三次元動作トレーニングデータ、34 マウス。
Claims (5)
- 単一のカメラで撮影された人のイメージシーケンスから人物像の三次元動作を復元するための三次元動作復元システムであって、
前記単一のカメラで撮影されたイメージシーケンスをデジタル化する手段と、
トレーニングイメージシーケンスとして、代表的な動作及びその目印を含む三次元動作トレーニングデータを提供する手段と、
前記三次元動作トレーニングデータと前記デジタル化されたイメージシーケンスを一時的セグメント(segment)にグループ化する手段であって、各一時的セグメントがあらかじめ決められたフレームを含む、グループ化する手段と、
前記デジタル化する手段及び前記グループ化する手段に結びつき、前記単一のカメラで撮影されたイメージシーケンスに対応する前記三次元動作トレーニングデータの前記一時的セグメントの線形結合を見つけるように、前記目印に従って前記三次元動作トレーニングデータの前記一時的セグメントを最適化する手段と、
対応する目印の推定三次元座標を出力する手段と、
前記三次元動作トレーニングデータの前記一時的セグメントの線形結合における前記目印の推定三次元座標に対してキャラクターモデルをあわせる手段と、
前記キャラクターモデル及びその動作を表示する手段とを備え、
前記最適化する手段は、
ここで、E ( →α ) は見つけられる最適係数→αにより最小となるエネルギー関数であり、
→Rはイメージデータからの時間経過に伴うセンサ応答のベクトルであり、
関数→fは身体動作係数→αを予測されたセンサ応答に変換し、
→I i はユーザにより特定されるi番目のポイント位置であり、
P i はα係数を対応するi番目の棒線像部分二次元位置上に射影し、
λ 1 及びλ 2 は、イメージデータのウェート、人物動作に対する優先、及び対話的に特定される二次元ポイントの一致を反映する定数である
三次元動作復元システム。 - 推定三次元座標に対応する二次元棒線像を生成する手段と、
前記デジタル化されたイメージシーケンスに前記二次元棒線像を重ねる手段と、
その結果を表示する手段と、
ユーザ入力装置と、
前記ユーザ入力装置に応答して、前記結果を修正する手段とをさらに備え、
前記最適化する手段は、修正結果に従って前記推定三次元座標を修正する手段を含む
請求項1記載の三次元動作復元システム。 - 選択された動作セグメントをオーバーラップすることで、動作セグメントを順に推定して所与の期間に複数の推定三次元座標を得て、オーバーラップされたすべての動作セグメントでの推定平均値を計算することにより所定のフレームに三次元復元を提供する手段を備える
請求項1記載の三次元動作復元システム。 - 前記一時的セグメントは部分集合に分割され、前記最適化する手段が、前記最適化する手段により推定されるセグメントの現行の最もよい推定に最も近い一時的セグメントの部分集合を選択する手段を備え、それによりあわせすぎ( overfit )を防ぎ、このようにして、前記推定三次元座標の推定を向上させる
請求項1記載の三次元動作復元システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/023,148 US6115052A (en) | 1998-02-12 | 1998-02-12 | System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence |
US09/023148 | 1998-02-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11259660A JPH11259660A (ja) | 1999-09-24 |
JP4202479B2 true JP4202479B2 (ja) | 2008-12-24 |
Family
ID=21813398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26991298A Expired - Fee Related JP4202479B2 (ja) | 1998-02-12 | 1998-09-24 | 三次元動作復元システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US6115052A (ja) |
EP (1) | EP0936576B1 (ja) |
JP (1) | JP4202479B2 (ja) |
DE (1) | DE69823001T2 (ja) |
Families Citing this family (146)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE47908E1 (en) | 1991-12-23 | 2020-03-17 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
USRE46310E1 (en) | 1991-12-23 | 2017-02-14 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
USRE48056E1 (en) | 1991-12-23 | 2020-06-16 | Blanding Hovenweep, Llc | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US6272231B1 (en) * | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
US6442293B1 (en) * | 1998-06-11 | 2002-08-27 | Kabushiki Kaisha Topcon | Image forming apparatus, image forming method and computer-readable storage medium having an image forming program |
US6192360B1 (en) * | 1998-06-23 | 2001-02-20 | Microsoft Corporation | Methods and apparatus for classifying text and for building a text classifier |
US7016539B1 (en) | 1998-07-13 | 2006-03-21 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US6738065B1 (en) | 1999-08-10 | 2004-05-18 | Oshri Even-Zohar | Customizable animation system |
AU6770300A (en) * | 1999-08-10 | 2001-03-05 | Motek Motion Technology, Inc. | Customizable animation system |
US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US7262778B1 (en) | 2000-02-11 | 2007-08-28 | Sony Corporation | Automatic color adjustment of a template design |
WO2001082279A2 (en) * | 2000-04-24 | 2001-11-01 | The Trustees Of Columbia University In The City Of New York | System and method for dynamic space management of a display space |
US7091975B1 (en) * | 2000-07-21 | 2006-08-15 | Microsoft Corporation | Shape and animation methods and systems using examples |
US7006683B2 (en) | 2001-02-22 | 2006-02-28 | Mitsubishi Electric Research Labs., Inc. | Modeling shape, motion, and flexion of non-rigid 3D objects in a sequence of images |
KR20020081661A (ko) * | 2001-04-19 | 2002-10-30 | 주식회사 오픈비주얼 | 네트워크 환경에서 3차원 물체의 시각화와 조작을 위한방법 및 장치 |
US7643024B2 (en) * | 2001-05-17 | 2010-01-05 | The Trustees Of Columbia University In The City Of New York | System and method for view management in three dimensional space |
WO2003025842A1 (en) * | 2001-09-19 | 2003-03-27 | Barry George Blundell | An image recognition method and system |
JP4178113B2 (ja) | 2002-03-12 | 2008-11-12 | メナーチェ エルエルシー | 動作追跡装置とその方法 |
EP1370075B1 (en) * | 2002-06-06 | 2012-10-03 | Accenture Global Services Limited | Dynamic replacement of the face of an actor in a video movie |
KR100483806B1 (ko) * | 2002-07-18 | 2005-04-20 | 한국과학기술원 | 예제동작을 이용한 영상기반 동작복원방법 |
US7161579B2 (en) | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US7627139B2 (en) | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
DE10242262A1 (de) * | 2002-09-12 | 2004-03-25 | Daimlerchrysler Ag | Stereo-Nachtsichtsystem für Fahrzeuge |
AU2003275134A1 (en) * | 2002-09-19 | 2004-04-08 | The Penn State Research Foundation | Prosody based audio/visual co-analysis for co-verbal gesture recognition |
US7113185B2 (en) * | 2002-11-14 | 2006-09-26 | Microsoft Corporation | System and method for automatically learning flexible sprites in video layers |
US9177387B2 (en) * | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US7009561B2 (en) * | 2003-03-11 | 2006-03-07 | Menache, Llp | Radio frequency motion tracking system and method |
EP1621010A1 (en) * | 2003-05-02 | 2006-02-01 | Allan Robert Staker | Interactive system and method for video compositing |
US6882959B2 (en) * | 2003-05-02 | 2005-04-19 | Microsoft Corporation | System and process for tracking an object state using a particle filter sensor fusion technique |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7620218B2 (en) * | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US9129381B2 (en) | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US7471846B2 (en) | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US7616233B2 (en) | 2003-06-26 | 2009-11-10 | Fotonation Vision Limited | Perfecting of digital image capture parameters within acquisition devices using face detection |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7358973B2 (en) * | 2003-06-30 | 2008-04-15 | Microsoft Corporation | Mixture model for motion lines in a virtual reality environment |
US8456475B2 (en) * | 2003-06-30 | 2013-06-04 | Microsoft Corporation | Motion line switching in a virtual environment |
US8081820B2 (en) | 2003-07-22 | 2011-12-20 | Cognex Technology And Investment Corporation | Method for partitioning a pattern into optimized sub-patterns |
US7190834B2 (en) | 2003-07-22 | 2007-03-13 | Cognex Technology And Investment Corporation | Methods for finding and characterizing a deformed pattern in an image |
US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US7831087B2 (en) * | 2003-10-31 | 2010-11-09 | Hewlett-Packard Development Company, L.P. | Method for visual-based recognition of an object |
US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
WO2005125210A1 (en) * | 2004-06-14 | 2005-12-29 | Arizona Board Of Regents For And On Behalf Of Arizona State University | Methods and apparatus for motion capture |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
US8437502B1 (en) | 2004-09-25 | 2013-05-07 | Cognex Technology And Investment Corporation | General pose refinement and tracking tool |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
CN100361070C (zh) * | 2004-10-29 | 2008-01-09 | 中国科学院计算技术研究所 | 一种基于光学的运动捕获数据的骨骼运动提取方法 |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US20060187193A1 (en) * | 2005-02-22 | 2006-08-24 | Esquilin Eileen C | System and method for generating a virtual reality presentation |
GB2438783B8 (en) | 2005-03-16 | 2011-12-28 | Lucasfilm Entertainment Co Ltd | Three-dimensional motion capture |
US7466842B2 (en) * | 2005-05-20 | 2008-12-16 | Mitsubishi Electric Research Laboratories, Inc. | Modeling low frame rate videos with bayesian estimation |
US8780119B2 (en) * | 2005-08-26 | 2014-07-15 | Sony Corporation | Reconstruction render farm used in motion capture |
US7450736B2 (en) * | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
AU2006252146B2 (en) * | 2005-12-23 | 2010-12-16 | Northern Sydney And Central Coast Area Health Service | Behaviour modification through personal identification |
DE602007012246D1 (de) | 2006-06-12 | 2011-03-10 | Tessera Tech Ireland Ltd | Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern |
WO2008011353A2 (en) * | 2006-07-16 | 2008-01-24 | The Jim Henson Company | System and method of producing an animated performance utilizing multiple cameras |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
ES2320826B1 (es) * | 2006-12-27 | 2010-02-25 | Universidad Nacional De Educacion A Distancia (Uned) | Procedimiento para describir el comportamiento geometrico de humanos en una escena captada por un sistema de vision artificial, basado en un modelo de bloques y, especial, orientado a la tarea de video-vigilancia. |
US8130225B2 (en) * | 2007-01-16 | 2012-03-06 | Lucasfilm Entertainment Company Ltd. | Using animation libraries for object identification |
US8542236B2 (en) * | 2007-01-16 | 2013-09-24 | Lucasfilm Entertainment Company Ltd. | Generating animation libraries |
US8199152B2 (en) | 2007-01-16 | 2012-06-12 | Lucasfilm Entertainment Company Ltd. | Combining multiple session content for animation libraries |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
FR2916069B1 (fr) * | 2007-05-11 | 2009-07-31 | Commissariat Energie Atomique | Procede de traitement pour la capture de mouvement d'une structure articulee |
KR100856824B1 (ko) * | 2007-07-23 | 2008-09-05 | 재단법인서울대학교산학협력재단 | 캐릭터 시뮬레이션 방법 및 시스템 |
US8103085B1 (en) | 2007-09-25 | 2012-01-24 | Cognex Corporation | System and method for detecting flaws in objects using machine vision |
GB2454681A (en) * | 2007-11-14 | 2009-05-20 | Cybersports Ltd | Selection of animation for virtual entity based on behaviour of the entity |
US8144153B1 (en) | 2007-11-20 | 2012-03-27 | Lucasfilm Entertainment Company Ltd. | Model production for animation libraries |
US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
KR101335346B1 (ko) | 2008-02-27 | 2013-12-05 | 소니 컴퓨터 엔터테인먼트 유럽 리미티드 | 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
EP2277141A2 (en) | 2008-07-30 | 2011-01-26 | Tessera Technologies Ireland Limited | Automatic face and skin beautification using face detection |
JP4591576B2 (ja) * | 2008-08-18 | 2010-12-01 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
US9142024B2 (en) | 2008-12-31 | 2015-09-22 | Lucasfilm Entertainment Company Ltd. | Visual and physical motion sensing for three-dimensional motion capture |
US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
CN101609552B (zh) * | 2009-03-30 | 2012-12-19 | 浙江工商大学 | 有限复杂背景下视频目标的特征检测方法 |
US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
US8803889B2 (en) | 2009-05-29 | 2014-08-12 | Microsoft Corporation | Systems and methods for applying animations or motions to a character |
US20100306685A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | User movement feedback via on-screen avatars |
US9182814B2 (en) * | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US20110172550A1 (en) | 2009-07-21 | 2011-07-14 | Michael Scott Martin | Uspa: systems and methods for ems device communication interface |
US7974475B1 (en) * | 2009-08-20 | 2011-07-05 | Thomas Cecil Minter | Adaptive bayes image correlation |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
US8520975B2 (en) | 2009-10-30 | 2013-08-27 | Adobe Systems Incorporated | Methods and apparatus for chatter reduction in video object segmentation using optical flow assisted gaussholding |
US8611670B2 (en) * | 2010-02-25 | 2013-12-17 | The Board Of Trustees Of The Leland Stanford Junior University | Intelligent part identification for use with scene characterization or motion capture |
US20110208685A1 (en) * | 2010-02-25 | 2011-08-25 | Hariraam Varun Ganapathi | Motion Capture Using Intelligent Part Identification |
US8994790B2 (en) * | 2010-02-25 | 2015-03-31 | The Board Of Trustees Of The Leland Stanford Junior University | Motion capture with low input data constraints |
RU2534892C2 (ru) * | 2010-04-08 | 2014-12-10 | Самсунг Электроникс Ко., Лтд. | Устройство и способ для захвата безмаркерных движений человека |
EP2395478A1 (en) * | 2010-06-12 | 2011-12-14 | Toyota Motor Europe NV/SA | Monocular 3D pose estimation and tracking by detection |
US8532367B2 (en) * | 2010-08-17 | 2013-09-10 | Raytheon Company | System and method for 3D wireframe reconstruction from video |
US8948447B2 (en) | 2011-07-12 | 2015-02-03 | Lucasfilm Entertainment Companyy, Ltd. | Scale independent tracking pattern |
WO2013074926A1 (en) | 2011-11-18 | 2013-05-23 | Lucasfilm Entertainment Company Ltd. | Path and speed based character control |
CN104995638A (zh) * | 2012-09-28 | 2015-10-21 | 卓尔医学产品公司 | 在ems环境中用于三维交互监视的系统和方法 |
US20140185945A1 (en) * | 2012-12-31 | 2014-07-03 | Caterpillar Inc. | Modified dp search for 2d/3d map compression |
US20140185944A1 (en) * | 2012-12-31 | 2014-07-03 | Caterpillar Inc. | Gradient Search For 2D/3D Map Compression |
US9679224B2 (en) | 2013-06-28 | 2017-06-13 | Cognex Corporation | Semi-supervised method for training multiple pattern recognition and registration tool models |
US10005639B2 (en) | 2013-08-15 | 2018-06-26 | Otis Elevator Company | Sensors for conveyance control |
US9830703B2 (en) * | 2015-08-12 | 2017-11-28 | Nvidia Corporation | Model-based three-dimensional head pose estimation |
CN105403143B (zh) * | 2015-10-28 | 2017-10-13 | 苏州西博三维科技有限公司 | 一种获取模拟地震振动台的位移变化的测量方法及其系统 |
US9747668B2 (en) | 2016-01-21 | 2017-08-29 | Disney Enterprises, Inc. | Reconstruction of articulated objects from a moving camera |
US10121103B2 (en) * | 2016-12-09 | 2018-11-06 | Cisco Technologies, Inc. | Scalable deep learning video analytics |
JP2022028091A (ja) * | 2018-12-19 | 2022-02-15 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US10964058B2 (en) * | 2019-06-21 | 2021-03-30 | Nortek Security & Control Llc | Camera auto-calibration system |
CN111694429B (zh) * | 2020-06-08 | 2023-06-02 | 北京百度网讯科技有限公司 | 虚拟对象驱动方法、装置、电子设备及可读存储 |
CN112308952B (zh) * | 2020-10-15 | 2022-11-18 | 复旦大学 | 模仿给定视频中人物动作的3d角色动作生成系统和方法 |
WO2023015409A1 (zh) * | 2021-08-09 | 2023-02-16 | 百果园技术(新加坡)有限公司 | 物体姿态的检测方法、装置、计算机设备和存储介质 |
CN115327979A (zh) * | 2022-08-11 | 2022-11-11 | 河南中能智慧大数据科技有限公司 | 基于高斯建模及线性贝叶斯估计的状态监测方法及组件 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3179474B2 (ja) * | 1990-11-28 | 2001-06-25 | 株式会社日立製作所 | コンピュータグラフィックの表示方法及び情報処理装置 |
US5623428A (en) * | 1990-12-25 | 1997-04-22 | Shukyohoji, Kongo Zen Sohozan Shoriji | Method for developing computer animation |
US5767861A (en) * | 1994-08-11 | 1998-06-16 | Kabushiki Kaisha Sega Enterprises | Processing apparatus and method for displaying a moving figure constrained to provide appearance of fluid motion |
JP2000508804A (ja) * | 1996-04-04 | 2000-07-11 | カトリックス,インク. | 混合運動データを含む関節を持つキャラクターの会話型コンピュータ・アニメーションのための四肢調整システム |
US5930379A (en) * | 1997-06-16 | 1999-07-27 | Digital Equipment Corporation | Method for detecting human body motion in frames of a video sequence |
-
1998
- 1998-02-12 US US09/023,148 patent/US6115052A/en not_active Expired - Fee Related
- 1998-09-18 EP EP98117766A patent/EP0936576B1/en not_active Expired - Lifetime
- 1998-09-18 DE DE69823001T patent/DE69823001T2/de not_active Expired - Lifetime
- 1998-09-24 JP JP26991298A patent/JP4202479B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0936576A2 (en) | 1999-08-18 |
DE69823001D1 (de) | 2004-05-13 |
DE69823001T2 (de) | 2005-05-04 |
US6115052A (en) | 2000-09-05 |
JPH11259660A (ja) | 1999-09-24 |
EP0936576B1 (en) | 2004-04-07 |
EP0936576A3 (en) | 2003-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4202479B2 (ja) | 三次元動作復元システム | |
Rhodin et al. | Egocap: egocentric marker-less motion capture with two fisheye cameras | |
Urtasun et al. | Temporal motion models for monocular and multiview 3D human body tracking | |
Malleson et al. | Real-time full-body motion capture from video and imus | |
Bobick et al. | The recognition of human movement using temporal templates | |
US6552729B1 (en) | Automatic generation of animation of synthetic characters | |
EP1679657A1 (en) | Estimation system, estimation method, and estimation program for estimating object state | |
La Cascia et al. | Fast, reliable head tracking under varying illumination | |
CN110660017A (zh) | 一种基于三维姿态识别的舞谱记录与演示方法 | |
Gordon et al. | FLEX: extrinsic parameters-free multi-view 3D human motion reconstruction | |
Michel et al. | Markerless 3d human pose estimation and tracking based on rgbd cameras: an experimental evaluation | |
Demirdjian et al. | Avoiding the" streetlight effect": tracking by exploring likelihood modes | |
Elhayek et al. | Fully automatic multi-person human motion capture for vr applications | |
EP3185212B1 (en) | Dynamic particle filter parameterization | |
Yan et al. | Cimi4d: A large multimodal climbing motion dataset under human-scene interactions | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
Iwase et al. | Relightablehands: Efficient neural relighting of articulated hand models | |
Guzov et al. | Visually plausible human-object interaction capture from wearable sensors | |
He | Generation of Human Body Models | |
Guskov et al. | Direct pattern tracking on flexible geometry | |
Cordea et al. | 3-D head pose recovery for interactive virtual reality avatars | |
Wang et al. | Shape reconstruction of human foot from multi-camera images based on PCA of human shape database | |
Brauer et al. | On the effect of temporal information on monocular 3d human pose estimation | |
Wang et al. | Markerless body motion capturing for 3d character animation based on multi-view cameras | |
JP3668168B2 (ja) | 動画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071016 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080116 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080218 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080729 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081007 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081009 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111017 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121017 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |