JP2009506442A - 顔の動きのデータの撮影及び処理 - Google Patents

顔の動きのデータの撮影及び処理 Download PDF

Info

Publication number
JP2009506442A
JP2009506442A JP2008528255A JP2008528255A JP2009506442A JP 2009506442 A JP2009506442 A JP 2009506442A JP 2008528255 A JP2008528255 A JP 2008528255A JP 2008528255 A JP2008528255 A JP 2008528255A JP 2009506442 A JP2009506442 A JP 2009506442A
Authority
JP
Japan
Prior art keywords
actor
face
frame
image
motion capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008528255A
Other languages
English (en)
Other versions
JP5362357B2 (ja
Inventor
ゴードン,デミアン
スコット,レミントン
ハヴァルダー,パラグ
ハウク,デニス,ジェイ.,ジュニア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority claimed from PCT/US2006/033713 external-priority patent/WO2007025300A2/en
Publication of JP2009506442A publication Critical patent/JP2009506442A/ja
Application granted granted Critical
Publication of JP5362357B2 publication Critical patent/JP5362357B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

顔の動きのデータを撮影し、そして処理する方法が提供され、本方法は:複数のセンサをアクターの顔面のターゲットポイントに取り付けるステップと;アクターの顔面に配置される複数のセンサのフレームごとの画像を、頭部装着システムに配置される少なくとも一つのモーションキャプチャカメラを使用して撮影するステップと;頭部装着システムにおいて、トラッキング処理を、複数のセンサのフレームごとの画像に対して行なって、複数のセンサを各フレームに関して正確にマッピングするステップと;そして頭部装着システムにおいて、アクターの顔面を表わすモデル化表面を生成するステップと、を含む。
【選択図】図1

Description

本出願は、同時係属中の2005年8月26日出願の「顔の動きを撮影する頭部装着デジタイザシステム」と題する米国仮特許出願第60/711,897号;2005年8月26日出願の「フィールドスプリッタをモーションキャプチャに使用する操作」と題する米国仮特許出願第60/711,908号;2005年8月26日出願の「モーションキャプチャに使用されるテレセントリックレンズ」と題する米国仮特許出願第60/711,906号;及び2005年8月26日出願の「パターンを顔に当てて顔をモーションキャプチャにおいてデジタル処理する操作」と題する米国仮特許出願第60/711,907号の優先権の利益を主張するものである。上記参照特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる。
本発明は概して、モーションキャプチャプロセス(motion capture process)に関するものであり、特に顔の動きのデータの撮影及び処理を可能にする改良型モーションキャプチャシステム及び方法に関するものである。
モーションキャプチャシステムを使用して実際のオブジェクトの動きを撮影し、そしてこの動きをアニメートする方法として、この動きをコンピュータにより表現されるオブジェクトにマッピングする。このようなシステムは、コンピュータグラフィックス(CG)アニメーションを作成するためのソースデータとして使用する人のデジタル表現を生成して、動画及びビデオゲームの作成に使用されることが良くある。通常のシステムでは、アクターが、マーカを種々の位置に取り付けた(例えば、小さな光反射マーカを体及び四肢に取り付けた)衣服を纏い、そして複数のデジタルカメラがアクターの動きを異なるアングルから、マーカを照明しながら記録する。次に、システムは画像を分析してアクターの衣服に取り付けられたマーカの位置(例えば、空間座標として)及び向きを各フレームで求める。これらのマーカの位置をトラッキングすることにより、システムはこれらのマーカに関する時間軸を考慮した空間表示を行ない、そして動いているアクターのデジタル表示を実現する。次に、この動きをデジタルモデルに適用し、次にこのデジタルモデルで質感を表現し、そしてモデルをレンダリングして、アクター及び/又は演技の完全なCG表示を実現することができる。この技法は、非常にリアルなアニメーションを多くの人気のある映画に収めるために特殊効果会社によって使用されている。
モーションキャプチャシステムが、キーフレーミングのような従来のアニメーション技法よりも優れる利点は、可視化をリアルタイムに行なうことができることである。製品開発チームはアクターの動きの空間表示をリアルタイムまたはほぼリアルタイムに精査することができ、これによって、アクターは肉体的な演技を変更するので、最適データを撮影することができる。更に、モーションキャプチャシステムは他のアニメーション技法を使用して容易に再生することができない肉体的な動きの微妙な差異を検出することにより、自然な動きをより正確に表わすデータを生成する。その結果、モーションキャプチャシステムを使用して収集されるソース情報を使用するアニメーションが、ずっと真に迫った外観を呈することになる。
本発明の実施形態は、顔の動きのデータを撮影し、そして処理し、更にアクターの顔面の動きに対する一層確実なトラッキングを可能にして、アクターの顔の動き、及び表情の表示を行なうシステム及び方法を提供する。
一の実施形態では、頭部装着システムが提供され、この頭部装着システムは:アクターの顔面の動きのデータを、アクターの顔面に配置される複数のセンサを使用して撮影するように構成される少なくとも一つのモーションキャプチャカメラと;そしてモーションキャプチャカメラに接続されるモーションキャプチャプロセッサと、を備え、モーションキャプチャプロセッサは:ストレージユニットと;モーションキャプチャカメラを制御して、アクターの顔面に配置される複数のセンサのフレームごとの画像を撮影するように構成され、かつフレームごとの画像を受信して、ストレージユニットに保存する画像撮影モジュールと;保存されるフレームごとの画像をストレージユニットから取り出してトラッキング処理を画像に対して行なって、複数のセンサを各フレームに関して正確にマッピングし、そして顔面の動きのデータを供給するように構成されるセンサトラッキングモジュールと;そして動きのデータを受信して、アクターの顔面を表わすモデル化表面を生成するように構成されるデジタルモデリングモジュールと、を含む。
別の実施形態では、一つの方法が提供され、本方法は:複数のセンサをアクターの顔面のターゲットポイントに取り付けるステップと;アクターの顔面に配置される複数のセンサのフレームごとの画像を、頭部装着システムに配置される少なくとも一つのモーションキャプチャカメラを使用して撮影するステップと;頭部装着システムにおいて、トラッキング処理を、複数のセンサのフレームごとの画像に対して行なって、複数のセンサを各フレームに関して正確にマッピングするステップと;そして頭部装着システムにおいて、アクターの顔面を表わすモデル化表面を生成するステップと、を含む。
本発明の他の特徴及び利点は、この技術分野の当業者であれば、次の詳細な記述、及び添付の図を吟味することにより一層容易に理解できるものと思われる。
以下に更に詳細に説明するように、本発明の実施形態は、アクターの顔の特徴の表面及び動きに対する一層確実な撮影、及びトラッキングを可能にして、アクターの顔の動き及び表情(例えば、笑い、泣き、微笑むなど)の表示を行なうモーションキャプチャシステムに対する要求を満たす。本記述を一読した後、この技術分野の当業者には、本発明をどのようにして種々の実施形態及びアプリケーションで実施するかが明らかになるであろう。しかしながら、本発明の種々の実施形態についてここで説明するが、これらの実施形態は単なる例示として示され、制限的に解釈されるべきではないことを理解されたい。従って、種々の実施形態についてのこの詳細な記述は、添付の請求項に示す本発明の技術範囲または権利範囲を制限するものとして捉えられるべきではない。
一の実施形態における顔面動作撮影システム(facial motion capture system)は頭部装着システムとして構成されて、顔の表面のポイントをトラッキングし、そして表面全体をデジタル処理する。次に、システムはアクターの顔のメッシュを返し、このメッシュをアニメートする。従って、本実施形態では、頭部装着システムはヘルメットに、または他の器具に搭載され、このヘルメットまたは器具をアクターの頭部またはボディ(body)に物理的に取り付けて、顔面マーカを一様に照明し、そしてカメラと顔との間の相対的な動きの度合いを最小にする。他の実施形態では、顔面動作撮影システムは、頭部装着システムが、身体に配置される、そして/または身体から離れて配置される他のモーションキャプチャカメラと一体化されるように構成される。
図1Aは、本発明の一の実施形態による頭部装着システムを示す図である。図示の実施形態では、頭部装着システムはヘルメット100として構成され、アクターの音声を記録するように構成されるマイクロホン110と;アクターを空気または液体を使用して冷やし、かつマイクロホンをオンにしたときにオフになるように構成される扇風機112,114のような冷却ユニットと;そしてモーションキャプチャカメラ120,122,124と、を含む。
一の実施形態では、ヘルメット100は軽量になるように設計される炭素繊維材料で製作される。ヘルメット100は電力を人体内蔵用電源(図示せず)から取り込む。更に、ヘルメット100は撮影したデータを、ヘルメット100に取り付けられる、またはアクターが携行するレコーダ140に記録する。レコーダ140に記録されるデータは無線手段を通してリモート記憶装置にダウンロードすることができる。しかしながら、レコーダ140に記録されるデータは有線手段を通してリモート記憶装置にダウンロードすることができる。ヘルメット100に取り付けられるプロセッサ142は、記録を開始する時点、及び記録を停止する時点をレコーダ140に指示するデータパケット(例えば、UDP)を受信する。プロセッサ142は、タイムコード(timecode:記録媒体において始点からの位置を示すために記録される信号)同期及びゲンロック(genlock:複数の映像機器がお互いに同期を取るための基準にする信号)情報を取り込み、そしてこれらの信号を、データまたは映画を記録するために使用される他の外部機器に同期させることができる。
別の実施形態では、頭部装着システムは2つのパーツユニットとして構成することができ、一方のパーツは、アクターの頭に取り付けられる頭蓋冠であり、そして他方のパーツはU字形炭素繊維部材であり、この炭素繊維部材は顎骨の底部に沿って装着され、そしてアクターのあご先の前面に突出する。複数のカメラは、システムの「顎骨」用部材に取り付けることができる。他の実施形態では、頭部装着システムは、のど当てマイクロホンに似た装置、ヘルメットライナーに似た頭部装置、顔面を覆うカメラ付きヘルメット、または胸部装着型装置として構成することができる。
ヘルメット100内のモーションキャプチャカメラ120,122,124はアクターの顔の特徴をトラッキングすることができる。カメラ120,122,124は更に表面をトラッキングし、z深度の計算を多階調撮像を使用して行ない、そして2次元を3次元三角測量に変換する処理を実行する(perform 2D to 3D triangulation)ことができる。図示の実施形態では、3〜6台の異なるモーションキャプチャカメラがヘルメット100内に配置構成される。しかしながら、他の実施形態では、いずれの台数のモーションキャプチャカメラでもヘルメット100内に配置構成することができる。例えば、1台のカメラは眼の動きを撮影するように構成することができ、そして3台のカメラは顔の特徴の動きを撮影するように構成することができる。これらのモーションキャプチャカメラの全て、または幾つかは、小型軽量の高解像度CMOSカメラまたはCCDカメラとして構成することができる。
或る例では、これらのカメラは複数のフィールドスプリッタを有することができ、これらのフィールドスプリッタはプリズムとして構成されるカメラレンズである。フィールドスプリッタ(2005年8月26日出願の「フィールドスプリッタをモーションキャプチャに使用する操作」と題する米国仮特許出願第60/711,908号に開示されているようなフィールドスプリッタであり、この特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる)は複数の視野を単一のカメラレンズに導くので、立体的な映像が複数のカメラを用いることなく得られる。更に、これらのカメラはテレセントリックレンズ(2005年8月26日出願の「モーションキャプチャに使用されるテレセントリックレンズ」と題する米国仮特許出願第60/711,906号に開示されているようなテレセントリックレンズであり、この特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる)を装備することができ、テレセントリックレンズは、画像のゆがみ補正のように透視歪みを補正し、そしてテレセントリックレンズによって、2次元を3次元三角測量に拡充することができる(improve 2D to 3D triangulation)。
カメラは演技が始まる前に入念に校正して、外因性(頭部枠の固定ポイントに対して外部に位置するカメラの)パラメータ及び内因性パラメータ(内部に位置するカメラのパラメータ)を生成する必要がある。別の構成として、カメラは、ヘルメットに関する測定情報(例えば、ストライプパターンまたは格子パターン)または顔に関する測定情報(例えば、鼻に近い部位は安定し易い)を利用することにより動的に自己校正することができる。撮影される顔の動きのデータを使用して、顔の表面全体をデジタル処理し、そして結果的に得られるメッシュを出力する。
一の実施形態では、カメラ120,122,124は装着可能なコンピューティングデバイスによって制御される。別の実施形態では、カメラを人間工学を考慮して取り付けてヘルメット上での校正/安定性の問題を軽減し、各カメラが球形ミラー、双曲線ミラー、または平面ミラーを指向し、そして顔の表情の映像を撮影するようにする。このような事例においては、キャプチャシステムは撮影プロセスが行われている間、更に安定した態様で動作することができるが、キャプチャシステムにはミラーによる表面反射をエミュレートする高性能なミラー補正方式が必要となる。
再構成済みメッシュはフレームごとに一貫性のあるメッシュとなることは非常に稀であり、追加の事前処理または事後処理を行なってこの一貫性を確保する必要がある。一つの事前処理方法では、アクターの顔の幾何学的構造を調査し、そしてモデル化して、一連の注目ポイントを選択し、そしてこれらの注目ポイントのみをトラッキングする。一つの事後処理方法では、数値計算を行なって、アクターの顔モデルをトラッキング済の特徴ポイント群に、これらのポイントが動いてずれているときに、最小二乗誤差でフィッティングさせることにより、最大限に可能な一貫性をフレームごとに実現することができる。
図示の実施形態では、ヘルメット100は更に顔面保護バイザー130を含み、顔面保護バイザーは一の実施形態では、着色樹脂を使用して製作してサングラスとして機能させて、アクターの顔によって反射され、そしてトラッキングに問題を生じさせる全ての太陽光を弱めるように構成される。ヘルメット100内のアクターの顔は、赤外線照明を使用して照明することができる。モーションキャプチャプロセスが外で太陽光の下で行なわれる場合、カメラ120,122,124にIR(赤外線)透過フィルタを装着して赤外線照明を利用することができる。一の実施形態では、顔面保護バイザー130はディスプレイ132を内側表面上に含み、このディスプレイはアクターの周りの周囲の画像を表示し、周囲はヘルメット100に取り付けられるカメラ134によって撮影される。仮想画像を、ディスプレイ132に表示される外部画像の上に重ねることにより、アクターは、実世界画像の上に重ねられた仮想世界のオブジェクトと相互作用することができる。これにより、アクターは自然な顔の表情を関連する発生事象にほぼ同期して表わすことができる。図1Bに示すように、ヘルメット100の顔面保護バイザー130を上げて、アクターは休憩中にくつろぐことができ、そして非常に小さな通気口しか付いていないヘルメットを1日じゅう被っていることがないようにする。
別の実施形態では、ヘルメット100は眼電図(EOG)記録機能(2004年11月8日出願の「顔筋肉及び眼の動きをトラッキングしてコンピュータグラフィックスアニメーションを作成するシステム及び方法」と題する米国特許出願第10/984,488号に記載されているような眼電図記録機能であり、この特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる)を内蔵して眼の動きを記録する。この実施形態では、電極ペア群を眼の上方及び下方に配置する、または眼の左側及び右側に配置する。眼が中心位置から一方の電極の方に向かって動く場合、この電極が網膜側に対する正の電位差を検出し、そして反対側の電極が網膜側に対する負の電位差を検出する。従って、電極間に発生する電位差が眼の動きの測定値として記録される。EOG(眼電図)記録コントロールボックスをヘルメット100に組み込むことができる、または体に装着し、そしてヘルメットにプラグを差し込んで、信号を電極から受信し、そして当該信号をモーションデータに変換することができる。
顔の動きのデータを、頭部装着システムを使用して撮影するために、アクターの顔にセンサ(例えば、光反射マーカ、光反射球、及び/又は光反射円盤)を高密度に取り付ける必要があり、または顔の表面からの動き信号を提供する或いは反映することができる材料(例えば、塗料、色素、及び/又は光放出材料)を用いて準備する必要がある。しかしながら、モーションデータは、一つ以上のセンサが動かなかったときに撮影されるデータを含むことを理解されたい。従って、モーションデータは、動いた可能性のある、または動かなかった可能性のある一つのポイントの現在位置を示す。
図2Aに示す一の実施形態では、マーカをアクターの顔200に取り付けて、モーションキャプチャカメラを使用してアクターの表情を記録することができるようにしている。顔の動きは、ボディの動きに関与する大きな筋肉よりも遥かに小さい筋肉の動きを含むので、顔面マーカは通常、該当するボディマーカよりもずっと小さく、そしてカメラは通常、ボディの動きの撮影に普通使用されるカメラよりも解像度が高い。カメラは通常、共通平面においてアクターの肉体的な動きに同期させ、そしてカメラの焦点をアクターの顔に合わせ続けるように拘束される。図2Bに示す別の実施形態では、グリッドパターンの水平ライン及び垂直ライン、または水平曲線及び垂直曲線をアクターの顔210を覆うように形成する。離散ポイントではなく、グリッド交点によって形成されるラインまたは頂点の動きをトラッキングし、そして分析することにより、頭部装着システムは、従来のマーカトラッキングシステムよりもずっと多い表面データを生成することができる。
別の実施形態では、スペックルパターンをアクターの顔に光量の小さい近赤外光を使用して投影する。ヘルメット内のモーションキャプチャカメラはパターンを検出し、そして皮膚の上のスペックルパターンを捉えて三角測量の原理で定量化することによりアクターの顔の3次元メッシュを生成する。次に、顔の全表面をデジタル処理し、そして結果として得られるメッシュを出力する。別の実施形態では、一つのパターンをアクターの顔にスプレーする、または塗布する(例えば、インクまたはメークアップにより)。パターンは、塗料または色素を顔の表面に塗布することにより形成することができる。パターンは、パターンを材料に印刷する、またはシルク印刷し、次にこの材料を顔の表面に貼り付けることにより塗布することもできる。別の構成として、光パターンまたはドットパターンを顔の表面に投影することができる。ここでも同じように、ヘルメット内のモーションキャプチャカメラはパターンを検出し、そしてスプレーパターンまたは塗布パターンを捉えて三角測量の原理で定量化することによりアクターの顔の3次元メッシュを生成する。次に、顔の全表面をデジタル処理し、そして結果として得られるメッシュを出力する。しかしながら、この実施形態では、アクターの顔の最終モデルを解いて一貫性のあるメッシュモーションを得る。アクターの顔から獲得される質感を分析して可視光情報を取得することができる(例えば、シャドーイング、及び顔に光を当てる、または顔を暗闇に置く場合)。従って、質感は最終モデルの照明プロセスに利用することができる。一の変形例では、パターンは複数の圧電片(piezoelectric strips)を含むことができ、これらの圧電片によって、顔の動きに伴なう圧電片の曲げ抵抗を測定する。
別の実施形態では、帯状不可視光を、アクターの顔の上を高速にレーザまたは投影光を使用して行き来させる。モーションキャプチャカメラは等高線帯を、カメラが顔の上を通過するときにスキャンし、そして複数のラインが表面幾何学形状として再構成される。次に、獲得したこれらのラインをつなぎ合わせて一つのメッシュを生成し、このメッシュが時間軸でアニメーション表示される。一つの変形例では、回転ミラーを利用するアイセーフ不可視レーザをヘルメットの顎領域に装着することができる。別の変形例では、アイセーフ不可視回転レーザ光を顔に投影する。更に別の変形例では、アイセーフ不可視レーザ光を、アクターの顔に向いた回転ミラーに投影する。
選択するモーションキャプチャ設定によって生じる一つの共通の問題は、再構成メッシュをフレームごとに時間的な一貫性を維持する必要があることである。時間的な一貫性を維持することができない場合には、デジタル顔面の上の再構成表面をターゲットし直すという問題が生じる。使用するモーションキャプチャ法のタイプによって変わる時間的なメッシュの一貫性を確保するためには種々の方法がある。時間的に一貫性のあるメッシュを確保する一つの方法では、「注目」メッシュ頂点を有する種々の遷移表現を取り込んだアクターの顔モデルを使用し、そしてメッシュ頂点を使用して、最小二乗誤差に基づく関心領域のフィッティング処理を数値計算的に行なうが、このフィッティングは再構成の後の事後処理として行なわれる。再構成プロセスの事前処理として行なわれる別の実施形態では、再構成プロセスの前に、アクターのニュートラル面をスキャンし、デジタル処理し、そしてモデル化する。モデルメッシュ頂点を演技中のアクターのニュートラル面に投影する。次に、カメラ変換の外因性パラメータの計算は、ニュートラル面モデル頂点がビデオ画像のニュートラル面のどこに位置するか示しものである。この時点で、これらの頂点を、演技中に上述の設定(すなわち、マーカ、塗料、スペックルパターン、投射光など)を援用してトラッキングすることができる。最後に、3次元再構成をこれらのトラッキング済み頂点に関してのみ計算して、一貫性のある変形メッシュをフレームごとに生成する。
図3は、一の実施形態による頭部装着システム100のモーションキャプチャプロセッサ142、レコーダ140、及びカメラ120,122,124のブロック図である。図示の実施形態では、モーションキャプチャプロセッサ142はレコーダ140及びユーザワークステーション152に接続される。モーションキャプチャプロセッサ142はワークステーション152に有線手段または無線手段によって接続することができる。従って、一の実施形態では、モーションキャプチャプロセッサ142はネットワークインターフェースモジュール154を含み、ネットワークインターフェースモジュール154はデータをワークステーション152に送信し、そしてデータをワークステーション152から受信する。上に述べたように、プロセッサ142はデータパケットをワークステーション152から受信し、データパケットによってレコーダ140に、記録を開始すべき時点、及び記録を停止すべき時点を指示する。
モーションキャプチャプロセッサ142は画像撮影モジュール150と、マーカトラッキングモジュール148と、デジタルモデリングモジュール146と、そしてストレージユニット144と、を含む。モーションキャプチャプロセッサ142に接続されるのは、3台のモーションキャプチャカメラ120,122,124である。一の実施形態では、3台よりも多くの、または少ない台数のモーションキャプチャカメラを、種々のユーザ要求及びアニメーション関連の要求に従って使用することができる。モーションキャプチャカメラ120,122,124は撮影対象のアクターの顔300に焦点を合わせ、この場合、ターゲットセンサ(球形マーカとして示される)が顔300の表面のポイント群に配置される。
図3に示す実施形態に示すように、ターゲットポイント群には、図2Aに関連して説明したマーカと同様の複数のマーカが取り付けられる。カメラ120,122,124は画像撮影モジュール150によって制御されて、マーカのフレームごとの画像を撮影し、そしてこれらの画像を、モーションキャプチャプロセッサ142のキャプチャモジュール150に戻すことができる。一の実施形態では、カメラ120,122,124は、マーカの画像を画像フレームごとに交互に撮影する。このようにして撮影された画像フレームはストレージユニット144に格納される。一の実施形態では、レコーダ140をストレージユニット(例えば、ユニット144)として使用することができる。別の構成として、画像フレームはリアルタイムでユーザがワークステーション152で閲覧することができる。
マーカトラッキングモジュール148は、格納されている画像フレームをストレージユニット144から取り出し、そしてトラッキング処理をこれらの画像フレームに対して実行して各画像フレームのマーカを当該フレームの前後両方の画像フレームに正確にマッピングする。或る実施形態では、(1次)マーカの識別情報を供給する2次マーカは、マーカを区別する支援手段として使用することができる。一旦、このマッピングが完了すると、結果として得られるデータをデジタルモデリングモジュール146に渡し、このデジタルモデリングモジュールは各フレームにおいて、顔300を表わすモデル化表面を含む頂点座標系を仮想空間に設定する。各フレームで撮影されたマーカは次のフレームの同じマーカに正しくマッピングされるので、モデル化顔表面の動きが滑らかになり、そしてつながる。図3に示す実施形態では、マーカをセンサとして使用して顔表面を撮影するが、図2Bに示す塗装パターンのような他のセンサを使用することができる。
一の実施形態では、カメラ120,122,124、モーションキャプチャプロセッサ142の全てのモジュール、及びレコーダ140が頭部装着システムの中で構成される。別の実施形態では、カメラ120,122,124、レコーダ140、及びモジュール144及び150が頭部装着システムの中で構成され、モジュール146及び148がワークステーション152の中で構成される。
図4は、一の実施形態による方法を示すフローチャートであり、この方法では、アクターの顔の特徴を撮影してアクターの顔の動き、及び表情の表示を行なう。本方法では、マーカを顔表面のターゲットポイントにステップ400で取り付ける。一の実施形態では、マーカは光反射球であり、球の表面の光反射ポイントがほぼ、マーカデータポイントを構成する。次に、マーカの画像を現フレームでステップ402において撮影する。次に、ステップ404では、撮影画像を各フレームに関して保存する。ステップ406において、現フレームが最後のフレームではないと判断される場合、ステップ408で次のフレームに進み、そして当該フレームが新規の現フレームとなる。次に、本方法をステップ402に進め、新規の現フレームを使用して次の一連のマーカデータポイントを撮影する。上述の本方法では、現フレームが最後のフレームであると判断されるまで処理を継続する。この実施形態によれば、マーカデータがこのようにしてフレームごとに取得される。
一旦、フレームの全てが撮影されると、保存された画像フレームをステップ410で取り出す。ステップ412では、トラッキング処理を、取り出した画像フレームに対して実行して、各画像フレームのマーカを当該フレームの前後両方の画像フレームに正確にマッピングする。一旦、マッピングが完了すると、顔を表わすモデル化表面を含む頂点座標系を仮想空間にステップ414で設定する。次に、結果として得られるモデル化表面を、アクターの顔の動き、及び表情の表示として出力する。
本発明の種々の例示としての実施形態について説明してきた。しかしながら、この技術分野の当業者であれば、更に別の実施形態を用いることもでき、かつ更に別の実施形態が本発明の技術範囲に含まれることが理解できるであろう。例えば、一つの変形例として、マーカ、塗料、色素、及び/又は投射光を含むセンサ群の組み合わせを使用して、顔の特徴を撮影することができる。センサの種類を選定して、顔の特定部分または特徴に関する撮影プロセスを向上させることができる。別の変形例として、説明ではカメラをヘルメットまたは身体に配置する例についてのみ示しているが、カメラは、身体に配置して、そして/または身体から離して配置してアクターの顔のデータを撮影するように構成することができる。別の変形例として、説明ではヒトの顔の動きを撮影する形態についてのみ示しているが、上に説明したプロセスを使用してあらゆるオブジェクトの動いている表面の動きを撮影することができる。
従って、本発明は、上に説明した実施形態のみに制限されるのではない。
本発明の構造及び動作の両方に関する本発明の詳細は、添付の図を分析することにより部分的に理解することができ、これらの図では、同様の参照番号は同様の構成要素を指す。
図1Aは、本発明の一の実施形態による頭部装着システムを示す図であり、図1Bは、システムの顔面保護バイザーを上げた状態の頭部装着システムを示す図である。 図2Aは複数のマーカを示し、これらのマーカを顔に取り付けて、モーションキャプチャカメラを使用して顔の表情を撮影することができるようにしており、図2Bは水平及び垂直ラインまたは曲線から成るグリッドを示し、これらのラインまたは曲線は顔を覆うように形成されて、モーションキャプチャカメラを使用して顔の表情を撮影することができるようにしている。 一の実施形態によるヘルメット頭部装着システムのモーションキャプチャプロセッサ及びカメラのブロック図である。 アクターの顔面パターンを撮影してアクターの顔の動き、及び表情の表示を行なう、一の実施形態による方法を示すフローチャートである。

Claims (29)

  1. アクターの顔面の動きのデータを、前記アクターの顔面に配置される複数のセンサを使用して取得するように構成される少なくとも一つのモーションキャプチャカメラと;
    前記少なくとも一つのモーションキャプチャカメラに接続されるモーションキャプチャプロセッサと、を備え、
    前記モーションキャプチャプロセッサは:
    ストレージユニットと;
    前記少なくとも一つのモーションキャプチャカメラを制御して、前記アクターの顔面に配置される前記複数のセンサのフレームごとの画像を撮影するように構成され、かつ前記フレームごとの画像を受信して、前記ストレージユニットに保存する画像撮影モジュールと;
    保存されるフレームごとの画像を前記ストレージユニットから取り出し、トラッキング処理を画像に対して実行して、前記複数のセンサを各フレームに関して正確にマッピングし、そして顔面の前記動きのデータを供給するように構成されるセンサトラッキングモジュールと;
    前記動きのデータを受信して、前記アクターの顔面を表わすモデル化表面を生成するように構成されるデジタルモデリングモジュールと、
    を備えるシステム。
  2. 前記モーションキャプチャプロセッサの前記ストレージユニット、前記画像撮影モジュール、前記センサトラッキングモジュール、及び前記デジタルモデリングモジュールは、頭部装着システムの中で物理的に一体的に構成される、請求項1記載のシステム。
  3. 前記モーションキャプチャプロセッサの前記センサトラッキングモジュール及び前記デジタルモデリングモジュールは、頭部装着システムの中で構成される前記ストレージユニット及び前記画像撮影モジュールから物理的に分離されるように構成される、請求項1記載のシステム。
  4. 更に、前記アクターの周囲の画像を撮影するように構成される少なくとも一つのカメラと;
    前記アクターに対して、前記少なくとも一つのカメラで撮影した前記アクターの周囲の画像を表示するように構成され、かつ前記アクターの周囲の画像の上に重なる仮想画像も表示して前記アクターが関連する発生事象とほぼ同期した自然な顔の表情を表現することができるようにする機能を有するディスプレイと、を備える、請求項1記載のシステム。
  5. 更に、前記アクターの音声を記録するように構成されるマイクロホンと;
    前記アクターの身体を冷気にさらすように構成され、かつマイクロホンがオンになるときにオフになる冷却ユニットと、を備える、請求項1記載のシステム。
  6. 前記モーションキャプチャプロセッサは、データをユーザワークステーションに無線送信し、そしてユーザワークステーションから無線受信するように構成される無線ネットワークインターフェースモジュールを含む、請求項1記載のシステム。
  7. 更に、前記少なくとも一つのモーションキャプチャカメラで撮影した前記アクターの顔面の動きのデータを記録するように構成されるレコーダを備え、
    前記レコーダは記録コマンドを前記ユーザワークステーションから受信する、請求項6記載のシステム。
  8. 前記少なくとも一つのモーションキャプチャカメラは、複数の視野を作成して立体視を複数のカメラを用いることなく実現するように構成されるフィールドスプリッタを含む、請求項1記載のシステム。
  9. 前記少なくとも一つのモーションキャプチャカメラの各カメラはテレセントリックレンズを含む、請求項1記載のシステム。
  10. 更に、球形、双曲線形、及び平板形の内の一つの形状において、前記少なくとも一つのモーションキャプチャカメラによる顔面の反射光の撮影を可能にするように構成されるミラーを備え、
    前記ミラーによって、前記少なくとも一つのモーションキャプチャカメラを人間工学的に適切な位置に設置することができ、ヘルメットに関する校正/安定性の問題を軽減することができる、請求項1記載のシステム。
  11. 更に、眼の動きを測定し、そして該当する信号を出力するように構成される複数の電極と;
    該当する前記信号を前記複数の電極から受信し、そして前記信号をモーションデータに変換するように構成される眼電図記録コントロールユニットと、を備える、請求項1記載のシステム。
  12. 前記頭部装着システムはヘルメットを含む、請求項1記載のシステム。
  13. 顔の動きのデータを撮影し、そして処理する方法であって、
    複数のセンサをアクターの顔面のターゲットポイントに取り付けるステップと;
    前記アクターの顔面に配置される前記複数のセンサのフレームごとの画像を、頭部装着システムに配置される少なくとも一つのモーションキャプチャカメラを使用して撮影するステップと;
    頭部装着システムにおいて、トラッキング処理を、前記複数のセンサの前記フレームごとの画像に対して行なって、前記複数のセンサを各フレームに関して正確にマッピングするステップと;
    頭部装着システムにおいて、前記アクターの顔面を表わすモデル化表面を生成するステップと、を含む方法。
  14. 更に:前記アクターの周囲の画像を撮影するステップと;
    前記アクターに対して、前記アクターの周囲の画像を表示するステップと、を含み、
    前記表示するステップは、前記アクターの周囲の画像の上に重なる仮想画像を表示して前記アクターが同期信号とほぼ同期した自然な顔の表情を表現することができるようにする、請求項13記載の方法。
  15. 更に、前記アクターの顔面の動きに関連するイベントとほぼ同期する前記同期信号を生成するステップを含む、請求項14記載の方法。
  16. フレームごとの画像を撮影する前記ステップは、更に、身体から離れた少なくとも一つのモーションキャプチャカメラを使用するステップを含む、請求項13記載の方法。
  17. 更に、前記複数のセンサのフレームごとの画像を撮影するステップの後に、z深度の計算を、多階調撮像を行なって実行するステップを含む、請求項13記載の方法。
  18. 更に、前記複数のセンサのフレームごとの画像を撮影するステップの後に、2次元座標を三角測量の原理を使って3次元的に合成するステップを含む、請求項13記載の方法。
  19. 更に、前記複数のセンサのフレームごとの画像を撮影するステップの後に、透視歪みを除去するステップを含む、請求項18記載の方法。
  20. 前記透視歪みを除去するステップは:
    フレームごとの前記画像の歪み補正し;
    2次元を3次元三角測量に拡充する、請求項19記載の方法。
  21. 更に、前記アクターの顔面を、赤外線照明を使用して照明するステップを含む、請求項13記載の方法。
  22. 更に、スペックルパターンを前記アクターの顔面に近赤外光を使用して投影するステップを含む、請求項13記載の方法。
  23. 更に、顔面の3次元メッシュを、三角測量の原理でスペックルパターンの形状を測定することにより生成するステップを含む、請求項22記載の方法。
  24. 更に:変化する表情を、注目するメッシュ頂点を用いて生成するステップと;
    最小二乗誤差に基づく関心領域のフィッティング処理を、前記メッシュ頂点を使用して数値計算的に行なうステップと、を含む、請求項23記載の方法。
  25. 更に:前記アクターのニュートラル面をスキャンし、デジタル処理し、モデル化するステップと;
    メッシュ頂点を前記アクターのニュートラル面に投影するステップと、を含む、請求項23記載の方法。
  26. 前記複数のセンサを前記アクターの顔面のターゲットポイントに取り付けるステップでは、一つのパターンを前記アクターの顔面に光反射材料を使用して塗装する、請求項13記載の方法。
  27. 前記複数のセンサを前記アクターの顔面のターゲットポイントに取り付けるステッでは、帯状不可視光を、前記アクターの顔面の上を、レーザを使用して通過させる、請求項13記載の方法。
  28. 前記アクターの顔面に配置される前記複数のセンサのフレームごとの画像を撮影するステップは:
    等高線帯を、前記少なくとも一つのモーションキャプチャカメラを使用してスキャンし;
    帯状不可視光を通過させる前記ステップにより生成されるラインを表面形状として再構成し;
    これらのラインをつなぎ合わせてメッシュを生成する、請求項27記載の方法。
  29. 顔面の動きのデータを撮影し、そして処理するシステムであって、
    複数のセンサをアクターの顔面のターゲットポイントに取り付ける手段と;
    前記アクターの顔面に配置される前記複数のセンサのフレームごとの画像を、頭部装着システムに配置される少なくとも一つのモーションキャプチャカメラを使用して撮影する手段と;
    頭部装着システムにおいて、トラッキング処理を、前記複数のセンサのフレームごとの前記画像に対して行なって、前記複数のセンサを各フレームに関して正確にマッピングする手段と;
    頭部装着システムにおいて、前記アクターの顔面を表わすモデル化表面を生成する手段と、
    を備えるシステム。
JP2008528255A 2005-08-26 2006-08-28 顔の動きのデータの撮影及び処理 Expired - Fee Related JP5362357B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US71189705P 2005-08-26 2005-08-26
US71190805P 2005-08-26 2005-08-26
US46751205A 2005-08-26 2005-08-26
US71190705P 2005-08-26 2005-08-26
US71190605P 2005-08-26 2005-08-26
US60/711,907 2005-08-26
US60/711,906 2005-08-26
US60/711,908 2005-08-26
US60/711,897 2005-08-26
US11/467,512 2006-08-25
PCT/US2006/033713 WO2007025300A2 (en) 2005-08-26 2006-08-28 Capturing and processing facial motion data

Publications (2)

Publication Number Publication Date
JP2009506442A true JP2009506442A (ja) 2009-02-12
JP5362357B2 JP5362357B2 (ja) 2013-12-11

Family

ID=40403932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008528255A Expired - Fee Related JP5362357B2 (ja) 2005-08-26 2006-08-28 顔の動きのデータの撮影及び処理

Country Status (1)

Country Link
JP (1) JP5362357B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077076A1 (ja) 2011-11-24 2013-05-30 株式会社エヌ・ティ・ティ・ドコモ 表情出力装置及び表情出力方法
KR20160109867A (ko) * 2015-03-13 2016-09-21 주식회사 레드로버 표면윤곽 변화를 고려한 동적 프로젝션 매핑 방법
CN108140105A (zh) * 2015-09-29 2018-06-08 比纳里虚拟现实技术有限公司 具有脸部表情检测能力的头戴式显示器
WO2020017627A1 (ja) 2018-07-20 2020-01-23 ソニー株式会社 装着具

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101728635B1 (ko) 2016-05-31 2017-04-20 연세대학교 산학협력단 표정을 인식하기 위한 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306956A (ja) * 1994-05-10 1995-11-21 Michio Iyobe 閉鎖空間施設を利用した仮想空間体験システム
JPH07325936A (ja) * 1994-06-01 1995-12-12 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH0850660A (ja) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH0896162A (ja) * 1994-09-21 1996-04-12 Atr Tsushin Syst Kenkyusho:Kk 表情再現装置
JPH11328440A (ja) * 1998-03-16 1999-11-30 Atr Ningen Joho Tsushin Kenkyusho:Kk アニメーションシステム
JP2002005623A (ja) * 2000-06-27 2002-01-09 Roland Dg Corp レーザー光を用いた変位測定方法
JP2002354074A (ja) * 2001-05-22 2002-12-06 Denso Corp 携帯電話

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306956A (ja) * 1994-05-10 1995-11-21 Michio Iyobe 閉鎖空間施設を利用した仮想空間体験システム
JPH07325936A (ja) * 1994-06-01 1995-12-12 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH0850660A (ja) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk 像の実時間認識合成装置
JPH0896162A (ja) * 1994-09-21 1996-04-12 Atr Tsushin Syst Kenkyusho:Kk 表情再現装置
JPH11328440A (ja) * 1998-03-16 1999-11-30 Atr Ningen Joho Tsushin Kenkyusho:Kk アニメーションシステム
JP2002005623A (ja) * 2000-06-27 2002-01-09 Roland Dg Corp レーザー光を用いた変位測定方法
JP2002354074A (ja) * 2001-05-22 2002-12-06 Denso Corp 携帯電話

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077076A1 (ja) 2011-11-24 2013-05-30 株式会社エヌ・ティ・ティ・ドコモ 表情出力装置及び表情出力方法
KR20160109867A (ko) * 2015-03-13 2016-09-21 주식회사 레드로버 표면윤곽 변화를 고려한 동적 프로젝션 매핑 방법
KR101684270B1 (ko) * 2015-03-13 2016-12-20 주식회사 레드로버 표면윤곽 변화를 고려한 동적 프로젝션 매핑 방법
CN108140105A (zh) * 2015-09-29 2018-06-08 比纳里虚拟现实技术有限公司 具有脸部表情检测能力的头戴式显示器
JP2018538593A (ja) * 2015-09-29 2018-12-27 バイナリーヴィーアール, インコーポレイテッドBinaryvr, Inc. 表情検出機能を備えたヘッドマウントディスプレイ
WO2020017627A1 (ja) 2018-07-20 2020-01-23 ソニー株式会社 装着具
CN112423663A (zh) * 2018-07-20 2021-02-26 索尼公司 可穿戴工具
US11966101B2 (en) 2018-07-20 2024-04-23 Sony Corporation Mounting tool

Also Published As

Publication number Publication date
JP5362357B2 (ja) 2013-12-11

Similar Documents

Publication Publication Date Title
AU2006282764B2 (en) Capturing and processing facial motion data
US11199706B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
KR101424942B1 (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US20050083248A1 (en) Mobile face capture and image processing system and method
JP2011238291A (ja) デジタル顔モデルのアニメーション化のためのシステム及び方法
AU2005291927A1 (en) System and method for tracking facial muscle and eye motion for computer graphics animation
JP5362357B2 (ja) 顔の動きのデータの撮影及び処理
JP5021676B2 (ja) モーションキャプチャにおける眼球運動データ置換
CN108416255B (zh) 基于三维动画中角色实时面部表情动画捕捉的系统和方法
JP2000098300A (ja) 仮想画像立体合成装置、仮想画像立体合成方法、ゲーム装置及び記録媒体
Okun et al. Performance and Motion Capture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090828

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100701

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110809

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130219

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130904

R150 Certificate of patent or registration of utility model

Ref document number: 5362357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees