JP5662203B2 - コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法 - Google Patents

コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法 Download PDF

Info

Publication number
JP5662203B2
JP5662203B2 JP2011043650A JP2011043650A JP5662203B2 JP 5662203 B2 JP5662203 B2 JP 5662203B2 JP 2011043650 A JP2011043650 A JP 2011043650A JP 2011043650 A JP2011043650 A JP 2011043650A JP 5662203 B2 JP5662203 B2 JP 5662203B2
Authority
JP
Japan
Prior art keywords
facial
motion tracking
performer
tracking system
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011043650A
Other languages
English (en)
Other versions
JP2011108281A (ja
Inventor
セイガー,マーク
スコット,レミントン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2011108281A publication Critical patent/JP2011108281A/ja
Application granted granted Critical
Publication of JP5662203B2 publication Critical patent/JP5662203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/04Arrangements of multiple sensors of the same type
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head

Description

本特許出願は下記の仮特許出願に対して米国特許法第119条(c)により優先権を主張する。
(a)仮出願番号60/616,049 (2004年10月4日出願) SYSTEM AND METHOD FOR CAPTURING FACIAL AND EYE MOTIONおよび(b)仮出願番号60/615,268 (2004年10月1日) TRACKING OF FACIAL FEATURE MOVEMENTS WITHOUT VISUAL FACE CAPTURE.
本発明は、三次元のグラフィックスおよびアニメーションに関し、具体的には、コンピュータグラフィックスアニメーションの生成用にカメラを使用することなく演技者の顔面および眼球の運動を捕捉できる運動追跡システムに関する。
運動捕捉システムは、実物体の運動を捕捉し、およびそれをコンピュータ生成された物体上に写像するために使用される。この種のシステムは、映画およびビデオゲームの製作でしばしば使用されて、コンピュータグラフィックス(CG)アニメーションを生成するためにソースデータとして使用される人間のデジタル表現を生成する。典型的なシステムでは、演技者は様々な箇所に付けられたマーカを有する(例えば、胴体および手足に付けられた小さい反射性のマーカを有する)スーツを着用し、デジタルカメラは、マーカを照光しながら、様々な角度から演技者の運動を記録する。次いで、システムは、各フレームで演技者のスーツ上のマーカの位置(例えば、空間座標として)および方位を決定するために画像を解析する。マーカの位置を追跡することによって、システムは時間にわたってマーカの空間的表現を生成し、運動中の演技者のデジタル表現を構築する。次いで、その運動はデジタルモデルに適用され、このデジタルモデルはその後、俳優および/または演技の完全なCG表現を生成するためにテクスチャ化およびレンダリングされてもよい。この技法は、多くの人気映画で極めてリアルなアニメーションを生成するために、特殊効果の会社によって使用されている。
運動捕捉システムは、俳優の顔面の造作の運動を追跡するためも使用されて、俳優の顔面の運動および表情(例えば、笑い、泣き、微笑みなど)の表現を生成する。胴体の運動捕捉と同様に、マーカが俳優の顔面に付着され、カメラが俳優の表情を記録する。顔面運動は、胴体運動に関与するより大きい筋肉に比べて比較的小さい筋肉を必要とするので、顔面マーカは典型的には対応する胴体マーカよりも非常に小さく、カメラは典型的には、胴体運動捕捉用に通常使用されるカメラよりも高い解像度を有する。俳優の物理的運動が、俳優の顔面上にカメラの焦点が合わされ続けるように制限されて、カメラは典型的に共通の面内に位置合せされる。顔面運動捕捉システムは、顔面のマーカを均一に照光し、カメラと顔面の間の相対的運動の度合いを最小限に抑えるために、ヘルメットまたは俳優に物理的に付着される他の実装手段に組み込まれてよい。
キーフレーミングなどの従来のアニメーション技術に勝る運動捕捉システムの利点は、実時間の可視化能力である。製作チームは、実時間でまたはほとんど実時間で演技者の運動の空間的表現を吟味することができ、それによって俳優は、最適データを捕捉するために物理的演技を変えることができる。さらに、運動捕捉システムは、他のアニメーション技術を使用して容易に再生できない物理的運動の微妙なニュアンスを検出し、それによって自然な運動をより正確に反映するデータをもたらす。その結果、運動捕捉システムを使用して収集された原データを使用して生成されたアニメーションは、より生きているような外見を示すことになる。
運動捕捉システムのこれらの利点にもかかわらず、従来の運動捕捉システムの欠点は、それらが眼球運動を捕捉できないことである。マーカが演技者の眼球に貼付されることができないので、眼球運動は運動捕捉カメラによって検出されない。この眼球運動はその後、後続のCGアニメーションプロセス中に追加されなければならない。アニメーションプロセスをより煩雑にすることに加えて、得られるアニメーション製品は、その製品が演技中に生じる微妙な眼球運動を含むことができないので、リアルさが低くなる。
カメラに頼る従来の運動捕捉システムの他の欠点は、演技者の運動データが、小道具などの他の物体または他の俳優による妨害によって妨げられる可能性があることである。具体的には、胴体または顔面のマーカの一部分がデジタルカメラの視野から遮られる場合、その胴体または顔面の部分に関するデータは収集されない。これが運動データで遮蔽(occlusion)または欠陥(hole)をもたらす。遮蔽は、従来のコンピュータグラフィックス技術を使用してポストプロダクション中に後で補充されることができるが、補充データは実際の運動データの品質を下げて、視聴者に見分けられる可能性があるアニメーションの欠陥をもたらす。この問題を回避するために、従来の運動捕捉システムは、一度に捕捉できる物体の数を限定する(例えば、単一の演技者)。演技者の演技の品質が、他の俳優および物体による妨害にしばしば依存するので、これも運動データをリアルさが低くなったように見せる結果となる。さらに、自然に見える方法でこれらの個別の演技を一緒に結合することは困難である。
娯楽産業以外では、光学カメラに依存することなく顔面筋運動および/または眼球運動を捕捉または追跡することが望ましいであろう多くの他の環境が存在する。例えば、自動音声認識装置、アクセス制御システム、個人プロフィール用の電子記憶および検索システム、ならびに医用/歯科用スクリーニングシステムがこの種の解析技術を使用することができよう。顔の造作の解析を使用する音声認識システムは、音響音声認識だけを使用することが困難である騒々しい環境(例えば、軍用機内または工場内)で広い用途を見出すことができる。現在、これらの可能性のある用途のそれぞれは、個々の顔の造作を有用な電子データに正確に変換する効果的手段を欠いている。これは特に、個人が検出装置に対して顔面の方位を持続的に変えている場合に問題である。
したがって、これらのおよび他の従来技術の欠点を克服する運動追跡システムを提供することが望ましいであろう。より具体的には、カメラを使用することなく、演技者の微妙な顔面および眼球運動を忠実に捕捉することができる運動追跡システムを提供することが望ましいであろう。
本発明は、微妙な顔面および眼球の運動を忠実に捕捉できる運動捕捉システムを提供することによって従来技術の欠点を克服する。本発明は、表面の筋電図(EMG)検出方法を使用して筋肉運動を検出し、眼電図(EOG)検出方法を使用して眼球運動を検出する。検出された筋肉および眼球運動に対応する信号が使用されて、演技者によって実行される同様の運動を示すようにアニメーション化されたキャラクタを制御する。
より具体的には、運動追跡アニメーションシステムの実施形態は、各筋肉に対応する複数の箇所で演技者の皮膚表面に貼付するようになされた複数対の節電図(EMG)電極と、複数対のEMG電極と動作上結合されたプロセッサとを備える。プロセッサは、複数対のEMG電極からEMGデータを取得する機能を実行するプログラミング命令を含む。EMGデータは、演技中の演技者の筋肉運動に対応する電気的信号を備える。プログラミング命令は、筋肉運動のデジタルモデルをもたらすようにEMGデータを処理することと、デジタルモデルをアニメーションキャラクタ上に写像することとをさらに含む。その結果、アニメーションキャラクタは、演技者と同様の筋肉運動を示すことになる。
本発明の一実施形態では、複数対の眼電図(EOG)電極が、演技者の眼球に隣接した箇所で演技者の皮膚表面に貼付されるようになされる。プロセッサは、複数対のEOG電極と動作上結合され、複数対のEOG電極からEOGデータを取得する機能を実行するプログラミング命令をさらに含む。EOGデータは、演技中の演技者の眼球運動に対応する電気的信号を備える。プログラミング命令は、EOGデータの処理と、アニメーションキャラクタ上への処理されたEOGデータの写像とをさらに提供する。これによってアニメーションキャラクタは演技者と同様の眼球運動を示すことができる。
下記の好ましい実施形態の詳細な説明を考慮することによって、コンピュータグラフィックスアニメーションの生成用に演技者の顔面および眼球の運動を捕捉可能にする運動追跡システムのより完全な理解が、そのさらなる利点および目的の理解と共に、当業者にもたらされる。まず簡単に説明される添付図面を参照する。
本発明の実施形態による運動追跡システムを示す構成図である。 例示の電極配置箇所を含む人間の顔面筋構造の正面図である。 本発明の実施形態による筋電図(EMG)信号を使用してアニメーションフレームを生成する方法である。 EMG信号を処理する方法である。 較正ポーズを処理する方法である。 角膜と眼底の間に存在する電圧ポテンシャルを示す人間の眼球の側断面図である。 図7Aおよび図7Bは眼球運動に対応する電界測定を示す概略図である。 顔面筋および眼球のポテンシャル電極を貼付された演技者の写真である。 図8の演技者から取得された顔面筋および眼球の運動データを使用してレンダリングされたアニメーションキャラクタの描写である。
下記にさらに説明するように、本発明は、カメラを使用することなく演技者の微妙な顔面および眼球の運動を忠実に捕捉可能にする運動追跡システムの要求を満たす。下記の詳細な説明では、同様の要素番号が、1つまたは複数の図面で示される同様の要素を説明するために使用される。
まず図1を参照すると、構成図は、本発明の一実施形態による運動追跡システム100を示す。運動追跡システム100は、適切な電極インターフェース112を介して、複数の顔面筋電極対および複数の眼球運動電極対と通信するようになされた運動追跡プロセッサ108を含む。運動追跡プロセッサ108は、関連データファイルを格納可能にするようになされたデータ格納装置106を有するプログラム可能なコンピュータをさらに備えてよい。当技術分野で知られているように、1つまたは複数のコンピュータワークステーションは、ネットワークを使用して運動追跡プロセッサ108と結合されてよく、このネットワークによって複数のグラフィックアーチストが、コンピュータグラフィックスアニメーションを生成するプロセスでその格納データファイルを用いて作業することができる。運動追跡プロセッサ108は、市版のソフトウェアパッケージによって提供されるようなコンピュータグラフィックスアニメーションシステムをさらに含んでもよく、その市販のソフトウェアパッケージは、Alias|Wavefront(商標)により販売されたMaya(登録商標)ソフトウェア製品ラインまたは他の同様の製品などの娯楽産業向けの3Dグラフィックスおよびアニメーションの生成を可能にする。コンピュータグラフィックスアニメーションシステムは、運動追跡プロセッサ108から完全に分離したコンピュータハードウェアおよびソフトウェアシステムを備えてよく、または代替として、共通のハードウェアおよびソフトウェアシステムの一部として運動追跡プロセッサ108と共に(例えば、「プラグイン」として)組み込まれてもよいことが理解されよう。
筋肉電極対は、各電気導体1161、1181から116N、118Nまでを介して、電極インターフェース112と結合されている電極1201、1221から120N、122Nまでを含む。また、接地電極126は、電気導体124を介して電極インターフェース112と結合されている。本発明の好ましい一実施形態では、筋肉電極対は表面の筋電図(EMG)電極を備え、その節電図電極は、筋肉が収縮するときに生じる筋肉の表面に沿って伝わる脱分極波によって引き起こされる電圧差を測定する。表面電極によって検出される信号は、典型的に5mVの範囲である。電極は電気的インパルスの予期される方向に位置合せ(または、排除されるべきインパルスと垂直に位置合せ)されるべきである。
眼球運動電極対は、各電気導体1321、1341および1322、1342を介して電極インターフェース112と結合されている電極1361、1381および1362、1382を含む。また、接地電極144は、電気導体142を介して電極インターフェース112と結合されている。好ましい一実施形態では、眼球運動は、眼球からの眼電図(EOG)を取得および測定することによって検出される。
図2は顔面筋システムを示す人間の解剖モデル200を示し、その顔面筋システムはEMG電極対に対する例示的に指定された顔面筋の箇所を有する。1対のEMG電極が使用されて、各筋肉グループのそれぞれからデータを捕捉する。例えば、電極対箇所1Lは左内側のまゆ毛を上げるように作用する筋肉に対応し、電極対箇所2Lは左外側のまゆ毛を上げるように作用する筋肉に対応し、電極対箇所3はまゆ毛を下げるように作用する筋肉に対応する。電極対は、化粧用接着剤を使用するなどの従来の方法によって指定箇所で演技者の皮膚表面に貼付される。演技者による対応筋肉の運動が、対応電極によって検出される関連の電気的信号を生成することは理解されよう。あらゆる人間の筋肉はわずかに異なるので、最適なデータ収集を実現するように各演技者用の電極を正確に配置および位置決めするために一定量の実験が必要となろう。
医学分野で知られているように、上顔面筋はまゆ毛、額、ならびに上まぶたおよび下まぶたの外見を変えるように作用する。顔面の上部の前頭筋は、頭蓋骨上の静的着点に向かって等張に収縮して、表面組織(すなわち、皮膚)を筋肉の方向に対して垂直にひだをつけ、しわを寄せることができる。下顔面筋は、唇から頬骨に向かう角方向に収縮する大頬骨筋と、実際は円形または楕円形であり、眼球の周りに広がっている眼輪筋と、口の周りに広がっている口輪筋と、耳に向かって水平に収縮する頬筋と、様々な雑多な活動を制御する他の筋肉とを含んで、いくつかの異なるグループで構成されている。口の筋肉は、特に複雑な筋肉の相互作用を有する。口輪筋は骨に付着していない括約筋である。3つの重要な筋肉、すなわち上唇挙筋(M. Levator Labii Superioris)および上唇鼻翼挙筋(M. Levator Labii Superioris Alaeque Nasi)は上から結合する一方、頬筋は口の大結節で結合し、水平に収縮する。口角下制筋(M. Depressor Anguli Oris)、下唇下制筋およびオトガイ筋はそれぞれ、斜めにおよび垂直に収縮する。顔面の表情は、これらの上顔面筋および下顔面筋の複雑なおよび合成された運動によって形成される。
図2は、EOG電極対に対する例示的な指定箇所も示す。眼球に隣接した電極対の箇所EO1およびEO2は、眼球の左/右運動に関連する信号を検出することに適している。片方の眼球の下方および上方の電極対箇所EO3およびEO4は、眼球の上/下運動に関連する信号を検出することに適している。接地電極箇所GDは額上に配置される。接地電極は、それが顔面筋の用途および作用を妨害しない身体(首、肩、ひじなど)上のどこでも貼付できることに留意されたい。額は、それが顔面筋の作用を妨害することなく他の電極に近接しているので、接地電極にとって便利な箇所を表す。第2の接地電極がEMG電極のために必要であり、この第2の接地電極はEOG接地電極と同じ領域に配置されてよいことに留意されたい。演技者の2つの眼球を表す双極子は並列に運動するので、片方の眼球から上/下運動を収集することだけが必要である。EMG電極と同様に、EOG電極は、化粧用接着剤を使用するなど従来の方法によって指定箇所で演技者の皮膚表面に貼付される。
簡単に図6を参照すると、人間の眼球600の側断面図が示されている。角膜602は眼球の前面に配置され、物体から反射される光線を透過する表面を形成する。光線は、角膜602、レンズ604、および硝子体612によって屈曲され、屈折され、および集束される。眼底608は、網膜606を含む凹形の眼球内部を形成する。レンズ602は網膜606上に物体の像を集束し、網膜606は光線を電気的インパルスに変換し、この電気的インパルスは視神経610を介して脳に伝達される。当技術分野で理解されているように、電圧ポテンシャルが角膜602と眼底608の間に存在する。この電圧ポテンシャルは、測定可能な電界を放射する双極子を備えて、電界の変動が眼球の運動に関連付けられるようにする。
図7Aおよび図7Bは電極対1361、1381によって囲まれる2つの双極子を示す。2つの双極子は演技者の眼球600L、600Rのそれぞれに対応する。図7Aに示すように、双極子(すなわち、眼球)が前方方向に向いているとき、電極1361と電極1381の間で測定された電界はゼロである。図7Bでは双極子は右側に配向し、それによって電極1361と電極1381の間で正の電界を誘起する。接地に対する電極1361と電極1381の間の電界変動は、眼球に関する適切な位置情報をもたらす。この電界変動は、名目上の前方方向から約±20°の範囲の眼球運動に対してほとんど線形を維持する。
ここで図1に戻ると、運動追跡プロセッサ108は、信号処理と、EMG電極およびEOG電極によって検出される信号の増幅とを提供する。EMG電極に関して、信号処理は受信信号の整流を含むことができる。未処理の信号は二相であるので、その平均値はゼロである。整流作用によって電流が一方向だけに流されるようになり、したがってゼロ軸の全域で信号の負の成分が「反転」して、信号全体が正になる。EOG電極から受信される信号の位相成分は、眼球の方向の判定にとって重要であり、したがってこれらの信号の整流が実行されないことはないであろう。信号処理は、受信信号のフィルタリングおよび線形包絡線の検出も含むことができる。EMG信号は、実際には多くの信号ならびに多少の雑音の合成物である。また、これらの電圧は、様々な比率または周波数で昇降して、周波数スペクトルを形成する。運動追跡プロセッサ108は合成信号をフィルタし、運動アーチファクトなどの望ましくなく、かつ無意味な電気的雑音を除去することができる。ほとんどのEMGは20Hzと200Hzの間の周波数範囲に存在する。運動アーチファクトは10Hz未満の周波数を有し、雑音は所望のEMG範囲を超える周波数範囲を有する。したがって、運動アーチファクトおよび雑音は、信号が帯域通過フィルタを通過することによって除去されることができる。電極インターフェース112および/または運動追跡プロセッサ108はまた、受信信号を増幅して、信号処理に適したレベルに受信信号を上げることができる。本発明の一実施形態では、電極インターフェースは、Run Technologiesにより作製されたMyopacシステムによって提供されてもよい。
図3は、本発明の一実施形態による顔面追跡方法の例示の実装形態を示す。まず、その方法はステップ302でEMG信号を取得する必要があり、ステップ302は上述のように顔面の特定部分に電極を配置することを含む。例えば、電極は選択された顔面筋グループの上方に配置されてよい。したがって、演技者が顔面の表情を作るとき、関連の顔面筋は、顔面筋の運動により筋肉作用ポテンシャルを生成する。取得されたEMG信号は、ステップ304で処理されて、適正に挙動するようになされた信号を生成する。EMG信号処理には、顔面の表情の各フレームに対する複数のEMGチャネルの処理が含まれる。次いで、n次元の「表情空間」を定義する1組の較正表情またはポーズが306で生成される。較正表情またはポーズは、較正ポーズとEMGチャネル値との行列積を表す行列を生成することによって数学的に表現されてもよい。各較正表情を生成するために、演技者は、ある隔離された筋肉グループを収集データの較正のために作動させる。例えば、演技者はまゆ毛を上方に動かし、関連したEMG電極からの信号が測定される。較正要因が、デジタルモデルの対応する運動を実現するために検出された信号に適用されてよい。EMG電極の位置も、より強い信号を検出するために、または隣接のEMGセンサからのクロストークを避けるために、わずかに移動されてもよい。次いで、同様のプロセスが、他の筋肉グループのそれぞれに対して繰返されるであろう。
後続の演技からのEMG信号が較正表情に適合されて、ステップ308で各表情成分に対する重み係数が生成される。重み係数(x)は、xに対して式F(x)=Bを解くことによって生成され、ここでFはステップ306で生成される較正表情の組であり、Bはステップ304で処理される各フレームに対する複数のEMGチャネルである。各顔面表情成分について、顔面の類似の3Dコンピュータグラフィックスモデルがステップ310で生成される。その3Dコンピュータグラフィックスモデルは、異なる組のパラメータを使用して同様の顔面表情を表す。例えば、幾何学的座標が、顔面の表情を表すためにパラメータとして使用されてもよい。別の実施例では、筋肉強度が、顔面の表情を表すためにパラメータとして使用されてもよい。重み付き成分が、ステップ312で3Dコンピュータグラフィックスモデルと結合されるとき、結果は、元の演技の顔面表情形状と一致する顔面表情形状である。顔面表情の最終的な形状は、1組のパラメータで構成された3Dコンピュータグラフィックスモデルと重み付き成分との和として表現され、ステップ314でアニメーションフレームとしてレンダリングされる。
図4は、ステップ304で上述したEMG信号の処理に関する電気回路をより詳細に示す構成図である。EMG信号は、大体は上述したように、顔面筋上に配置される電極を使用するなどして402で取得される。取得されたアナログEMG信号は、A/D変換器404によってデジタル信号に変換される。高域フィルタ406はEMG信号をフィルタし、整流器408はEMG信号を整流する。次いで、雑音は、雑音減算回路410によって、整流されたEMG信号から減算される。雑音低減信号は、積分器412によって積分され、および低域フィルタ414によって低域フィルタされる。最後に、EMGチャネル値がプロセッサ416によって処理される。
図5は、ステップ306で上述した較正表情を生成するためのプロセスをより詳細に示す流れ図である。ステップ502は較正ポーズに対するEMG信号の取得を行う。取得されたEMG信号はステップ504で処理される。次いで、ステップ506は、n次元の「表情空間」を定義する1組の較正表情またはポーズを生成する。上述のように、較正表情またはポーズは、較正ポーズとEMGチャネル値との行列積を表す行列を生成することによって数学的に表現される。
ここで図8を参照すると、実際の演技者は、その人の顔面に貼付された複数のEMGおよびEOG電極を有して示されている。電極が演技者の顔面に貼付される場合、演技者は所望の演技を行うことができる。図9で示すように、電極からの電気的信号は、電極インターフェース112によって受信および処理され、運動追跡プロセッサ108に伝達されて、格納およびアニメーションへの処理がなされるであろう。
電極導体の束は、演技者の容易な運動を助けるために一緒に束ねられてよい。電極インターフェース112は、運動追跡プロセッサ108に伝達するために、単一の導体上に種々の信号を多重化することができる。電極インターフェース112は、電気または光ファイバ導体によって運動追跡プロセッサ108につながれてよく、または無線接続が、演技者の運動の自由度をさらに高めるために使用されてもよい。あるいは、電極インターフェース112は、ハードディスク装置またはフラッシュメモリモジュールなどの格納装置を備えることができ、この格納装置によって演技データを局所的に格納し、次いで、その後に運動追跡プロセッサ108にダウンロードすることができる。本発明の一実施形態では、電極導体の束が演技者の頭部の後方に向けられ、および背骨に沿って電極インターフェース112まで下方に向けられて、電極インターフェース112は演技者の背中に背負われてよい。他の代替形態では、電極インターフェース112は、演技者により被られた帽子の中に携行されてもよく、それは、電極導体の束によって妨害されることなく、頭および首の自由運動を高めるであろう。電極および導体は、演技者の顔面にぴったりと合う柔軟なマスクと一体化されてもよいことが理解されよう。
運動追跡プロセッサは、既知の技術を使用してアニメーションキャラクタのデジタルモデルを生成する。デジタルモデルは、三次元(3D)の画像ファイルまたはデジタルモデルを生成するために一緒にまとめられる様々な角度から俳優を撮った複数のデジタル写真に基づかれてよい。上述のように、3D画像ファイルを生成するソフトウェアツールは、当技術分野でよく知られている。例えば、3D顔面構造は、それぞれが顔面構造の表面の一部分を定義する複数のスプライン曲面から生成されてよい。このスプライン曲面は、ひとまとめにして「ワイヤフレーム」と呼ばれる個々の線セグメントから形成される。顔面構造は、皮膚表面下に配置される顔面下構造を表す。所望の肌合いおよび色を有する表層組織が、アニメーションキャラクタを生成するために後続のアニメーションプロセスの一部として、この顔面下(sub-facie)構造に適用される。顔面構造の形状は、アニメーションキャラクタによって形成される顔面の表情を制御することが理解されよう。
デジタルモデルが生成されると、仮想の顔面筋構造が顔面構造のデジタルモデル上にオーバーレイされる。人間の顔面筋構造は医学文献でよく理解されており、個々の筋肉の配置および相互接続が、デジタルモデル上に容易に写像されることができる。筋肉の作動は、対応する複数の頂点の再配置を実行するために、選択された筋肉ベクトルまたは筋肉ベクトルのグループを圧縮することによってデジタルモデル内で実現され、それによってデジタルモデルの表面を再形成する。次いで、演技者から捕捉された顔面および眼球運動データは、デジタルモデルの各筋肉ベクトルに写像される。その結果、アニメーション化されたデジタルモデルは、捕捉された演技からの同様の顔面および眼球運動を示すことになる。演技者の行動および表情が、子供、動物、または様々な顔つきの大人の顔など、任意の他の種類のアニメーション化された顔面上に写像されてもよいことが理解されよう。
上述のように、前述の運動追跡システムは顔面筋と眼球運動の密接な協調を可能にする。例えば、目のまばたきは、眼球の周りの筋肉に関するEMGデータのスパイクとして検出される。スパイクが検出されるとき、アニメーションプロセスは、データと一致するように目のまばたきを挿入することができる。これによって得られるアニメーションのリアル性が著しく増すであろう。本発明の実装形態は、カメラまたは運動捕捉空間を必要としないので、上述の運動追跡システムは、従来の顔面運動追跡システムより勝る利点を有する。これは、たとえ追跡されるべき顔面が視野から遮蔽されても、この実装形態は依然として動作することを意味する。さらに、本発明の実装形態は、最終形状と無関係に、運動捕捉を筋肉運動に自動的にパラメータ化し、したがって新しい目標を定める顔面運動捕捉の支援をする。
前述の説明は顔面筋運動の捕捉だけを対処したが、同様の技術によって胴体筋肉運動の捕捉も可能であることは理解されよう。電極対は、上述の顔面筋と同様な方法で種々の胴体筋肉グループに貼付されることができる。同様に、ぴったりとしたボディスーツは、その中で与えられるEMG電極と共に設計されて、電極を演技者の胴体に貼付することの容易さおよび精度を改善することができる。この形式の胴体筋肉捕捉はさらに、関節回転に加えて筋肉屈曲が捕捉されることができるという点で、光学システムを使用する従来の運動捕捉に対してさらなる強化をもたらすことができよう。これによって、より生きているような人間運動のアニメーションをもたらすであろう。
上述の眼球運動プロセスが、運動を捕捉するために光学データを使用して、従来の運動捕捉システムと共に使用されてもよいことは理解されよう。次いで、眼球運動は、上述と同じ方法で光学的に捕捉された胴体運動および/または顔面運動と同期化されてよい。さらに、従来の光学運動捕捉システムと共に使用されるEMGデータ捕捉システムは、演技に関して強化されたデータを提供し、光学データが演技中の光学的妨害により遮られる場合にそのEMGデータ捕捉システムが適宜使用されてもよい。
したがって、カメラを使用することなく、演技者の顔面運動および眼球運動の捕捉を可能にするシステムおよび方法の好ましい実施形態を説明したので、本発明のある種の利点が達成されたことは当業者には明らかであろう。その様々な修正形態、適応形態および代替形態が、本発明の範囲および精神内で作成されてもよいことは理解されよう。本発明は特許請求の範囲によってさらに定義される。

Claims (22)

  1. 運動追跡システムであって、
    演技者の顔面の表面に配置された複数の顔面筋電極対を備え、
    前記対のそれぞれは、顔面筋に位置合わせされており、受信されるべき筋電図のインパルスは、当該顔面筋からのものであり、そして、当該対は、ある筋肉に垂直であり、排除対象の筋電図のインパルスは、当該筋肉からのものであり、
    システムは、さらに、
    前記演技者の眼球の少なくとも一つに隣接し、当該演技者の顔面に配置されている少なくとも一つの対の眼電図(EOG)電極であって、当該演技者の眼球の少なくとも一つに関連している双極子の電界を測定するよう構成されている少なくとも一つの対のEOG電極と、
    運動追跡プロセッサと、
    を備え
    前記運動追跡プロセッサは、前記複数の顔面筋電極対に動作可能なよう接続されている筋電図処理回路であって、調整されたEMG信号を生成するよう構成されている筋電図処理回路を有し、
    前記筋電図処理回路は、
    前記複数の顔面筋電極対によって得られた筋電図のインパルスを整流するよう構成されている整流段と、
    前記複数の顔面筋電極対によって得られた筋電図のインパルスに帯域通過フィルタリングを行うよう構成されているフィルタリング段と、
    を含み、
    前記運動追跡プロセッサは、さらに、
    前記少なくとも一つの対のEOG電極に動作可能に接続されている眼電図処理回路であって、前記演技者の眼球の少なくとも一つに関連している双極子の電界の大きさ及び極性を測定するよう構成されている測定段を含む眼電図処理回路と、
    較正段と
    を有し、
    前記較正段は、
    前記演技者が1組の較正表情のそれぞれを行ったときに前記調整されたEMG信号を記録するメモリと、
    前記1組の較正表情のそれぞれに関連している複数の較正要因を計算するプロセッサと、
    を含み、
    前記運動追跡プロセッサは、さらに、仮想の顔面筋構造を含んでいるデジタルコンピュータグラフィックスモデルを有し、
    前記調整されたEMG信号に前記較正要因の選択された一つを乗じ、前記仮想の顔面筋構造に適用する筋肉強度を生成し、これにより、前記デジタルコンピュータグラフィックスモデルは、前記演技者の表情に一致する顔面表情を示し、
    さらに、前記少なくとも一つの対のEOG電極によって測定された前記演技者の眼球の少なくとも一つに関連している双極子の電界の大きさ及び極性は、前記デジタルコンピュータグラフィックスモデルに適用され、これにより、当該デジタルコンピュータグラフィックスモデルは、当該演技者の眼球運動に一致する眼球運動を示すことを特徴とする運動追跡システム。
  2. 請求項1に記載の運動追跡システムにおいて、
    前記筋電図処理回路の前記フィルタリング段は、約20Hzより小さい周波数を排除し、さらに、約200Hzより大きい周波数を排除するよう構成されていることを特徴とする運動追跡システム。
  3. 請求項1に記載の運動追跡システムにおいて、
    前記運動追跡プロセッサの前記較正段は、n次元の表情空間として整理されているメモリを含み、前記演技者が行った前記較正表情のそれぞれについて、n個の較正要因が、前記デジタルコンピュータグラフィックスモデルのn個の仮想筋肉に関連して当該メモリに保存されていることを特徴とする運動追跡システム。
  4. 請求項3に記載の運動追跡システムにおいて、
    前記演技者が行った表情からの前記調整されたEMG信号が前記n次元の表情空間に適合され、前記デジタルコンピュータグラフィックスモデルに適用される重み付き要因が計算され、これにより、当該デジタルコンピュータグラフィックスモデルは、当該n次元の表情空間に保存されている前記較正表情の重み付けされた組み合わせである表情を示すことを特徴とする運動追跡システム。
  5. 請求項4に記載の運動追跡システムにおいて、
    前記重み付き要因は、異なるデジタルコンピュータグラフィックスモデルに適用され、これにより、前記演技者が行った表情は、子供、動物、または様々な顔つきの大人の顔のうちの1つであるアニメーション化されたキャラクタに写像されることを特徴とする運動追跡システム。
  6. 請求項1に記載の運動追跡システムにおいて、
    前記運動追跡プロセッサは前記演技者の胴体上に携行されるように構成されていることを特徴とする運動追跡システム。
  7. 請求項1に記載の運動追跡システムにおいて、
    前記運動追跡プロセッサは、前記演技者から離れて位置するよう構成されており、さらに、前記筋電図処理回路及び前記眼電図処理回路から無線インターフェースを介して信号を受信することを特徴とする運動追跡システム。
  8. 請求項1に記載の運動追跡システムにおいて、
    前記複数の顔面筋電極対及び前記少なくとも一つの対の眼電図(EOG)電極は、化粧用接着剤を用いて前記演技者の顔面に貼付されていることを特徴とする運動追跡システム。
  9. 請求項1に記載の運動追跡システムにおいて、
    前記複数の顔面筋電極対及び前記少なくとも一つの対の眼電図(EOG)電極は、演技者の顔面にぴったりと合う柔軟なマスクと一体化されていることを特徴とする運動追跡システム。
  10. 運動追跡システムであって、
    演技者の顔面の表面に配置された複数の顔面筋電極対であって、筋肉が収縮したときに筋肉の表面に沿って伝わる脱分極波によって引き起こされる電圧差を測定するよう構成されている顔面筋電極対と、
    前記演技者の眼球の少なくとも一つに隣接し、当該演技者の顔面に配置されている少なくとも一つの対の眼電図(EOG)電極であって、当該演技者の眼球の少なくとも一つに関連している双極子の電界を測定するよう構成されている少なくとも一つの対のEOG電極と、
    仮想の顔面筋構造を含んでいるデジタルコンピュータグラフィックスモデルを有する運動追跡プロセッサと、
    を備え、
    前記運動追跡プロセッサは、前記複数の顔面筋電極対によって測定された電圧差を処理することで、前記仮想の顔面筋構造の対応する圧縮値を計算し、これにより、前記デジタルコンピュータグラフィックスモデルは、前記演技者の表情に一致する顔面表情を示し、
    前記運動追跡プロセッサは、前記少なくとも一つの対のEOG電極によって測定された双極子の電界を処理することで、前記仮想の顔面筋構造に適用される眼球運動を計算し、これにより、前記デジタルコンピュータグラフィックスモデルは、前記演技者の眼球運動に一致する眼球運動を示し、
    前記運動追跡プロセッサは較正段を有し、
    前記較正段は、
    前記演技者が1組の較正表情のそれぞれを行ったときに前記複数の顔面筋電極対によって測定された電圧差を記録するメモリと、
    前記1組の較正表情のそれぞれに関連している複数の較正要因を計算するプロセッサと、を含むことを特徴とする運動追跡システム。
  11. 請求項10に記載の運動追跡システムにおいて、
    前記運動追跡プロセッサは、前記複数の顔面筋電極対に動作可能なよう接続されている筋電図処理回路をさらに有し、
    前記筋電図処理回路は、
    前記複数の顔面筋電極対によって得られた筋電図のインパルスを整流するよう構成されている整流段と、
    前記複数の顔面筋電極対によって得られた筋電図のインパルスに帯域通過フィルタリングを行うよう構成されているフィルタリング段と、
    を含むことを特徴とする運動追跡システム。
  12. 請求項10に記載の運動追跡システムにおいて、
    前記運動追跡プロセッサは、
    前記少なくとも一つの対のEOG電極に動作可能に接続されている眼電図処理回路であって、前記演技者の眼球の少なくとも一つに関連している双極子の電界の大きさ及び極性を測定するよう構成されている測定段を含む眼電図処理回路をさらに有することを特徴とする運動追跡システム。
  13. 請求項10に記載の運動追跡システムにおいて、
    前記較正段は、n次元の表情空間として整理されているメモリを含み、前記演技者が行った前記較正表情のそれぞれについて、n個の較正要因が、前記デジタルコンピュータグラフィックスモデルのn個の仮想筋肉に関連して当該メモリに保存されていることを特徴とする運動追跡システム。
  14. 請求項13に記載の運動追跡システムにおいて、
    前記演技者がある表情を行ったときに前記複数の顔面筋電極対によって測定される電圧差は、前記n次元の表情空間に適合され、前記デジタルコンピュータグラフィックスモデルに適用される重み付き要因が計算され、これにより、当該デジタルコンピュータグラフィックスモデルは、当該n次元の表情空間に保存されている前記較正表情の重み付けされた組み合わせである表情を示すことを特徴とする運動追跡システム。
  15. 請求項14に記載の運動追跡システムにおいて、
    前記重み付き要因は、異なるデジタルコンピュータグラフィックスモデルに適用され、これにより、前記演技者が行った表情は、子供、動物、または様々な顔つきの大人の顔のうちの1つであるアニメーション化されたキャラクタに写像されることを特徴とする運動追跡システム。
  16. 請求項10に記載の運動追跡システムにおいて、
    前記運動追跡プロセッサは前記演技者の胴体上に携行されるように構成されていることを特徴とする運動追跡システム。
  17. 請求項10に記載の運動追跡システムにおいて、
    前記運動追跡プロセッサは、前記演技者から離れて位置するよう構成されており、さらに、前記筋電図処理回路及び前記眼電図処理回路から無線インターフェースを介して信号を受信することを特徴とする運動追跡システム。
  18. 仮想の顔面筋構造を有するデジタルコンピュータグラフィックスモデルを運動追跡を行いアニメーション化する方法であって、
    演技者の顔面の表面に複数の顔面筋電極対を配置するステップを含み、
    前記対のそれぞれは、顔面筋に位置合わせされており、受信されるべき筋電図のインパルスは、当該顔面筋からのものであり、そして、当該対は、ある筋肉に垂直であり、排除対象の筋電図のインパルスは、当該筋肉からのものであり、
    方法は、さらに、
    少なくとも一つの対の眼電図(EOG)電極を、前記演技者の眼球の少なくとも一つに隣接する当該演技者の顔面に配置するステップと、
    前記演技者が行った1組の較正表情のそれぞれについて較正プロシージャを実行するステップと、
    を含み、
    前記較正プロシージャは、
    前記複数の顔面筋電極対から筋電図のインパルスを取得するステップと、
    特定の較正表情に関連している1組の較正要因を計算するステップと、
    前記特定の較正表情に関連している前記1組の較正要因をメモリに保存するステップと、
    を有し、
    方法は、さらに、
    前記演技者が行った表情について、前記複数の顔面筋電極対から筋電図のインパルスを取得するステップと、
    前記演技者の眼球の少なくとも一つに関連している双極子の電界の大きさ及び極性を少なくとも一つの対のEOG電極から取得するステップと、
    前記複数の顔面筋電極対からの取得した前記筋電図のインパルスに前記1組の較正要因の選択された一つを乗じ、筋肉強度パラメータを生成するステップと、
    前記デジタルコンピュータグラフィックスモデルが前記演技者の表情に一致する顔面表情を示すよう、前記筋肉強度パラメータを当該デジタルコンピュータグラフィックスモデルの前記仮想の顔面筋構造に適用するステップと、
    前記デジタルコンピュータグラフィックスモデルが当該演技者の眼球運動に一致する眼球運動を示すよう、前記少なくとも一つの対のEOG電極から取得した前記大きさ及び極性の測定値を当該デジタルコンピュータグラフィックスモデルの前記仮想の顔面筋構造に適用するステップと、
    を含むことを特徴とする方法。
  19. 請求項18に記載の方法において、
    前記複数の顔面筋電極対から筋電図のインパルスを取得するステップは、
    前記複数の顔面筋電極対によって得られた筋電図のインパルスを整流するステップと、
    前記複数の顔面筋電極対によって得られた筋電図のインパルスに帯域通過フィルタリングを行うステップと、
    を含むことを特徴とする方法。
  20. 請求項19に記載の方法において、
    前記帯域通過フィルタリングを行うステップは、約20Hzより小さい周波数を排除ステップ、さらに、約200Hzより大きい周波数を排除するステップを含むことを特徴とする方法。
  21. 請求項18に記載の方法において、
    前記較正プロシージャは、さらに、
    前記演技者が行った前記較正表情のそれぞれについて、n個の較正要因が、前記デジタルコンピュータグラフィックスモデルのn個の仮想筋肉に関連するよう、前記1組の較正要因をn次元の表情空間として整理するステップと、
    前記複数の顔面筋電極対によって得られた筋電図のインパルスを前記n次元の表情空間に適合するステップと、
    前記デジタルコンピュータグラフィックスモデルが前記n次元の表情空間に保存されている前記較正表情の重み付けされた組み合わせである表情を示すよう、当該デジタルコンピュータグラフィックスモデルに適用される重み付き要因を計算するステップと、
    を含むことを特徴とする方法。
  22. 請求項21に記載の方法において、
    前記演技者が行った表情が、子供、動物、または様々な顔つきの大人の顔のうちの1つであるアニメーション化されたキャラクタに写像されるよう、前記重み付き要因を異なるデジタルコンピュータグラフィックスモデルに適用するステップをさらに含むことを特徴とする方法。
JP2011043650A 2004-10-01 2011-03-01 コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法 Active JP5662203B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US61526804P 2004-10-01 2004-10-01
US60/615,268 2004-10-01
US61604904P 2004-10-04 2004-10-04
US60/616,049 2004-10-04
US10/984,488 US7554549B2 (en) 2004-10-01 2004-11-08 System and method for tracking facial muscle and eye motion for computer graphics animation
US10/984,488 2004-11-08

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007534804A Division JP5047798B2 (ja) 2004-10-01 2005-09-29 コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2011108281A JP2011108281A (ja) 2011-06-02
JP5662203B2 true JP5662203B2 (ja) 2015-01-28

Family

ID=36143086

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007534804A Active JP5047798B2 (ja) 2004-10-01 2005-09-29 コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法
JP2011043650A Active JP5662203B2 (ja) 2004-10-01 2011-03-01 コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2007534804A Active JP5047798B2 (ja) 2004-10-01 2005-09-29 コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法

Country Status (8)

Country Link
US (1) US7554549B2 (ja)
EP (1) EP1797537B1 (ja)
JP (2) JP5047798B2 (ja)
KR (1) KR100917486B1 (ja)
AU (1) AU2005291927B2 (ja)
CA (1) CA2582451C (ja)
NZ (1) NZ554589A (ja)
WO (1) WO2006039497A2 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9826537B2 (en) 2004-04-02 2017-11-21 Rearden, Llc System and method for managing inter-cluster handoff of clients which traverse multiple DIDO clusters
US9819403B2 (en) 2004-04-02 2017-11-14 Rearden, Llc System and method for managing handoff of a client between different distributed-input-distributed-output (DIDO) networks based on detected velocity of the client
US8654815B1 (en) 2004-04-02 2014-02-18 Rearden, Llc System and method for distributed antenna wireless communications
US10277290B2 (en) 2004-04-02 2019-04-30 Rearden, Llc Systems and methods to exploit areas of coherence in wireless systems
US10425134B2 (en) 2004-04-02 2019-09-24 Rearden, Llc System and methods for planned evolution and obsolescence of multiuser spectrum
NZ581496A (en) 2005-03-16 2010-02-26 Lucasfilm Entertainment Compan Three-dimensional motion capture using orientation of virtual structures
US7830384B1 (en) * 2005-04-27 2010-11-09 Image Metrics Limited Animating graphical objects using input video
US8659668B2 (en) * 2005-10-07 2014-02-25 Rearden, Llc Apparatus and method for performing motion capture using a random pattern on capture surfaces
US7978081B2 (en) * 2006-01-09 2011-07-12 Applied Technology Holdings, Inc. Apparatus, systems, and methods for communicating biometric and biomechanical information
WO2007127743A2 (en) * 2006-04-24 2007-11-08 Sony Corporation Performance driven facial animation
US7961947B2 (en) * 2006-07-28 2011-06-14 Sony Corporation FACS cleaning in motion capture
US8130225B2 (en) 2007-01-16 2012-03-06 Lucasfilm Entertainment Company Ltd. Using animation libraries for object identification
US8542236B2 (en) * 2007-01-16 2013-09-24 Lucasfilm Entertainment Company Ltd. Generating animation libraries
US8199152B2 (en) 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
US20080221487A1 (en) * 2007-03-07 2008-09-11 Motek Bv Method for real time interactive visualization of muscle forces and joint torques in the human body
US8452458B2 (en) * 2007-05-03 2013-05-28 Motek Bv Method and system for real time interactive dynamic alignment of prosthetics
US8144153B1 (en) 2007-11-20 2012-03-27 Lucasfilm Entertainment Company Ltd. Model production for animation libraries
US9037530B2 (en) 2008-06-26 2015-05-19 Microsoft Technology Licensing, Llc Wearable electromyography-based human-computer interface
US8170656B2 (en) * 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
US9325972B2 (en) * 2008-09-29 2016-04-26 Two Pic Mc Llc Actor-mounted motion capture camera
US9390516B2 (en) * 2008-09-29 2016-07-12 Two Pic Mc Llc Asynchronous streaming of data for validation
US8289443B2 (en) * 2008-09-29 2012-10-16 Two Pic Mc Llc Mounting and bracket for an actor-mounted motion capture camera system
AU2009330607B2 (en) * 2008-12-04 2015-04-09 Cubic Corporation System and methods for dynamically injecting expression information into an animated facial mesh
US9142024B2 (en) * 2008-12-31 2015-09-22 Lucasfilm Entertainment Company Ltd. Visual and physical motion sensing for three-dimensional motion capture
US9275487B1 (en) * 2009-04-08 2016-03-01 Pixar Animation Studios System and method for performing non-affine deformations
JP5545574B2 (ja) * 2009-07-15 2014-07-09 国立大学法人 筑波大学 分類推定システムおよび分類推定プログラム
WO2011020446A1 (en) * 2009-08-21 2011-02-24 The Chinese University Of Hong Kong Systems and methods for reproducing body motions via networks
WO2011034963A2 (en) * 2009-09-15 2011-03-24 Sony Corporation Combining multi-sensory inputs for digital animation
KR101119618B1 (ko) 2011-01-31 2012-03-13 김응수 혀와 턱 운동을 이용한 의사 전달 시스템 및 운용 방법
KR101819535B1 (ko) 2011-06-30 2018-01-17 삼성전자주식회사 표정 제어점에 기초한 강체 영역의 표현 방법 및 장치
JP2013048717A (ja) * 2011-08-31 2013-03-14 Sony Corp 画像処理装置及び方法、記録媒体、並びにプログラム
US9508176B2 (en) 2011-11-18 2016-11-29 Lucasfilm Entertainment Company Ltd. Path and speed based character control
KR101456695B1 (ko) * 2012-09-21 2014-11-04 연세대학교 산학협력단 교합력 측정 시스템
US11189917B2 (en) 2014-04-16 2021-11-30 Rearden, Llc Systems and methods for distributing radioheads
WO2014113621A1 (en) * 2013-01-18 2014-07-24 Augment Medical, Inc. Gesture-based communication systems and methods for communicating with healthcare personnel
US10488535B2 (en) 2013-03-12 2019-11-26 Rearden, Llc Apparatus and method for capturing still images and video using diffraction coded imaging techniques
US9973246B2 (en) 2013-03-12 2018-05-15 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
US9923657B2 (en) 2013-03-12 2018-03-20 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
RU2767777C2 (ru) 2013-03-15 2022-03-21 Риарден, Ллк Системы и способы радиочастотной калибровки с использованием принципа взаимности каналов в беспроводной связи с распределенным входом - распределенным выходом
US10048748B2 (en) * 2013-11-12 2018-08-14 Excalibur Ip, Llc Audio-visual interaction with user devices
WO2016070653A1 (en) 2014-11-07 2016-05-12 Beijing Zhigu Rui Tuo Tech Co., Ltd. Dominant eye determining method and device
US10234938B2 (en) * 2015-01-31 2019-03-19 Brian Lee Moffat Control of a computer via distortions of facial geometry
WO2016165052A1 (en) * 2015-04-13 2016-10-20 Empire Technology Development Llc Detecting facial expressions
KR101633057B1 (ko) * 2015-04-22 2016-06-23 재단법인 실감교류인체감응솔루션연구단 헤드 마운트 디스플레이 시스템을 위한 얼굴 모션 캡쳐 방법
GB2537644A (en) * 2015-04-22 2016-10-26 Tintro Ltd Electronic equipment for the treatment and care of living beings
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
US10055948B2 (en) 2015-11-30 2018-08-21 Nike, Inc. Apparel with ultrasonic position sensing and haptic feedback for activities
WO2017184274A1 (en) * 2016-04-18 2017-10-26 Alpha Computing, Inc. System and method for determining and modeling user expression within a head mounted display
US10203751B2 (en) 2016-05-11 2019-02-12 Microsoft Technology Licensing, Llc Continuous motion controls operable using neurological data
US9864431B2 (en) 2016-05-11 2018-01-09 Microsoft Technology Licensing, Llc Changing an application state using neurological data
CN107518895B (zh) * 2016-06-22 2020-07-17 宁波工程学院 面向康复训练的同一肌肉检测方法
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
WO2018142228A2 (en) 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
US10812693B2 (en) 2017-10-20 2020-10-20 Lucasfilm Entertainment Company Ltd. Systems and methods for motion capture
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
EP3580639A1 (en) 2018-02-09 2019-12-18 Starkey Laboratories, Inc. Use of periauricular muscle signals to estimate a direction of a user's auditory attention locus
US20200090392A1 (en) * 2018-09-19 2020-03-19 XRSpace CO., LTD. Method of Facial Expression Generation with Data Fusion
KR102243040B1 (ko) * 2019-04-10 2021-04-21 한양대학교 산학협력단 전자 장치, 아바타 얼굴 표정 표시 시스템 및 제어 방법
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
KR102331694B1 (ko) * 2019-11-14 2021-11-29 한국생산기술연구원 안면의 동적 움직임 획득을 위한 마스크 및 이의 작동방법
US11393149B2 (en) * 2020-07-02 2022-07-19 Unity Technologies Sf Generating an animation rig for use in animating a computer-generated character based on facial scans of an actor and a muscle model
CN113855019B (zh) * 2021-08-25 2023-12-29 杭州回车电子科技有限公司 基于eog、emg以及压电信号的表情识别方法和装置

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4320768A (en) * 1979-07-17 1982-03-23 Georgetown University Medical Center Computerized electro-oculographic (CEOG) system
US4690142A (en) * 1980-12-10 1987-09-01 Ross Sidney A Method and system for utilizing electro-neuro stimulation in a bio-feedback system
CA1213329A (en) * 1983-10-14 1986-10-28 Roger Broughton Muscle tone detector for sleep analysis
US4836219A (en) * 1987-07-08 1989-06-06 President & Fellows Of Harvard College Electronic sleep monitor headgear
EP0301790A3 (en) * 1987-07-24 1990-06-06 BioControl Systems, Inc. Biopotential digital controller for music and video applications
JP2648682B2 (ja) * 1992-07-17 1997-09-03 正重 古川 表情要素コードの再生表示及び情緒・表情の加工・発生装置
US5517021A (en) * 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JP3455921B2 (ja) * 1993-12-24 2003-10-14 日本電信電話株式会社 発声代行装置
JPH0934630A (ja) * 1995-07-13 1997-02-07 Suzuki Motor Corp コンピュータ入力装置
US5694939A (en) * 1995-10-03 1997-12-09 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Autogenic-feedback training exercise (AFTE) method and system
US6026321A (en) 1997-04-02 2000-02-15 Suzuki Motor Corporation Apparatus and system for measuring electrical potential variations in human body
US6324296B1 (en) 1997-12-04 2001-11-27 Phasespace, Inc. Distributed-processing motion tracking system for tracking individually modulated light points
US6032072A (en) * 1998-01-30 2000-02-29 Aspect Medical Systems, Inc. Method for enhancing and separating biopotential signals
US6249292B1 (en) * 1998-05-04 2001-06-19 Compaq Computer Corporation Technique for controlling a presentation of a computer generated object having a plurality of movable components
AU6043099A (en) * 1998-09-14 2000-04-03 Rutgers, The State University Of New Jersey Prosthetic, orthotic, and other rehabilitative robotic assistive devices actuated by smart materials
US6774885B1 (en) * 1999-01-20 2004-08-10 Motek B.V. System for dynamic registration, evaluation, and correction of functional human behavior
US6079829A (en) * 1999-11-04 2000-06-27 Bullwinkel; Paul E. Fiber optic eye-tracking system utilizing out-of-band light source
AU2001249517A1 (en) * 2000-03-27 2001-10-08 Massachusetts General Hospital Method and system for viewing kinematic and kinetic information
US6673027B2 (en) * 2000-04-13 2004-01-06 Peter Fischer Posture measurement and feedback instrument for seated occupations
US7925354B2 (en) * 2000-05-26 2011-04-12 Second Sight Medical Products, Inc. Video processing methods for improving visual acuity and/or perceived image resolution
US6720984B1 (en) * 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
US6788333B1 (en) 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
FR2811792B1 (fr) * 2000-07-13 2002-12-06 France Telecom Procede d'animation faciale
AU2002223296A1 (en) * 2000-11-27 2002-06-03 Ding Huang Modeling object interactions and facial expressions
US20020188216A1 (en) * 2001-05-03 2002-12-12 Kayyali Hani Akram Head mounted medical device
US7012637B1 (en) 2001-07-27 2006-03-14 Be Here Corporation Capture structure for alignment of multi-camera capture systems
US20030215130A1 (en) 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
US7012634B2 (en) 2002-03-28 2006-03-14 Eastman Kodak Company System and method for calibrating an image capture device
US6702691B2 (en) 2002-08-12 2004-03-09 Callaway Golf Company Static pose fixture
US20040092801A1 (en) * 2002-11-13 2004-05-13 Budimir Drakulic System for, and method of, acquiring physiological signals of a patient
US7106358B2 (en) 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7068277B2 (en) * 2003-03-13 2006-06-27 Sony Corporation System and method for animating a digital facial model
US20050261559A1 (en) * 2004-05-18 2005-11-24 Mumford John R Wireless physiological monitoring system
US7447541B2 (en) * 2004-06-30 2008-11-04 Instrumentarium Corporation Monitoring subcortical responsiveness of a patient

Also Published As

Publication number Publication date
CA2582451C (en) 2012-03-06
JP2008515113A (ja) 2008-05-08
KR100917486B1 (ko) 2009-09-16
US7554549B2 (en) 2009-06-30
EP1797537A2 (en) 2007-06-20
CA2582451A1 (en) 2006-04-13
EP1797537A4 (en) 2011-10-26
KR20070057997A (ko) 2007-06-07
NZ554589A (en) 2010-09-30
EP1797537B1 (en) 2016-08-24
WO2006039497A2 (en) 2006-04-13
AU2005291927B2 (en) 2009-11-12
JP2011108281A (ja) 2011-06-02
JP5047798B2 (ja) 2012-10-10
AU2005291927A1 (en) 2006-04-13
WO2006039497A3 (en) 2007-04-05
US20060071934A1 (en) 2006-04-06

Similar Documents

Publication Publication Date Title
JP5662203B2 (ja) コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法
AU2006282764B2 (en) Capturing and processing facial motion data
US11786033B2 (en) Methods and systems for extracting brushing motion characteristics of a user using an oral hygiene device including at least one accelerometer to provide feedback to a user
JP5468047B2 (ja) デジタル顔モデルのアニメーション化のためのシステム及び方法
JP6181373B2 (ja) 医用情報処理装置及びプログラム
CN107708483A (zh) 用于使用霍尔效应传感器提取用户的运动特性以向用户提供反馈的方法和系统
Bach et al. Using interactive immersive VR/AR for the therapy of phantom limb pain
US7764283B2 (en) Eye movement data replacement in motion capture
JP5362357B2 (ja) 顔の動きのデータの撮影及び処理
Essig et al. Application of a novel neural approach to 3D gaze tracking: Vergence eye-movements in autostereograms
Mattila Automatic Rating System for Unilateral Facial Palsy
Côrrea et al. Experimental videogrammetry and accelerometry for the 2D analysis of human motion
Hamilton Facial Animation Driven by X-Ray Microbeam Data
Popat et al. Assessment of Facial Movement

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110324

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130408

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130708

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140317

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140617

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141204

R150 Certificate of patent or registration of utility model

Ref document number: 5662203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250