JP2001501346A - バーチャルリアリティにおいて顔の動きを感知するためのシステム - Google Patents

バーチャルリアリティにおいて顔の動きを感知するためのシステム

Info

Publication number
JP2001501346A
JP2001501346A JP10536706A JP53670698A JP2001501346A JP 2001501346 A JP2001501346 A JP 2001501346A JP 10536706 A JP10536706 A JP 10536706A JP 53670698 A JP53670698 A JP 53670698A JP 2001501346 A JP2001501346 A JP 2001501346A
Authority
JP
Japan
Prior art keywords
wearer
data
movement
head
head mount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10536706A
Other languages
English (en)
Inventor
ウォーカー,クリス
Original Assignee
モダン・カートゥーンズ・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モダン・カートゥーンズ・リミテッド filed Critical モダン・カートゥーンズ・リミテッド
Publication of JP2001501346A publication Critical patent/JP2001501346A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Abstract

(57)【要約】 ヘッドマウントと着用者の頭との間の相対的運動を抑制するよう構成されるヘッドマウントを含む、コンピュータにより作られるアニメーションをリアルタイムで操作するためのシステムが提供される。ヘッドマウントにより作り出されるデータをリアルタイムで処理するコンピュータにヘッドマウントは結合される。ヘッドマウントの着用者の顔の動きにより作り出されるデータは、リアルタイムで処理され、したがって、バーチャルリアリティプログラムにおける漫画などの対象は、着用者が行なうものと同じ、着用者の顔の表情に類比する顔の表情を有する。複数のカメラが、運動を表示するデータを作り出すため、着用者の顔の異なった局所的領域における運動を感知するため着用者の顔の異なつた局所的領域をモニタする。カメラは、カメラの精密な位置付けのため可撓性アームによりヘッドマウントに取付けられる。カメラは、着用者の顔の、口、あごおよびほおならびに眉および前頭領域の各々ならびに着用者の目の一方をモニタする。モニタされる領域の各々において着用者の顔に取付けられる反射材料部分が、着用者の変化する顔表情を表示するデータを作り出すカメラの能力を高める。着用者の顔の表情が変化していく間、変化する表情を表わすデータは連続的に処理され、したがって、漫画は着用者を連続的に模倣する顔の表情を有する。

Description

【発明の詳細な説明】 バーチャルリアリティにおいて顔の動きを感知するためのシステム 発明の分野 この発明は一般にバーチャルリアリティシステムに関し、特に、リアルタイム 環境において、着用者の顔の動きを追跡し、かつシステムによって作成されたデ ータをバーチャルリアリティに統合するためのシステムに関する。 発明の背景 バーチャルリアリティ(“VR”)システムは、三次元の仮想世界をなすシミ ュレートされた環境の経験を提供する、コンピュータによって作られたシステム である。これらのVRシステムはたとえば、商業用飛行シミュレータ、エンター テイメントシステム、コンピュータゲームおよびビデオアーケードゲームなどの 多くの種々の用途に用いられている。 多くのバーチャルリアリティシステムでは典型的に、コンピュータによって形 成されたバーチャルリアリティの世界を知覚によって受けることを可能にする、 ヘッド取付デバイスを参加者が着用する。このシステムはまた、ポイントデバイ ス、またはセンサおよびアクチュエータを含む特定的な形態のグローブなどの、 仮想世界における対象と相互作用するための相互作用手段を含む。いくつかの高 度なシステムでは、これもまたセンサおよびアクチュエータを含むフルボディス ーツがさらに提供され、これによりユーザが仮想世界の対象に影響を及ぼしたり 仮想世界の対象を実感することができる。 コンピュータによって作られたアニメーションは有力なメディア形態となりつ つある。コンピュータによって作られたアニメーションは全長モーションピクチ ャ、犯罪の再現、および子供用の漫画などの短長フィルムの作成などの用途にも 同時に用いられている。しかしながら、コンピュータによって作られた公知のア ニメーションの欠点は、表示のためにアニメーションを動かす前に、製図者がコ マ割り漫画のコマに描くように漫画または他のアニメーションを形成するために 、 アニメーションをコンピュータにプログラミングすることである。さらに、フィ ルムまたはテレビのシーンとは対照的に、漫画は、アクター(actor)のパフォ ーマンス、または多くのフィルムまたはビデオ媒体に共通な他の視覚情報によっ て駆動される音声または音ではなく、音声または音情報によって駆動されること が周知である。音によって駆動されるというこの漫画の特徴により、リアルタイ ムの視覚的な相互作用が、視覚情報の音を有する外部源から、または音情報と視 覚情報との間で排除される。 コンピュータによって作られた公知のアニメーションのさらなる欠点は、アニ メートされた(animated)キャラクターにはリアルタイムの精巧な表情がないた め不自然であることである。また、アニメーションが示される間にコンピュータ のアニメーションと相互作用することが不可能である。したがって、「リアルタ イム」でコンピュータのアニメーションと相互作用し、アニメーションが動く際 に参加者がアニメーションと相互作用できるシステムを提供することが有利であ ろう。 リアルタイムでアニメーションと相互作用するための1つの手段は、コンピュ ータがアニメーションを同時に表示して動かす際にコンピュータに適切なデータ を送信するデータ入力手段を提供することであろう。コンピュータによって受取 られたデータは後に、動いているアニメーションに統合され、リアルタイムでア ニメーションを変化させることができる。 ルベルジ他(LeBerge et al.)の米国特許第5,507,716号には、睡眠 中の人間に明晰夢を誘導するために用いられる装置および方法が開示されている 。開示されている装置および方法は、バーチャルリアリティシステムにおいて主 要な多くの特徴を含む。システムはフェースマスクを有するヘッドバンドを含む 。フェースマスクは2つの赤外線発光検出器対を含み、一方の検出器対は目の動 きを感知するためのものであり、他方の検出器対は体の動きを感知するためのも のである。光および音などの低強度の知覚刺激をもたらす状態テストボタンおよ びコンポーネントもまた、開示されているフェースマスクに含まれる。赤外線検 出器対からの電圧の変動をモニタリングして、予め定められたシーケンスの電圧 を発生するために、マイクロプロセッサが与えられる。正しいシーケンスが発生 す ると、マイクロプロセッサはマスクの刺激発生コンポーネントをトリガして活性 状態にし、睡眠中の人間が明晰状態になるよう指示を与える。 シトリック(Sitrick)の米国特許第5,553,864号は、ユーザ入力デ バイスと関連ビデオディスプレイとを有するビデオゲームアダプタインターフェ イス装置に向けられる。ユーザは区別可能な視覚イメージ表現を選択して、ビデ オゲームのオーディオビジュアル表象に関連付ける。各ユーザは自分が選択する イメージによって識別される。ユーザの区別には、色、サイズ、グラフィックス または形状が用いられ得る。1つの実施例では、各ユーザの顔の、デジタル化さ れたイメージが、区別可能な表現として用いられる。これに代えて、ユーザの識 別として、各ユーザが独自なイメージを生成するか、または予め定められた組の 視覚イメージのうちの1つを選択することもできる。好ましくは、アダプタはビ デオゲームシステムと、ユーザイメージを含む記憶カードとに結合される。後に 、システムは、記憶カードからの選択されたユーザイメージをビデオゲームのオ ーディオビジュアル表象に統合し、さらにはユーザイメージをビデオゲームプレ ーに統合し得る。 公知のバーチャルリアリティシステムのさらなる欠点は、その中に共通なへッ ドセットが着用者の頭部まわりで移動しやすいことである。これは、着用者の頭 部がデータを与える場合には不利である。ヘッドセットが着用者の頭部に対して 移動すると、不正確なデータが作成されることとなる。 オグデン(Ogden)の米国特許第5,572,749号には、バーチャルリア リティシステムに用いるためのヘルメット取付デバイスが開示されており、これ は、顎用ストラップを刺激することなく所望の位置においてユーザの頭部にヘル メットがしっかりと取付られることを可能にする。開示されているヘルメットは 保持部付きのライナを含み、これは、テーマパークなどでの用途のために、着用 者の頭部に対して迅速に取外可能である。しかしながら、開示されているヘルメ ットの欠点は、これもまた着用者のヘッドのまわりで実質的に移動しやすいこと である。 ヘッドマウントと着用者の頭部との相対的な移動を抑制するように構成された ヘッドマウントを含む、コンピュータによって作られたアニメーションをリアル タイムで注意深く操作するためのシステムが必要である。 さらに、正確なデータ入力をユーザの頭部からバーチャルリアリティシステム に送ることが可能なシステムが必要である。 発明の目的 したがって、この発明の目的は、コンピュータによって作られたアニメーショ ンをリアルタイムで操作するためのシステムを提供することである。 この発明の別の目的は、ヘッドマウントと着用者のヘッドとの間の相対的な移 動を抑制するように構成されたヘッドマウントを含む、コンピュータによって作 られたアニメーションをリアルタイムで操作するためのシステムを提供すること である。 この発明のさらなる目的は、アニメートされたキャラクターに自然な表情を与 える、コンピュータによって作られたアニメーションをリアルタイムで操作する ためのシステムを提供することである。 この発明のさらなる目的は、ヘッド取付センサ入力システムであって、着用者 の種々の顔領域の動きを追跡するように構成されたヘッドマウントを含み、コン ピュータによって作られたアニメーションを操作するデータを作成するためのも のを提供することである。 この発明のさらなる別の目的は、実質的に軽いヘッドマウントを含む、コンピ ュータによって作られたアニメーションをリアルタイムで操作するためのシステ ムを提供することである。 発明の概要 この発明のこれらおよび他の目的および利点は、コンピュータによって作られ たアニメーションをリアルタイムで操作するためのシステムを提供することによ って達成され、このシステムは、精巧な表情を検出し、これらの表情に関連して コンピュータアニメーションをリアルタイムで操作する多数のセンサを与える。 この発明の好ましい実施例は、ヘッドマウントと着用者の頭部との間の相対的な 移動を抑制するように構成されたヘッドマウントを含む。ヘッドマウントの好ま しい実施例は、連結用データケーブルを介してコンピュータに結合され、ヘッド マウントによって作成されたデータをリアルタイムで処理する。 この発明の好ましい実施例では、ヘッドマウントを着用するアクターなどの人 間の顔の動きによって作成されたデータ(「移動データ」)が、リアルタイムで データを処理するためのコンピュータに送信される。移動データは、コンピュー タで動いているバーチャルリアリティプログラムの漫画の人物といった対象が、 アクターの行動とともに、アクターの表情に類似した表情を持つように、連続し て処理される。 したがって、この発明の好ましい実施例のシステムにおいて、ヘッドマウント を着用するアクターによって制御される、バーチャルリアリティコンピュータに よって作られたキャラクターは、たとえば、漫画があたかも別の人間であるかの ように人間が実際に漫画と相互作用しているように見えるインタビュー状況にお いて、インタビューされる人と話すことができる。さらに、漫画の表情を向上さ せるために周辺手段が提供され得る。 この発明の好ましい実施例のヘッドマウントは、不正確なデータの作成を防止 するために、ヘッドマウントと着用者の頭部との間の相対的な移動を抑制するよ うに特に構成される。ヘッドマウントは剛性額部を有するヘルメット部分を含み 、この剛性額部は、着用者の頭部の正面領域と前頭部とを係合してそれらの間の 移動を抑制するように構成される。着用者の頭部の後頭領域まわりに延び、かつ 好ましくは、さまざまな異なったサイズの頭部を有する着用者がしっかりと着用 できるように調節可能であるヘッドマウントがさらに含まれる。 ヘッドマウントをコンピュータに結合するために、ヘルメット部分に固定され 、かつデータケーブルに結合されたデータ送信フレームが提供される。ヘルメッ ト部分およびフレームは好ましくは軽量の適切な剛性材料を含むため、ヘッドマ ウントは実質的に軽く、およそ1ポンドの重量である。 この発明の好ましい実施例のシステムは、顔全体を感知するために1つのカメ ラしか設けない先行技術とは対照的に、好ましくは赤外線感知性の複数のカメラ を含み、このカメラは、着用者の顔のいくつかの種々の局所的領域をモニタリン グして、これらの領域の各々における動きを感知するためのものである。好まし い実施例において、カメラは、着用者の顔の口および顎領域、ほお領域ならびに 睫および前頭領域の各々をモニタリングするために提供される。第4のカメラに より、着用者の目の一方の瞳孔の動きおよび瞬きがモニタリングされる。 各カメラは、カメラと連結用データケーブルとを結合するための位置付け可能 な可撓性アームに装着される。位置付け可能なアームは、カメラの位置を維持し たままで、モニタリングされる着用者の顔の局所的領域の上方に所望のカメラが 高精度で位置付けられるようにする。好ましくは、各カメラには、そのレンズに 隣接して発光源が備えられる。各カメラの発光源は、着用者の顔の、隣接する領 域を照らし、表情を示す移動データを作成するために領域の動きを感知するカメ ラの能力を高める。 発明の好ましい実施例において、モニタリングされた領域の各々において着用 者の顔に反射性材料を付着する。着用者の表情は彼らの会話または意図的に作ら れた原稿通りの表情によって変化するため、反射性材料は隣接するカメラの光源 から発光した光をカメラのレンズに反射し、その領域での移動を示すデータ(「 移動データ」)を作成する。着用者の目をモニタリングするカメラにより、瞳孔 の動きおよび瞬きを示す移動データが作成される。各カメラからのデータはリア ルタイムでコンピュータに同時に送信され、対象の表情および目の動きをリアル タイムで連続して変化させる。 この発明の好ましい実施例では、アニメートされたイメージを支持するために 必要な情報を含むデータベースがまず設計される。その後、好ましいヘッドマウ ントによって作成された移動データがアニメーションデータベースと相互作用し 、それを操作し、変更された表情のイメージをもたらす。 したがって、着用者の表情が変化する際に、変化する表情を表わす移動データ がコンピュータに送信されて処理され、アクターの表情および目の動きを模倣す る、連続して変化する表情および目の動きを漫画の人物が持つことが可能になる 。ヘッドマウントと着用者の頭部とは相対的に移動しない。アクターは、カメラ によって不正確なデータが作成されることなく、自由に動き回ったりダンスする ことさえできる。ヘッドマウントの構成は着用者には負担をかけず、ヘッドマウ ントは軽量であるため、着用者の首部および肩部を疲れさせることなく着用者が ヘ ッドマウントをしばらくの間着用できるようにする。 さらに、ヘッドマウントはマイクロフォンを備えてもよい。マイクロパリティ ーパフォーマンス(micropality performance)では、アクターに別個に音声パ フォーマンスを記録させたり、または別のアクターに、バーチャルリアリティの 相互作用の音声部分を行なわせたりする必要はない。 好ましい実施例において、調節可能なミニビデオカメラは、顔に付着した3m 反射材料を照らす、狭い帯域幅の赤外線光源を受けるようにフィルタリングされ る。画像処理によってxおよびy方向にリアルタイムで反射点が追跡され、デー タコレクタPCに報告される。1つの顔面追跡器には4つのカメラがある。4つ 中1つは目の追跡専用であり、他の3つは眉毛および口領域に集中する。ヘッド セットは極度に軽量であり、ボディスーツを着たパフォーマーによって同時に着 用され得る。システムはx,yモーションデータをリアルタイムで変換して1組 の、三次元の幾何学的な顔の彫刻(データベース)の形態にし、これらが組合せ られ、無数の変形を有するキャラクターの、リアルタイムでコンピュータによっ て作られた1つの頭部になり、同期録音(lip sync)および表情をもたらすよう にする。 図面の簡単な説明 本発明の上述のおよび他の特徴、構造、利点および目的は、以下の詳細な説明 および添付の図面から十分に理解されるであろう。添付した図面の各々は、本発 明の実施例の正確な描写ととらえられてはならず、説明の目的のみで提供された ものであって、添付の明細書と関連して解釈されるものである。 図1は、本発明の、コンピュータによって作られるアニメーションをリアルタ イムで操作するためのシステムにおける、ヘッドマウントの好ましい実施例の正 面立面図である。 図2は、本発明のヘッドマウントの好ましい実施例を、ユーザによって着用さ れた状態で示す、側面立位断面図である。 図3は、本発明のヘッドマウントの側面立面図である。 図4は、着用者の顔面の、モニタリングされる複数の局所的領域であって、そ れら各領域内の動きを感知して着用者の顔の表情の変化を判定するための局所的 領域を示す、正面立面図である。 図5は、本発明のシステムの好ましい実施例に従った、局所的顔面領域におけ る動きをモニタリングするための、顔面運動検出手段を示す正面斜視図である。 好ましい実施例の詳細な説明 以下の説明は、当業者が本発明を使用できるように提供されたものであり、発 明者によって現在考えられる、本発明を実施するための最良のモードを記載する 。しかし、本発明の一般原理を以下に述べたので、当業者には種々の変更例が容 易に明らかであろう。 図1から図3を参照して、コンピュータによって作られたアニメーションをリ アルタイムで操作するためのシステムの好ましい実施例を、包括的に10で示す 。これは、本発明の原理に従って構築されたヘッドマウント12を含む。本発明 のヘッドマウント12は、好ましくは、ヘッドマウント12と着用者16の頭1 4との間の相対運動を禁止するように構成される。本発明のシステム10は、連 結用データケーブル20を介してコンピュータ18に結合されたヘッドマウント 12を含む。データケーブル20は、ヘッドマウント12によって生成されたデ ータをリアルタイムで処理する。 本発明のシステム10において、たとえば着用者がアクターであった場合に、 着用者16の顔の動きによって生成された移動データは、コンピュータ18に伝 送されて、そのデータがリアルタイムで処理される。この移動データは連続的に 処理されて、コンピュータ18上で動くバーチャルリアリティプログラム内の漫 画の人物等の対象が、アクター16が動くにつれてアクター16の顔の表情に対 応しかつそれに相似する顔の表情を持つようにする。本発明のシステム10にお けるヘッドマウント12を着用したアクター16によって制御されるバーチャル リアリティの漫画の人物は、たとえばインタビューの状況において、インタビュ ーされる人間と会話することが可能である。この際、その人間は、漫画の人物が あたかも別の人間であるかのように、その漫画の人物と実際に対話しているかの ように見える。さらに、漫画の人物の顔の表情を強化するために、周辺手段(図 示せず)が設けられてもよい。 図面の図1から図3を参照して、本発明の好ましい実施例においては、ヘッド マウント12は、誤ったデータが生成されることのないように、ヘッドマウント 12と着用者16の頭14との相対運動を禁止するよう構成される。ヘッドマウ ント12は、着用者の頭14の前面領域および前頭部26(図2から最もよくわ かる)をとらえてそれらの間の動きを禁止するよう構成された剛性額部24を有 する、ヘルメット部22を含む。 剛性額部24は、底面Bと、底面Bとほぼ垂直に延びる横断面Tとで曲線が付 けられており、それにより、額部24は着用者16の前面領域および前頭部26 と噛合う複合曲線を形成する。額部24は好ましくは、好適な公知の、強度が高 く硬質かつ軽量の高分子材料から成形され、当該技術分野において公知の方法を 使用して製造される。 ヘルメット22はさらに、額部24に取付けられた、調節可能なヘッドバンド 28を含む。ヘッドバンド28は、着用者の頭14の後頭部領域30のまわりに 延びるよう構成され、好ましくは、ヘッドマウント12が種々の異なるヘッドサ イズの着用者によって安全に着用されるようヘルメット22の周囲を調節できる ように、調節が可能である。ヘッドバンド28は、額部24に取付けられて調節 用ストラップ34と連動するよう固定された、可撓性バンド32を含む。連動さ れるストラップ34にはノブ36が結合され、時計回りまたは時計と反対回りに 回転されて、ヘルメット22の周囲を変化させるようヘッドバンド28の長さが 調節される。 好ましい実施例においては、好適な発泡樹脂の詰め物が額部24の内側40に 取付けられ、バンド32の内側42にも取付けられてもよい。この詰め物38は 、額部24と着用者の前頭部26との間の摩擦係数を増すために設けられるもの で、額部24が前頭部26のまわりで滑らないようにするものである。詰め物3 8はまた、汗を吸収して、着用者16が快適にそれを使用できるようにする。 データ伝送フレーム44が、ヘッドマウント12をコンピュータ18に連結す る。好ましい実施例においては、データフレーム44は、ヘルメット22のまわ りに延びて額部24に固定された、中空の、曲線状の管を含む。フレーム44は 、 額部24の近辺で終結する、端部46を有する。 データフレーム44は好ましくは、たとえばアルミニウム等の、軽量かつ剛性 の金属合金を含む。以後に詳しく説明する、ヘッドマウント12を構成する要素 の各々とともに、フレーム44およびヘルメット22は実質的に軽量の材料を含 み、それにより、ヘッドマウント12は約0.5ポンドから1.5ポンドの好ま しい重量範囲を有するようになる。ヘッドマウント12が軽量であるため、着用 者16は首や肩を痛めることなく、かなりの時間にわたってヘッドマウントを着 用することが可能となる。その構成自体も、着用者の負担となることはない。 ここで図面を参照して、本発明の好ましい実施例10はさらに、複数の顔面運 動モニタ手段50を含む。このモニタ手段50は、着用者の顔面52の複数の局 所的領域における動きを継続して記録して、着用者16の顔の表情の変化を表わ す、顔面表情移動データを連続的に生成する。好ましい実施例においては、モニ タ手段50は、ほお領域54、口およびあご領域56、ならびに、眉および前頭 部領域58をモニタリングするよう提供される。第4のモニタ手段50Aは、目 の領域60をモニタリングして、着用者の目62の一方の瞳孔の動きおよびまば たきをモニタリングする。 好ましくは、モニタ手段50は、着用者の顔面52の局所的領域54、56、 58をモニタリングするための、たとえば、日本、スワにある、チノン株式会社 によって製造されたもの等の、赤外線感知カメラを含む。これらのカメラは、各 領域における動きを感知して、顔の表情を示すデータを生成する。目をモニタリ ングするカメラ50Aは、目の領域60を継続的にモニタリングして、目の動き およびまばたきを示すデータを生成する。さらに、カメラ50は、望ましくない 環境光を遮るための、公知のローパスフィルタ手段(図示せず)を有するよう構 成される。 カメラ50の各々には、好ましくは、複数の発光源64が設けられる。発光源 64は、レンズ66に隣接して、全体の視野を遮ることなくレンズの中央のでき るだけ近辺に取付けられる。本発明のシステム10の好ましい実施例においては 、発光源64は、モニタリングされるべき隣接する顔面領域54、56、58、 60を照射するために焦点が合った光源を提供するよう、各カメラ50のレンズ 6 6の近辺に位置付けられた、発光ダイオード64を含む。光源64は、着用者の 顔面52の隣接した領域を照射して、カメラがより正確にモニタリングされる顔 面領域54、56、58、60における動きを検出して、顔の表情および目の動 きを表わすデータを生成できるようにする。 本発明の現時点における好ましい実施例においては、目をモニタリングするカ メラ50Aには4個ないし8個の複数のLED64が設けられて、目62に光を 充満させる。多数のLED64が目をモニタリングするカメラ50Aに設けられ るのは、瞳孔の動きおよびまばたきがレンズ66内に反射される光なしにモニタ リングされるためである。 ここで再び図1から図3を参照して、カメラ50の各々は、カメラ50を連結 用データケーブル20を介してコンピュータ18に結合するための、位置付け可 能な可撓性アーム68に装着される。位置付け可能なアーム68は、所望のカメ ラ50をモニタリングされるべき局所的領域54、56、58、60上に精密に 位置付けることが可能である。アーム68は、フレーム44の端部46に取付け られたコネクタ72に装着される端部70を有する。アーム68Aは、額部24 に取付けられて眉および前頭部領域58をモニタリングするためのカメラ50を 支える。 位置付け可能なアーム68は、中空であって、カメラ50の出力からカメラ5 0を支えるアーム68を介して、中空のデータフレーム44を介して、データケ ーブル20内に、およびコンピュータ18へと続く、閉じたデータ線経路を提供 する。これにより、無関係なデータ線が着用者16の視線または着用者によって なされる動きを妨害することはなくなる。 位置付け可能なアーム68は、好ましくは、カメラ50の各々をモニタリング されるべき所望の領域の上に位置付けかつ所望の位置を維持するように、一連の 関節付玉継手型連継手を含む。アーム68は、Delrin(商標)等の、好適な硬質 高分子材料から製造される。アーム68を含む一連の中空の関節付玉継手型連継 手は、モジュラ調節可能冷却剤ホースにしばしば使用される。これは、Lake Osw ego,Oregonの、Lockwood Products Inc.によって製造されて、商標“Loc-Line ”の下、販売されているもの、および、MinnesotaのCedar Berg Corporationによって製造されて、商標“Snap-Loc”の下、販売されているもの がある。 ここで図4を参照して、複数の表皮位置表示手段74が、着用者16の顔面5 2の表皮76に、局所的顔面領域54、56、58の各々内に接着される。この 表示手段74の水平方向および垂直方向の動きが、顔の表情の変化を表示するた めの隣接するカメラ50に、表皮76の動きを伝える。 着用者16がたとえばうなったりあざ笑ったりと、原稿通りの顔の表情を意図 的に作ったり話したりする際に、その顔の表情を作る筋肉の収縮によって表皮7 6が動き、応じて、モニタリングされる領域54、56、58の1または複数に おける表示手段74が動く。表示手段74が動くと、光源64によって発せられ る光が隣接するカメラ50のレンズ66内に反射して、表示手段74の水平およ び垂直位置の変化を示して、その変化する顔の表示を表わす移動データを継続的 に生成する。 好ましい実施例においては、表皮位置表示手段74の各々は、たとえばMinnes otaの、Minnesota Mining and Manufacturing社によって製造される公知の反射 テープ等の、反射材料の部分を含む。反射テープ74の1または複数の部分が、 モニタリングされるべき領域の寸法、着用者16が作るものと期待されるかまた は望まれる顔の表情、および、たとえば唇77等のモニタリングされるべき領域 の所望の位置、等のファクタに応じて、モニタリングされる領域54、56、5 8の各々において着用者の顔面52に接着されてもよい。 したがって、顔の表情の移動データは、着用者16の顔の表情および目の動き をモニタリングする各カメラ50によって継続的に生成されて、データケーブル 20を介してコンピュータ18へと連続的に伝送される。移動データはその後、 リアルタイムでコンピュータによって処理されて、着用者16の動きに対応する 表情および目の動きを表わすデータベース(図示せず)が連続的に増大する。こ れにより、コンピュータ18上で動くバーチャルリアリティプログラム内の対象 が、着用者の顔の表情が動くにつれて、それに相似する顔の表情を有するように なる。 再び図1および図2を参照して、ヘッドマウント12には適宜、一体型マイク ロホン78が設けられてもよい。マイクロホン78は、ヘッドマウント12を着 用するアクター16が、完全なるバーチャルリアリティの演技を行なうことを可 能にし、アクター16が音声の演技を別個に録音したり、別のアクターがバーチ ャルリアリティの対話の音声部分を演じる必要がなくなる。マイクロホン78は 、カメラ50のうち所望の1つに固定されるが、好ましくは、ほお領域54また は口およびあご領域56のいずれかをモニタリングするカメラ50に取付けられ て、これらのカメラのうち何れかが、アクターの口の近傍に位置付けられる。 以上により、着用者の顔の表情が変化するのに応じて、その変化する表情をあ らわすデータによって、漫画の人物がアクターを真似て顔の表情および目の動き を連続的に変化することができるようになる。ヘッドマウントと着用者の頭との 間に相対運動がないために、アクターは自由に動くことができ踊ることも可能で る。このとき、カメラが不正確なデータを生成することはない。 以上に、コンピュータによって生成されたアニメーションをリアルタイムで操 作するためのシステムについて説明した。これは、ヘッドマウントと着用者の頭 との間の相対運動を禁止するよう構成された、ヘッドマウントを含む。本発明の システムの好ましい実施例においては、着用者の顔の動きによって生成された移 動データは、コンピュータへとリアルタイムで伝送されて処理される。これによ り、コンピュータ上で動くバーチャルリアリティプログラム内の漫画の人物等の 対象が、着用者の顔の表情が変化した時点でそれに相似した顔の表情を有するよ うにすることができる。 当業者には、本発明の範囲および精神から離れることなく、上に記載した好ま しい実施例の種々の適用例および修正例が思い付かれるであろう。したがって、 本発明は、添付の請求の範囲内で、ここに例示した以外の方法でも実施が可能で あると理解されたい。
───────────────────────────────────────────────────── 【要約の続き】 表示するデータを作り出すカメラの能力を高める。着用 者の顔の表情が変化していく間、変化する表情を表わす データは連続的に処理され、したがって、漫画は着用者 を連続的に模倣する顔の表情を有する。

Claims (1)

  1. 【特許請求の範囲】 1.バーチャルリアリティコンピュータシステムにおいて使用するためのヘッド マウントであって、前記ヘッドマウントは、 着用者の頭の上にヘッドマウントを着用するためのヘルメットを含み、ヘルメ ットは頭とヘッドマウントとの間の相対的な運動を抑制するため頭に係合するよ う構成され、前記ヘッドマウントはさらに、 複数の顔の領域の各々での運動を表示する移動データを作り出ずため複数の顔 の領域内の顔の動きを検出するための手段と、 移動データをコンピュータシステムに連続的に伝送するための手段とを含む、 ヘッドマウント。 2.ヘルメットは、着用者の頭とヘッドマウントとの間の運動を抑制するため、 ヘルメットの周囲を調節するための手段を含む、請求項1に記載のバーチャルリ アリティコンピュータシステム。 3.顔面運動検出手段は、複数の光感知式イメージ受信手段を含み、前記イメー ジ受信手段は、受信される光の量の変化をモニタしかつ対応する着用者の表皮の 位置変化を表示する、請求項1に記載のバーチャルリアリティコンピュータシス テム。 4.着用者の目の動きおよびまばたきを連続的に検出し、かつ、目の動きおよび まばたきを表示する移動データを連続的に作り出すための少なくとも1つの眼球 運動検出手段をさらに含む、請求項1に記載のバーチャルリアリティコンピュー タシステム。 5.顔の領域の1つに各検出手段を位置付けるための複数の位置付け手段をさら に含む、請求項1に記載のバーチャルリアリティコンピュータシステム。 6.伝送のための手段はさらに、ヘッドマウントをコンピュータシステムに結合 するためのデータケーブルを含む、請求項1に記載のバーチャルリアリティコン ピュータシステム。 7.バーチャルリアリティコンピュータシステムにおいて使用するためのヘッド マウントであって、前記システムは、ヘッドマウントにより作られるデータを連 続的に処理するためのコンピューティング手段を含み、前記ヘッドマウントは、 着用者の頭とヘッドマウントとの間の相対的運動を抑制するよう構成されるヘ ルメットを含み、前記ヘルメットは、頭とヘッドマウントとの間の運動を防止す るよう頭の正面領域および前頭に係合するよう構成される額部およびヘルメット の周囲を調節するための手段を含み、前記ヘッドマウントはさらに、 複数の顔の領域内の運動をモニタするための複数の顔面運動検出手段を含み、 各検出手段は連続的に感知し移動データを作り出し、前記ヘッドマウントはさら に、 各検出手段を位置付けるための手段と、 移動データをコンピューティング手段に伝送するための手段とを含み、移動デ ータは、連続的に処理され、したがって、コンピューティング手段におけるコン ピュータで作られた対象は、着用者の自然な顔の表情に類似したコンピュータで 作られた顔の表情を有する、ヘッドマウント。 8.検出手段はさらに、目の動きおよびまばたきを連続的に検出しかつ目の動き およびまばたきを表示する移動データを連続的に作り出すための眼球運動検出手 段を含む、請求項7に記載のバーチャルリアリティコンピュータシステム。 9.顔の領域を照らすための光源手段をさらに含み、光源手段は、顔の領域内の 運動を感知する検出手段の能力を高める、請求項8に記載のバーチャルリアリテ ィコンピュータシステム。 10.額部は、実質的に剛性でありかつ頭の前頭との間の運動を抑制するよう頭 の前頭と噛合うための複合曲線を形成するよう構成され、 周囲調節手段はさらに、額部に添えられかつヘルメットの周囲を調節するため 着用者の頭のまわりに延びるよう構成される調節可能ヘッドバンドを含み、した がって、ヘッドマウントは異なった頭の大きさに対処でき同時に各着用者の頭の 上に確実に保持される、請求項8に記載のバーチャルリアリティコンピュータシ ステム。 11.検出手段は、少なくとも、口、ほおおよび前頭領域ならびに少なくとも1 つの目をモニタするため設けられる、請求項9に記載のバーチャルリアリティコ ンピュータシステム。 12.位置付け手段は、ヘルメットに結合される複数の位置付け可能アームを含 み、前記位置付け可能アームは、各顔面運動検出手段を所望の顔の領域に位置付 けるため設けられかつ検出手段の位置を維持するためのものである、請求項11 に記載のバーチャルリアリティコンピュータシステム。 13.顔面運動検出手段とコンピューティング手段との間にデータ経路を設ける ため顔面運動検出手段をコンピューティング手段に結合するためのデータケーブ ルをさらに含み、前記検出手段はデータケーブルを通じてコンピューティング手 段に移動データを連続的に伝送する、請求項12に記載のバーチャルリアリティ コンピュータシステム。 14.バーチャルリアリティコンピュータシステムにおいて使用するためのヘッ ドマウントであって、前記システムは、ヘッドマウントにより作られるデータを 連続的に処理するためのコンピューティング手段を含み、前記ヘッドマウントは 、 着用者の頭とヘッドマウントとの間の相対的運動を抑制するよう構成されるヘ ルメットを含み、前記ヘルメット部は、額部が着用者の頭との間の運動を抑制す るよう、着用者の頭に係合するため、着用者の頭の正面領域および前頭と噛合う よう構成される複合曲線を形成するよう、底面と底面に対し実質的に垂直に延び る横断面において湾曲する剛性の額部を含み、前記ヘルメットはさらに、額部に 取付けられかつ着用者の頭の後頭領域に延びるよう構成される調節可能ヘッドバ ンドを含み、前記ヘッドバンドはヘルメットの周囲を調節するため調節可能であ り、したがって、ヘッドマウントは異なった頭の大きさに対処するよう寸法付け られ得同時にヘッドマウントが各着用者の頭の上に確実に保持され、前記ヘッド マウントはさらに、 複数の局所的な顔の領域内で着用者の顔に取付けられる複数の表皮位置表示手 段を含み、前記表示手段の運動は変化する顔の表情を表示し、前記ヘッドマウン トはさらに、 複数の顔の領域内での顔の動きをモニタするための複数の顔面運動モニタ手段 を含み、各モニタ手段は、着用者の変化する顔の表情を表わす顔表情移動データ を連続的に作り出すため隣接する位置表示手段の運動を連続的にトラッキングし 、前記ヘッドマウントはさらに、 着用者の目の動きおよびまばたきを表示する移動データを連続的に作り出すた め、着用者の一方の目の動きおよびまばたきを連続的にモニタするための眼球運 動モニタ手段と、 着用者の顔のモニタされる領域を照らしかつ着用者のモニタされる目を照らす ための光源手段とを含み、前記光源手段は代表的顔表情および眼球運動データを 作り出すため、モニタされる顔の領域および目における運動を検出する、モニタ 手段の能力を高め、前記ヘッドマウントはさらに、 モニタ手段を所望の位置に維持するため、モニタされるべき所望の顔の領域お よび目の上に各モニタ手段を精密に位置付けるための複数の位置付け可能可撓性 アームと、 各モニタ手段により作られた移動データをコンピューティング手段に伝送する ための手段とを含み、モニタ手段により作られた顔表情および眼球運動データは 、データを連続的に処理するため着用者の変化する顔の表情および目の運動をト ラッキングするためコンピューティング手段に連続的に伝送され、したがって、 コンピューティング手段において動かされるバーチャルリアリティプログラム内 の対象は、着用者の顔の上で生じる着用者の顔の表情および目の動きに類似する 顔の表情および目の動きを有する、ヘッドマウント。 15.さらに、 各モニタ手段はレンズに反射される光を感知するためのカメラを含み、各カメ ラは隣接する表皮位置表示手段によりそのレンズに反射される光の量を、連続的 に顔の表示データを作り出すため表示手段の位置変化を決定するためにモニタし 、眼球モニタカメラは目の瞳孔によってそのレンズへ反射される光の欠如により 、目の動きおよびまばたきを表示するデータを作り出し、さらに、 各表皮位置表示手段は、着用者の顔に取付けられる反射材料部分を含み、反射 材料部分は、着用者の変化する顔の表情および目の動きを表わすデータを連続的 に作り出すため、複数のモニタされる顔の領域の各々における顔の運動により顔 の表情データが作り出され、かつ、眼球モニタカメラにより眼球運動データが作 り出されるよう、口、あご、ほお、眉および前頭領域からなるグループから選択 される複数の局所的な顔の領域において着用者に取付けられ、したがって、対象 は、生じる着用者の顔の表情に類似する顔の表情を有する、請求項14に記載の バーチャルリアリティコンピュータシステム。 16.過剰な環境光をフィルタで取除くためのローパスフィルタ手段を有する赤 外線感知カメラを含むカメラと、 各カメラのレンズに隣接して取付けられかつそのまわりに位置付けられる複数 の発光ダイオードを含む光源手段とをさらに含み、前記発光ダイオードはモニタ される隣接する顔の領域を照らすための焦点の合った光源を提供する、請求項1 5に記載のバーチャルリアリティコンピュータシステム。 17.複数の発光ダイオードは、眼球を光で充満させるため、眼球モニタカメラ のレンズに隣接して取付けられかつそのまわりに位置付けられ、発光ダイオード の数は約4個から約8個までの範囲内である、請求項16に記載のバーチャルリ アリティコンピュータシステム。 18.ヘッドマウントはさらに、ヘルメット部に固定されるデータ伝送フレーム を含み、前記データフレームは額部に隣接して終端する端部を有するヘルメット 部のまわりに延びる中空の管を含み、フレームの端部はデータケーブルを通じて カメラをコンピューティング手段に結合するため再位置付け可能アームの端部に 結合するよう構成され、再位置付け可能アームは、各カメラの出力からカメラを 支持する中空のアームを通り、中空のデータフレームを通りデータケーブルへそ してコンピューティング手段へいく、閉じたデータ線経路を提供するため中空で あり、したがって、外部データ線が着用者の視線または着用者の運動に干渉しな い、請求項14に記載のバーチャルリアリティコンピュータシステム。 19.再位置付け可能可撓性アームは各々、モニタされるべき所望の領域上に各 カメラを位置付けかつ所望の位置を維持するための一連の関節付玉継手型連継手 を含む再位置付け可能中空管を含む、請求項18に記載のバーチャルリアリティ コンピュータシステム。 20.額部は、硬質高分子材料を含み、データフレームは軽量アルミニウム合金 を含み、したがってヘッドマウントの重量は約0.5ポンドから1.5ポンドの 範囲内である、請求項19に記載のバーチャルリアリティコンピュータシステム 。 21.データをバーチャルリアリティコンピュータシステムに提供するための方 法であって、 バーチャルイメージを表わずコンピュータデータベースを作成するステップと 、 複数の移動データの組を獲得するステップとを含み、各移動データの組はユー ザの顔の上の複数の顔の領域の1つの運動を表わし、前記方法はさらに、 少なくとも2つの移動データの組をデータベースと相互作用させるステップと 、 移動データの組とデータベースとの相互作用からアニメートされたイメージを 作成するステップとを含む、データをバーチャルリアリティコンピュータシステ ムに提供するための方法。 22.データをバーチャルリアリティコンピュータシステムに提供するための装 置であって、 バーチャルイメージを表わすコンピュータデータベースと、 複数の移動データの組とを含み、各移動データの組はユーザの顔の上の複数の 顔の領域の1つの運動を表わし、前記装置はさらに、 少なくとも2つの移動データの組をデータベースに提供するための伝送手段と 、 移動データの組とデータベースとの相互作用から、アニメートされたイメージ を作成するためのコンピューティング手段とを含む、データをバーチャルリアリ ティコンピュータシステムに提供するための装置。
JP10536706A 1997-02-06 1998-02-06 バーチャルリアリティにおいて顔の動きを感知するためのシステム Pending JP2001501346A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/795,544 1997-02-06
US08/795,544 US6121953A (en) 1997-02-06 1997-02-06 Virtual reality system for sensing facial movements
PCT/US1998/002552 WO1998036631A2 (en) 1997-02-06 1998-02-06 System for sensing facial movements in virtual reality

Publications (1)

Publication Number Publication Date
JP2001501346A true JP2001501346A (ja) 2001-01-30

Family

ID=25165792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10536706A Pending JP2001501346A (ja) 1997-02-06 1998-02-06 バーチャルリアリティにおいて顔の動きを感知するためのシステム

Country Status (4)

Country Link
US (1) US6121953A (ja)
EP (1) EP0938698A4 (ja)
JP (1) JP2001501346A (ja)
WO (1) WO1998036631A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101612199B1 (ko) 2012-04-06 2016-04-12 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 가상 이미지 상에 자동적으로 표정을 재생하는 방법 및 장치
KR101633057B1 (ko) * 2015-04-22 2016-06-23 재단법인 실감교류인체감응솔루션연구단 헤드 마운트 디스플레이 시스템을 위한 얼굴 모션 캡쳐 방법
JP2017534096A (ja) * 2014-08-04 2017-11-16 フェイスブック,インク. 仮想現実環境において遮られた顔部分を再構築する方法およびシステム

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3566889B2 (ja) * 1998-10-08 2004-09-15 株式会社ソニー・コンピュータエンタテインメント 情報追加方法、ビデオゲーム機及び記録媒体
US6288704B1 (en) 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
US7076088B2 (en) * 1999-09-03 2006-07-11 Honeywell International Inc. Near-infrared disguise detection
JP2001145779A (ja) * 1999-11-22 2001-05-29 Namco Ltd サイン認識システム、ゲームシステム、ゲーム用のプログラムが記録されたコンピュータ読み取り可能な記録媒体
US7137711B1 (en) 2000-03-21 2006-11-21 Leonard Reiffel Multi-user retro reflector data input
ATE403908T1 (de) 2000-05-03 2008-08-15 Leonard Reiffel Doppelmodus-datenabbildungsprodukt
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US7161581B2 (en) * 2000-08-18 2007-01-09 Leonard Reiffel Annotating imaged data product
US7071914B1 (en) 2000-09-01 2006-07-04 Sony Computer Entertainment Inc. User input device and method for interaction with graphic images
WO2002049344A1 (en) * 2000-12-15 2002-06-20 Leonard Reiffel Imaged coded data source tracking product
WO2002049340A1 (en) * 2000-12-15 2002-06-20 Leonard Reiffel Multi-imager multi-source multi-use coded data source data input product
AU2002235191A1 (en) * 2000-12-15 2002-06-24 Leonard Reiffel Imaged coded data source transducer product
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
EP1390909A4 (en) * 2001-04-19 2004-12-29 Leonard Reiffel DATA ACQUISITION FROM AN ENCODED DATA SOURCE, BY COMBINED IMAGING
JP2003108984A (ja) * 2001-07-27 2003-04-11 Toshiba Corp 顔画像認識装置、通行制御装置、顔画像認識方法、及び通行制御方法
US20040135766A1 (en) * 2001-08-15 2004-07-15 Leonard Reiffel Imaged toggled data input product
US7027619B2 (en) * 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
FR2838904A1 (fr) * 2002-04-22 2003-10-24 Delphine Software Internat Dispositif d'acquisition d'images destine a etre porte par un utilisateur
US20040145588A1 (en) * 2003-01-27 2004-07-29 Scimed Life Systems, Inc. System and method for reviewing an image in a video sequence using a localized animation window
ITMI20030121A1 (it) * 2003-01-27 2004-07-28 Giuseppe Donato Sistema modulare di sorveglianza per il monitoraggio di ambienti critici.
US7573480B2 (en) * 2003-05-01 2009-08-11 Sony Corporation System and method for capturing facial and body motion
US7218320B2 (en) * 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
US7358972B2 (en) * 2003-05-01 2008-04-15 Sony Corporation System and method for capturing facial and body motion
US20060291797A1 (en) * 2003-05-27 2006-12-28 Leonard Reiffel Multi-imager multi-source multi-use coded data source data input product
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US7613494B2 (en) * 2003-11-26 2009-11-03 University Of Utah Research Foundation Apparatus and methods for imaging using an anatomical positioning system
US20050135659A1 (en) * 2003-12-19 2005-06-23 Smith John D. Optical motion sensor
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US20060187193A1 (en) * 2005-02-22 2006-08-24 Esquilin Eileen C System and method for generating a virtual reality presentation
US7508393B2 (en) * 2005-06-07 2009-03-24 Gordon Patricia L Three dimensional animated figures
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7209577B2 (en) * 2005-07-14 2007-04-24 Logitech Europe S.A. Facial feature-localized and global real-time video morphing
US20070060830A1 (en) * 2005-09-12 2007-03-15 Le Tan Thi T Method and system for detecting and classifying facial muscle movements
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
JP4823970B2 (ja) * 2007-05-24 2011-11-24 オリンパスイメージング株式会社 画像編集装置
KR100896065B1 (ko) * 2007-12-17 2009-05-07 한국전자통신연구원 3차원 얼굴 표정 애니메이션 생성 방법
US8160311B1 (en) * 2008-09-26 2012-04-17 Philip Raymond Schaefer System and method for detecting facial gestures for control of an electronic device
US9325972B2 (en) * 2008-09-29 2016-04-26 Two Pic Mc Llc Actor-mounted motion capture camera
US9390516B2 (en) * 2008-09-29 2016-07-12 Two Pic Mc Llc Asynchronous streaming of data for validation
US8289443B2 (en) * 2008-09-29 2012-10-16 Two Pic Mc Llc Mounting and bracket for an actor-mounted motion capture camera system
US9372533B1 (en) * 2009-04-21 2016-06-21 Mark Agrama Facial movement measurement and stimulation apparatus and method
US8493286B1 (en) 2009-04-21 2013-07-23 Mark T. Agrama Facial movement measurement and stimulation apparatus and method
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US10474875B2 (en) * 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US8970692B2 (en) * 2011-09-01 2015-03-03 Industrial Technology Research Institute Head mount personal computer and interactive system using the same
US20130162536A1 (en) * 2011-12-05 2013-06-27 Vaibhav Narayan Khedkar Systems and methods for enabling or accessing or viewing components, involving an input assembly and a screen
US8801488B2 (en) 2012-10-15 2014-08-12 Disney Enterprises, Inc. Chin strap sensor for triggering control of walk-around characters
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9417653B2 (en) 2013-05-29 2016-08-16 Lawrence A. Quintal Face-operated joystick control system
US20160186965A1 (en) * 2013-08-06 2016-06-30 Jim Burns Face illumination means
US20170072316A1 (en) * 2014-11-16 2017-03-16 Astral Vision Ltd. System and method for providing an alternate reality ride experience
CN111982023B (zh) * 2014-12-15 2022-06-14 索尼公司 图像捕捉装置组件、三维形状测量装置和运动检测装置
WO2016183020A1 (en) * 2015-05-11 2016-11-17 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
US10080861B2 (en) 2015-06-14 2018-09-25 Facense Ltd. Breathing biofeedback eyeglasses
US10136852B2 (en) 2015-06-14 2018-11-27 Facense Ltd. Detecting an allergic reaction from nasal temperatures
US10130261B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Detecting physiological responses while taking into account consumption of confounding substances
US10299717B2 (en) 2015-06-14 2019-05-28 Facense Ltd. Detecting stress based on thermal measurements of the face
US10524696B2 (en) 2015-06-14 2020-01-07 Facense Ltd. Virtual coaching based on respiration signals
US10076270B2 (en) 2015-06-14 2018-09-18 Facense Ltd. Detecting physiological responses while accounting for touching the face
US10523852B2 (en) 2015-06-14 2019-12-31 Facense Ltd. Wearable inward-facing camera utilizing the Scheimpflug principle
US10165949B2 (en) 2015-06-14 2019-01-01 Facense Ltd. Estimating posture using head-mounted cameras
US10216981B2 (en) 2015-06-14 2019-02-26 Facense Ltd. Eyeglasses that measure facial skin color changes
US10154810B2 (en) 2015-06-14 2018-12-18 Facense Ltd. Security system that detects atypical behavior
US10136856B2 (en) 2016-06-27 2018-11-27 Facense Ltd. Wearable respiration measurements system
US10045699B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Determining a state of a user based on thermal measurements of the forehead
US10064559B2 (en) 2015-06-14 2018-09-04 Facense Ltd. Identification of the dominant nostril using thermal measurements
US10045726B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Selecting a stressor based on thermal measurements of the face
US10076250B2 (en) 2015-06-14 2018-09-18 Facense Ltd. Detecting physiological responses based on multispectral data from head-mounted cameras
US10524667B2 (en) 2015-06-14 2020-01-07 Facense Ltd. Respiration-based estimation of an aerobic activity parameter
US10085685B2 (en) 2015-06-14 2018-10-02 Facense Ltd. Selecting triggers of an allergic reaction based on nasal temperatures
US10113913B2 (en) 2015-10-03 2018-10-30 Facense Ltd. Systems for collecting thermal measurements of the face
US9968264B2 (en) 2015-06-14 2018-05-15 Facense Ltd. Detecting physiological responses based on thermal asymmetry of the face
US10092232B2 (en) 2015-06-14 2018-10-09 Facense Ltd. User state selection based on the shape of the exhale stream
US10159411B2 (en) 2015-06-14 2018-12-25 Facense Ltd. Detecting irregular physiological responses during exposure to sensitive data
US10130308B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Calculating respiratory parameters from thermal measurements
US10130299B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Neurofeedback eyeglasses
US10151636B2 (en) 2015-06-14 2018-12-11 Facense Ltd. Eyeglasses having inward-facing and outward-facing thermal cameras
US10045737B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Clip-on device with inward-facing cameras
US20170083086A1 (en) * 2015-09-18 2017-03-23 Kai Mazur Human-Computer Interface
KR102136241B1 (ko) * 2015-09-29 2020-07-22 바이너리브이알, 인크. 표정 검출 성능을 갖는 머리-장착형 디스플레이
CN105472224B (zh) * 2016-01-05 2017-03-15 北京度量科技有限公司 一种被动式光学动作捕捉设备及其应用
AU2017230184B2 (en) 2016-03-11 2021-10-07 Magic Leap, Inc. Structure learning in convolutional neural networks
US10812693B2 (en) 2017-10-20 2020-10-20 Lucasfilm Entertainment Company Ltd. Systems and methods for motion capture
EP3973468A4 (en) 2019-05-21 2022-09-14 Magic Leap, Inc. HANDPOSITION ESTIMATING
WO2021257077A1 (en) * 2020-06-18 2021-12-23 Hewlett-Packard Development Company, L.P. Emotive avatar animation with combined user pose data

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3658054A (en) * 1970-05-11 1972-04-25 Gen Technical Services Inc Adjustable helmet face mask
US4141652A (en) * 1977-11-25 1979-02-27 Adaptive Optics Associates, Inc. Sensor system for detecting wavefront distortion in a return beam of light
US4461553A (en) * 1982-06-18 1984-07-24 The United States Of America As Represented By The Secretary Of The Navy Dynamic head motion measuring system
US4725138A (en) * 1985-05-22 1988-02-16 Adaptive Optics Associates Incorporated Optical wavefront sensing system
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
GB8922146D0 (en) * 1989-10-02 1989-11-15 Eev Ltd Thermal camera arrangement
US5588139A (en) * 1990-06-07 1996-12-24 Vpl Research, Inc. Method and system for generating objects for a multi-person virtual world using data flow networks
US5389790A (en) * 1991-02-15 1995-02-14 Sri International Technique for detecting and identifying certain objects
US5507716A (en) * 1991-08-21 1996-04-16 The Lucidity Institute, Inc. Equipment and methods used to induce lucid dreams in sleeping persons
US5553864A (en) * 1992-05-22 1996-09-10 Sitrick; David H. User image integration into audiovisual presentation system and methodology
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US5341181A (en) * 1992-11-20 1994-08-23 Godard Roger R Systems and methods for capturing and presentng visual information
US5712732A (en) * 1993-03-03 1998-01-27 Street; Graham Stewart Brandon Autostereoscopic image display adjustable for observer location and distance
JPH0824358B2 (ja) * 1993-08-16 1996-03-06 工業技術院長 画像ディスプレー装置
US5689575A (en) * 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
US5572749A (en) * 1994-06-28 1996-11-12 The Walt Disney Company Helmet mounting device and system
US5555090A (en) * 1994-10-24 1996-09-10 Adaptive Optics Associates System for dimensioning objects
US5704836A (en) * 1995-03-23 1998-01-06 Perception Systems, Inc. Motion-based command generation technology

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101612199B1 (ko) 2012-04-06 2016-04-12 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 가상 이미지 상에 자동적으로 표정을 재생하는 방법 및 장치
JP2017534096A (ja) * 2014-08-04 2017-11-16 フェイスブック,インク. 仮想現実環境において遮られた顔部分を再構築する方法およびシステム
US10445863B2 (en) 2014-08-04 2019-10-15 Facebook Technologies, Llc Method and system for reconstructing obstructed face portions for virtual reality environment
US10593025B2 (en) 2014-08-04 2020-03-17 Facebook Technologies, Llc Method and system for reconstructing obstructed face portions for virtual reality environment
US11238568B2 (en) 2014-08-04 2022-02-01 Facebook Technologies, Llc Method and system for reconstructing obstructed face portions for virtual reality environment
KR101633057B1 (ko) * 2015-04-22 2016-06-23 재단법인 실감교류인체감응솔루션연구단 헤드 마운트 디스플레이 시스템을 위한 얼굴 모션 캡쳐 방법

Also Published As

Publication number Publication date
US6121953A (en) 2000-09-19
EP0938698A2 (en) 1999-09-01
EP0938698A4 (en) 2001-09-12
WO1998036631A2 (en) 1998-08-27
WO1998036631A3 (en) 1998-11-19

Similar Documents

Publication Publication Date Title
JP2001501346A (ja) バーチャルリアリティにおいて顔の動きを感知するためのシステム
CN106170083B (zh) 用于头戴式显示器设备的图像处理
US11061240B2 (en) Head-mountable apparatus and methods
JP7389855B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP5047798B2 (ja) コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法
US6774869B2 (en) Teleportal face-to-face system
US6695770B1 (en) Simulated human interaction systems
CN107315470B (zh) 图形处理方法、处理器和虚拟现实系统
TWI250311B (en) Image display device and simulation apparatus
KR20160105439A (ko) 시선-기반 미디어 선택 및 편집을 위한 시스템들 및 방법들
US11645823B2 (en) Neutral avatars
US20210278671A1 (en) Head wearable device with adjustable image sensing modules and its system
JP2534617B2 (ja) 人物像の実時間認識合成方法
JPH06282627A (ja) 視線アニメーション表示装置
US20230306695A1 (en) Devices, methods, and graphical user interfaces for three-dimensional user experience sessions in an extended reality environment
US20240103616A1 (en) User interfaces for gaze tracking enrollment
US20240153205A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20240103608A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20230384860A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
WO2024054433A2 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
AU759920B2 (en) Simulated human interaction systems