JP6754817B2 - データ融合を用いた顔表情生成の方法 - Google Patents

データ融合を用いた顔表情生成の方法 Download PDF

Info

Publication number
JP6754817B2
JP6754817B2 JP2018226568A JP2018226568A JP6754817B2 JP 6754817 B2 JP6754817 B2 JP 6754817B2 JP 2018226568 A JP2018226568 A JP 2018226568A JP 2018226568 A JP2018226568 A JP 2018226568A JP 6754817 B2 JP6754817 B2 JP 6754817B2
Authority
JP
Japan
Prior art keywords
facial expression
facial
parameter
user
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018226568A
Other languages
English (en)
Other versions
JP2020047237A (ja
Inventor
永明 周
永明 周
峰森 朱
峰森 朱
鼎傑 林
鼎傑 林
銓彰 王
銓彰 王
Original Assignee
未來市股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 未來市股▲ふん▼有限公司 filed Critical 未來市股▲ふん▼有限公司
Publication of JP2020047237A publication Critical patent/JP2020047237A/ja
Application granted granted Critical
Publication of JP6754817B2 publication Critical patent/JP6754817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は仮想現実システムに関し、より詳細には仮想現実システムでデータ融合により顔の表情を生成する方法に関する。
多くの仮想現実(VR)システムは、ユーザにより持ち運ばれるヒューマンインターフェース装置から部屋規模のエリア内のユーザの動きを追跡することができる。ヒューマンインターフェース装置(例えば、ジョイスティック、コントローラ、タッチパッド等)は、ユーザがコンピューティング装置により実行されるソフトウェアシステム、例えば、VRゲームと対話するために使用される。さらに、ユーザにより装着されたヘッドマウントディスプレイ(HMD)は、VR体験のためにユーザに対してコンピューティング装置により生成された対話画像を表示するために使用される。
ユーザのVR没入の意欲を高めるために、顔の表情(例えば、中立、幸せ、怒り、驚き、及び悲しみ)を用いたVRアバター(すなわち、仮想環境におけるユーザの代理)が、ソーシャルコミュニケーションに対してリアルタイムでユーザの気持ちを明らかにするために提案されている。しかしながら、VRアバターの表情の、HMDユーザとの同期は限定される。これまでの研究は、顔の表情を認識するカメラにより収集された画像シーケンスから顔の特徴をしばしば抽出する。HMDを装着することの主な問題は、ユーザの顔の大部分が占有され、ユーザの筋肉の動きが制限されることであり、これは、VRシステムにおいてカメラに基づく顔認識を困難にしている。
ゆえに、上記問題を解決するためのシステム情報送信及び獲得の方法を提供することが一目的である。
本発明は、仮想現実システムのコンピューティング装置のためのデータ融合による顔表情生成の方法を開示する。方法は、複数のデータソースからユーザの顔情報を取得するステップであり、複数のデータソースはリアルタイムデータ検出及びデータ事前構成を含む、ステップと、ユーザの顔幾何学モデルをシミュレートするために顔情報を顔表情パラメータにマッピングするステップと、顔表情パラメータに従って融合処理を実行して、重み付けを用いて顔表情パラメータに関連づけられた融合パラメータを生成するステップと、融合パラメータに従って仮想現実システム内のアバターの顔の表情を生成するステップと、を含む。
本発明は、データ融合を用いた顔表情生成のための仮想現実システムを開示する。仮想現実システムは、ソフトウェアシステムを実行して仮想現実画像を生成するコンピューティング装置と、コンピューティング装置に接続し、ユーザに対する仮想現実画像を表示するヘッドマウントディスプレイ(HMD)と、コンピューティング装置に接続し、複数のデータソースからユーザの顔情報を収集する複数の追跡装置であり、複数のデータソースはリアルタイムデータ検出及びデータ事前構成を含む、複数の追跡装置と、を含み、コンピューティング装置は、プログラムを実行する処理手段と、処理手段に結合され、プログラムを記憶する記憶ユニットと、を含み、プログラムは、処理手段に、複数の追跡装置から顔情報を取得するステップと、ユーザの顔幾何学モデルをシミュレートするために顔情報を顔表情パラメータにマッピングするステップと、顔表情パラメータに従って融合処理を実行して、重み付けを用いて顔表情パラメータに関連づけられた融合パラメータを生成するステップと、融合パラメータに従って仮想現実システム内のアバターの顔の表情を生成するステップと、を実行するように命令する。
本発明の上記及び他の目的が、様々な図表及び図面に例示される好適な実施例の下記詳細な説明を読んだ当業者に疑いなく明らかになるであろう。
仮想現実システムの概略図である。 本開示の実施例による仮想現実システムの仮想現実装置の概略図である。 本開示の実施例によるフローチャートである。
図1を参照されたい。図1は、本開示の一実施例による仮想現実システムの概略図である。仮想現実(VR)システム(すなわち、HTC VIVE)は、ユーザがVR環境内で自由に移動し、探索することを可能にする。詳細には、VRシステムは、ヘッドマウントディスプレイ(head-mounted display;HMD)100、コントローラ102A及び102B、ライトハウス(lighthouses)104A及び104B、並びにコンピューティング装置106(例えば、パーソナルコンピュータ)を含む。ライトハウス104A及び104Bは、IR光を放出するために使用され、コントローラ102A及び102Bは、コンピューティング装置106に対する制御信号を生成するために使用され、それにより、プレーヤは、コンピューティング装置により実行されるソフトウェアシステム、VRゲームと対話することができ、HMD100は、プレーヤに対してコンピューティング装置106により生成された対話画像を表示するために使用される。VRシステムの動作は当該分野において良く知られているものであり、ゆえにここでは省略される。
図2は、本開示の一実施例によるVR装置の概略図である。VR装置20は、図1のコンピューティング装置106でもよく、処理ユニット200、例えばマイクロプロセッサ又は特定用途向け集積回路(ASIC)など、記憶ユニット210、及び通信インターフェースユニット220を含む。記憶ユニット210は、処理ユニット200によるアクセスのためにプログラムコード214を記憶することができる任意のデータ記憶装置でもよい。記憶ユニット210の例は、これらに限られないが、加入者識別モジュール(subscriber identity module;SIM)、読取専用メモリ(ROM)、フラッシュメモリ、ランダムアクセスメモリ(RAM)、CD‐ROM、磁気テープ、ハードディスク、及び光学データ記憶装置を含む。通信インターフェースユニット220は、処理ユニット200の処理結果に従った図1のHMD100並びにコントローラ102A及び102Bとの交換信号のために有線又は無線通信を適用される。
上述された問題を克服するために、本発明は、顔の表情の生成のために異なるデータソースを考慮に入れる。データリソースは、VRシステムの追跡装置(図示されてない)により収集されるリアルタイムデータと、VRシステムのコンピューティング装置106により生成される事前構成されたデータとを含む。追跡装置は、ユーザの顔の筋肉の活動を検出するためにユーザにより装着された(すなわち、HMD100内部に取り付けられた)センサ、及び/又はユーザの音声を記録するために部屋規模のエリアに展開されたセンサを含む。これらセンサは、超音波検出、電流/電圧センサ、赤外線センサ、及び眼球/虹彩/瞳検出、ひずみゲージ、カメラ及び音記録(すなわち、話すことと共にユーザの筋肉の動きを検出するために、ユーザの顔の下半分に向けられたカメラ)を限定なく含んでもよい。結果的に、本発明のVRシステムは、ユーザの感情の変化に対応する顔の表情の生成を可能にし、ユーザがHMD100を装着している間、アバターの顔の表情をユーザの顔の表情と同期させる。
図3が参照され、本開示の実施例による処理30のフローチャートが示される。処理30は、顔表情生成のために図2のVR装置20で利用できる。処理30は、記憶ユニット210に記憶されるプログラムコード214にコンパイルされてもよく、以下のステップを含み得る。
ステップ300:複数のデータソースからユーザの顔情報を取得し、複数のデータソースは、リアルタイムデータ検出及びデータ事前構成を含む。
ステップ310:ユーザの顔幾何学モデルをシミュレートするために顔情報を顔表情パラメータにマッピングする。
ステップ320:顔表情パラメータに従って融合処理を実行して、重み付けを用いて顔表情パラメータに関連づけられた融合パラメータを生成する。
ステップ330:融合パラメータに従って仮想現実システム内のアバターの顔の表情を生成する。
処理30によれば、VR装置20(例えば、コンピューティング装置106)は、リアルタイムデータ及び所定データからVR環境内のアバターの顔の表情を生成する。実施例において、リアルタイムデータは、ユーザの部分的又は全体的な顔の画像、ユーザの顔の特徴の動き(例えば、眉、目、鼻、及び口)、並びにユーザの話しの発話(例えば、音声のトーン及び話しの速度)から収集された生データを含む。一実施例において、所定データは、所定間隔内のまばたき若しくはうなずき、又はランダムに生成された顔の特徴を含む。
実施例において、複数のデータソースが、より信頼できる判断を提供するために一緒に協働する様々な独立した追跡装置/センサを適用される。多様なデータソース、例えば、話しの発話を用いて、VR装置20は、検出された音声/トーンを発話解析のために適用し、それにより、アバターの口の形状がより的確に生成でき、話す内容が表示できる。ゆえに、異なるタイプのデータの組み合わせがアバターの顔のアニメーションを実際に向上させ、それにより、ユーザの感情がVR環境内で他のプレーヤと対話するために示される。
さらに、複数のデータソースから顔の情報(例えば、リアルタイムデータ及び所定データ)を取得した後、VR装置20は、ユーザの顔の特徴を図示するためにこれら生データを顔表情パラメータにマッピングする。要するに、顔表情パラメータは、ユーザの眉、しわ、目、口、歯、舌、鼻、まばたきの頻度、目の動きの方向、瞳のサイズ、及び頭部6次元情報、のうち少なくとも1つを含む顔の特徴の情報を示すために使用される。例えば、顔表情パラメータにより示される情報は以下を含む。
1.上歯可視 ‐ 上の歯の可視性の有無
2.下歯可視 ‐ 下の歯の可視性の有無
3.額ライン ‐ 額の上部におけるしわの有無
4.眉ライン ‐ 眉の上の領域におけるしわの有無
5.鼻ライン ‐ 鼻の上に広がる眉の間の領域におけるしわの有無
6.顎ライン ‐ 下唇のすぐ下の顎領域におけるしわ又はラインの有無
7.鼻唇ライン(Nasolabial lines) ‐ 鼻の両側における、上唇に対して下に広がる厚いラインの有無
代替的に、ユーザの話し、例えば、高い又は低いピッチ、ゆっくり話すこと又は速く話すことなどに関連づけられるいくつかの顔表情パラメータがある。すなわち、VR装置20は、収集された音声情報を対応する顔表情パラメータにマッピングし、これは、口の形状のシミュレーションに有用であり得る。
上述された顔表情パラメータを用いて、ユーザの顔の特徴が描写できる。
より具体的には、顔表情パラメータは、幾何学パラメータ及びテクスチャパラメータを含む。幾何学パラメータは、顔幾何学モデル上の頂点の3D座標を示し、テクスチャパラメータは、感情モデルに対応するどの顔画像が顔幾何学モデル上のどの位置にペーストされるべきかを示す。
VR装置20は、顔情報に従って顔表情認識動作をさらに実行してユーザの感情モデルを取得することができ、次いで、取得された感情モデルに従って顔情報を顔表情パラメータにマッピングすることに留意する。詳細には、感情モデルを決定する顔表情認識動作は、顔情報の距離解析を適用されるツリーに基づく分類方法、又は、データベースからの及び顔情報を用いた顔表情画像解析を適用される機械学習分類方法に基づく。
上述されたように、生データは、異なるタイプのセンサを用いて収集され、該センサは、あらゆる顔の特徴(例えば、鼻根のしわの存在、目の形状、口の歯、舌、及び鼻等)に対応する距離を測定することにより、ユーザの顔の幾何学変化を追跡することができる。測定された距離に従い、VR装置20は、決定された感情モデルを用いて生データを顔表情パラメータにマッピングする。顔表情認識動作に適用される距離は、以下のパラメータを含み得る。
1.眉上昇距離 ‐ 上下まぶたの接合点と眉の下中央先端(lower central tip)との間の距離
2.上まぶたから眉の距離 ‐ 上まぶたと眉表面との間の距離
3.眉間距離 ‐ 双方の眉の下中央先端間の距離
4.上まぶた‐下まぶた距離 ‐ 上まぶたと下まぶたとの間の距離
5.上唇厚さ ‐ 上唇の厚さの尺度
6.下唇厚さ ‐ 下唇の厚さの尺度
7.口幅 ‐ 唇の角の先端間の距離
8.口の開き ‐ 上唇の下表面と下唇の上表面との間の距離
距離解析に基づき、VR装置20は、ユーザの感情モデルを決定することができる。例えば、上まぶたから眉の距離が閾値より小さい場合、VR装置20は、ユーザがショックを受けているか又は幸せであると決定することができる。さらに、口の開きが閾値より大きい場合、VR装置20は、ユーザがショックを受けていると確認することができる。しかしながら、異なる又は衝突する感情モデル(ショック対幸せ)がVR装置20により決定されることがあり得る。
顔情報を顔表情パラメータにマッピングした後、VR装置20は、顔表情パラメータに対して異なる重み付けを構成する融合処理を実行して、アバターのためのユーザの感情に対応する顔の表情を生成する。
融合処理は、上述された顔表情パラメータにより示される、例えば口、目、眉、及びしわの形状などの複数の顔領域を考慮して、前述された顔表情認識(すなわち、普遍的な感情:中立の表情に対する喜び、驚き、嫌悪、悲しみ、怒り、恐怖)を用いて実現される。要するに、融合処理は、顔表情解析(すなわち、感情決定)について、口及び目などの顔の特徴を別個の調査(study)とみなす。これらの顔の特徴間に感情/意図衝突がある場合、融合処理は、顔表情パラメータの新しい重み付けを決定して、アバターの顔の表情を再構成することができる。
感情/意図衝突は、笑っている上で目がまばたきしているなどの顔の特徴間で生じることがあり、あるいは顔表情認識において2つの反対の感情(幸せ対悲しみ)から結果として生じる。この状況において、VR装置20はこのことに応じて、融合パラメータ(すなわち、より軽い又はより重い重み付けを用いた顔表情パラメータ)を生成して、アバターの適切な顔表情を再構成する。換言すると、決定された感情結果をより有力にするために、融合処理が使用されて、顔表情表示における疑いを低減し、あるいはさらには除去することができる。
融合処理の顔表情認識は、光学フロー又は幾何学に基づくアプローチ方法の支援でVR装置に確立されたデータベースの感情モデルに従って実現されてもよいことに留意する。すなわち、ユーザの感情は、限定なく、顔の筋肉の活動からの光学フロー解析、又はモデルに基づくアプローチに基づいて決定されてもよい。このことは当該分野において良く知られているものであり、ゆえにここでは省略される。
示唆されたステップを含む処理の上述されたステップは、ハードウェア、ハードウェア装置とコンピュータ命令との組み合わせとして知られるファームウェア、及びハードウェア装置又は電子システム上で読取専用ソフトウェアとして存在するデータであり得る手段により実現されてもよい。ハードウェアの例には、マイクロ回路、マイクロチップ、又はシリコンチップとして知られるアナログ、デジタル、及び混合回路を含むことができる。電子システムの例には、システムオンチップ(SOC)、システムインパッケージ(SiP)、コンピュータオンモジュール(COM)、及びVR装置20を含むことができる。
結論として、本発明は、仮想環境においてリアルタイムのソーシャル対話のためにユーザの顔の表情を模倣して他のプレーヤのアバターと対話することに対処する。詳細には、リアルタイムデータ及び事前構成データを含む複数のデータリソースが、データ融合と共にアバターの顔表情を生成することに適用される。
当業者は、本発明の教示を保有する間、装置及び方法についての多数の修正及び変更がなされ得ることを容易に観察するであろう。したがって、上記開示は、別記の請求項の範囲及び境界によってのみ限定されるとみなされるべきである。

Claims (14)

  1. 仮想現実システムのコンピューティング装置のためのデータ融合による顔表情生成の方法であって、
    複数のデータソースからユーザの顔情報を取得するステップであり、前記複数のデータソースはリアルタイムデータ検出と前記コンピューティング装置により生成される事前構成されたデータを含み、前記事前構成されたデータは、ランダムに生成された顔の特徴と所定間隔内の予め定義された顔の特徴とのうち少なくとも1つを含む、ステップと、
    前記ユーザの顔幾何学モデルをシミュレートするために前記顔情報を顔表情パラメータにマッピングするステップと、
    前記顔表情パラメータに従って融合処理を実行して、重み付けを用いて前記顔表情パラメータに関連づけられた融合パラメータを生成するステップと、
    前記融合パラメータに従って前記仮想現実システム内のアバターの顔の表情を生成するステップと、
    を含む方法。
  2. 前記ユーザの顔幾何学モデルをシミュレートするために前記顔情報を顔表情パラメータにマッピングするステップは、
    前記顔情報に従って顔表情認識動作を実行して、前記ユーザの感情モデルを取得するステップと、
    前記取得された感情モデルに従って前記顔情報を前記顔表情パラメータにマッピングするステップと、
    を含む、請求項1に記載の方法。
  3. 前記顔表情パラメータは、幾何学パラメータ及びテクスチャパラメータを含み、前記幾何学パラメータは、前記顔幾何学モデル上の頂点の3D座標を示し、前記テクスチャパラメータは、前記感情モデルに対応するどの顔画像が前記顔幾何学モデル上のどの位置にペーストされるべきかを示す、請求項2に記載の方法。
  4. 前記顔情報に従って顔表情認識動作を実行することは、
    前記顔情報から抽出された距離を用いてツリーに基づく分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行すること、又は、
    データベース及び前記顔情報からの顔表情画像を用いて機械学習分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行すること
    を含む、請求項2に記載の方法。
  5. 前記データソースは、顔の筋肉の活動、話しの発話、及び部分的又は全体的な顔の画像を含む、請求項1に記載の方法。
  6. 前記顔表情パラメータは、前記ユーザの眉、しわ、目、口、歯、舌、鼻、まばたきの頻度、目の動きの方向、瞳のサイズ、及び頭部6次元情報、のうち少なくとも1つを含む顔の特徴の情報を示す、請求項1に記載の方法。
  7. 前記顔表情パラメータに従って融合処理を実行することは、
    前記マッピングされた顔表情パラメータに基づいて感情衝突が生じるかどうかを決定することと、
    前記感情衝突が生じたとき、前記顔表情パラメータのために構成された重み付けを用いて融合パラメータを生成することと、
    を含む、請求項4に記載の方法。
  8. データ融合を用いた顔表情生成のための仮想現実システムであって、
    ソフトウェアシステムを実行して仮想現実画像を生成するコンピューティング装置と、
    前記コンピューティング装置に接続し、ユーザに対する仮想現実画像を表示するヘッドマウントディスプレイ(HMD)と、
    前記コンピューティング装置に接続し、複数のデータソースから前記ユーザの顔情報を収集する複数の追跡装置であり、前記複数のデータソースはリアルタイムデータ検出と前記コンピューティング装置により生成される事前構成されたデータを含み、前記事前構成されたデータは、ランダムに生成された顔の特徴と所定間隔内の予め定義された顔の特徴とのうち少なくとも1つを含む、複数の追跡装置と、を含み、
    前記コンピューティング装置は、
    プログラムを実行する処理手段と、
    前記処理手段に結合され、前記プログラムを記憶する記憶ユニットと、を含み、
    前記プログラムは、前記処理手段に、
    前記複数の追跡装置から顔情報を取得するステップと、
    前記ユーザの顔幾何学モデルをシミュレートするために前記顔情報を顔表情パラメータにマッピングするステップと、
    前記顔表情パラメータに従って融合処理を実行して、重み付けを用いて前記顔表情パラメータに関連づけられた融合パラメータを生成するステップと、
    前記融合パラメータに従って前記仮想現実システム内のアバターの顔の表情を生成するステップと、
    を実行するように命令する、仮想現実システム。
  9. 前記プログラムは、前記処理手段に、
    前記顔情報に従って顔表情認識動作を実行して、前記ユーザの感情モデルを取得するステップと、
    前記取得された感情モデルに従って前記顔情報を前記顔表情パラメータにマッピングするステップと、
    を実行するようにさらに命令する、請求項8に記載の仮想現実システム。
  10. 前記顔表情パラメータは、幾何学パラメータ及びテクスチャパラメータを含み、前記幾何学パラメータは、前記顔幾何学モデル上の頂点の3D座標を示し、前記テクスチャパラメータは、前記感情モデルに対応するどの顔画像が前記顔幾何学モデル上のどの位置にペーストされるべきかを示す、請求項9に記載の仮想現実システム。
  11. 前記プログラムは、前記処理手段に、
    前記顔情報から抽出された距離を用いてツリーに基づく分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行するステップ、又は、
    データベース及び前記顔情報からの顔表情画像を用いて機械学習分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行するステップ
    を実行するようにさらに命令する、請求項9に記載の仮想現実システム。
  12. 前記データソースは、顔の筋肉の活動、話しの発話、及び部分的又は全体的な顔の画像を含む、請求項8に記載の仮想現実システム。
  13. 前記顔表情パラメータは、前記ユーザの眉、しわ、目、口、歯、舌、鼻、まばたきの頻度、目の動きの方向、瞳のサイズ、及び頭部6次元情報、のうち少なくとも1つを含む顔の特徴の情報を示す、請求項8に記載の仮想現実システム。
  14. 前記プログラムは、前記処理手段に、
    前記マッピングされた顔表情パラメータに基づいて感情衝突が生じるかどうかを決定するステップと、
    前記感情衝突が生じたとき、前記顔表情パラメータのために構成された重み付けを用いて融合パラメータを生成するステップと、
    を実行するようにさらに命令する、請求項11に記載の仮想現実システム。
JP2018226568A 2018-09-19 2018-12-03 データ融合を用いた顔表情生成の方法 Active JP6754817B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/136241 2018-09-19
US16/136,241 US20200090392A1 (en) 2018-09-19 2018-09-19 Method of Facial Expression Generation with Data Fusion

Publications (2)

Publication Number Publication Date
JP2020047237A JP2020047237A (ja) 2020-03-26
JP6754817B2 true JP6754817B2 (ja) 2020-09-16

Family

ID=64661165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018226568A Active JP6754817B2 (ja) 2018-09-19 2018-12-03 データ融合を用いた顔表情生成の方法

Country Status (5)

Country Link
US (1) US20200090392A1 (ja)
EP (1) EP3627381A1 (ja)
JP (1) JP6754817B2 (ja)
CN (1) CN110929553A (ja)
TW (1) TW202013242A (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11120599B2 (en) * 2018-11-08 2021-09-14 International Business Machines Corporation Deriving avatar expressions in virtual reality environments
KR102243040B1 (ko) * 2019-04-10 2021-04-21 한양대학교 산학협력단 전자 장치, 아바타 얼굴 표정 표시 시스템 및 제어 방법
US11385907B1 (en) * 2019-04-17 2022-07-12 Snap Inc. Automated scaling of application features based on rules
CN110321872B (zh) * 2019-07-11 2021-03-16 京东方科技集团股份有限公司 人脸表情识别方法及装置、计算机设备、可读存储介质
CN111144266B (zh) * 2019-12-20 2022-11-22 北京达佳互联信息技术有限公司 人脸表情的识别方法及装置
CN111445417B (zh) * 2020-03-31 2023-12-19 维沃移动通信有限公司 图像处理方法、装置、电子设备及介质
CN111583355B (zh) * 2020-05-09 2024-01-23 维沃移动通信有限公司 面部形象生成方法、装置、电子设备及可读存储介质
CN113691833B (zh) * 2020-05-18 2023-02-03 北京搜狗科技发展有限公司 虚拟主播换脸方法、装置、电子设备及存储介质
US11321892B2 (en) * 2020-05-21 2022-05-03 Scott REILLY Interactive virtual reality broadcast systems and methods
CN111638784B (zh) * 2020-05-26 2023-07-18 浙江商汤科技开发有限公司 人脸表情互动方法、互动装置以及计算机存储介质
CN112348841B (zh) * 2020-10-27 2022-01-25 北京达佳互联信息技术有限公司 虚拟对象的处理方法、装置、电子设备及存储介质
CN112907725B (zh) * 2021-01-22 2023-09-26 北京达佳互联信息技术有限公司 图像生成、图像处理模型的训练、图像处理方法和装置
TWI814318B (zh) * 2021-04-02 2023-09-01 美商索尼互動娛樂有限責任公司 用於使用模擬角色訓練模型以用於將遊戲角色之臉部表情製成動畫之方法以及用於使用三維(3d)影像擷取來產生遊戲角色之臉部表情之標籤值之方法
CN114422697B (zh) * 2022-01-19 2023-07-18 浙江博采传媒有限公司 基于光学捕捉的虚拟拍摄方法、系统及存储介质
WO2023199256A2 (en) * 2022-04-13 2023-10-19 Soul Machines Limited Affective response modulation in embodied agents
US20240153182A1 (en) * 2022-11-07 2024-05-09 Meta Platforms Technologies, Llc Embedded sensors in immersive reality headsets to enable social presence
CN115908655B (zh) * 2022-11-10 2023-07-14 北京鲜衣怒马文化传媒有限公司 一种虚拟人物面部表情处理方法及装置
CN116137673A (zh) * 2023-02-22 2023-05-19 广州欢聚时代信息科技有限公司 数字人表情驱动方法及其装置、设备、介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986441B2 (ja) * 1998-01-27 1999-12-06 株式会社エイ・ティ・アール人間情報通信研究所 任意表情を持つ3次元顔モデルの生成方法
US7554549B2 (en) * 2004-10-01 2009-06-30 Sony Corporation System and method for tracking facial muscle and eye motion for computer graphics animation
JPWO2007043712A1 (ja) * 2005-10-14 2009-04-23 国立大学法人 長崎大学 感情評価方法および感情表示方法、並びに、それらのための、プログラム、記録媒体およびシステム
US9245176B2 (en) * 2012-08-01 2016-01-26 Disney Enterprises, Inc. Content retargeting using facial layers
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9830728B2 (en) * 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
JP6391465B2 (ja) * 2014-12-26 2018-09-19 Kddi株式会社 ウェアラブル端末装置およびプログラム
WO2017122299A1 (ja) * 2016-01-13 2017-07-20 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
JP6574401B2 (ja) * 2016-04-08 2019-09-11 ソフトバンク株式会社 モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム
EP3252566B1 (en) * 2016-06-03 2021-01-06 Facebook Technologies, LLC Face and eye tracking and facial animation using facial sensors within a head-mounted display
US20180158246A1 (en) * 2016-12-07 2018-06-07 Intel IP Corporation Method and system of providing user facial displays in virtual or augmented reality for face occluding head mounted displays
US10572720B2 (en) * 2017-03-01 2020-02-25 Sony Corporation Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data

Also Published As

Publication number Publication date
CN110929553A (zh) 2020-03-27
JP2020047237A (ja) 2020-03-26
EP3627381A1 (en) 2020-03-25
US20200090392A1 (en) 2020-03-19
TW202013242A (zh) 2020-04-01

Similar Documents

Publication Publication Date Title
JP6754817B2 (ja) データ融合を用いた顔表情生成の方法
US11656680B2 (en) Technique for controlling virtual image generation system using emotional states of user
US11347051B2 (en) Facial expressions from eye-tracking cameras
JP7253017B2 (ja) 反射を利用する拡張現実システムおよび方法
JP7378431B2 (ja) フレーム変調機能性を伴う拡張現実ディスプレイ
Zacharatos et al. Automatic emotion recognition based on body movement analysis: a survey
Szwoch et al. Emotion recognition for affect aware video games
US9134816B2 (en) Method for using virtual facial and bodily expressions
Cordeiro et al. ARZombie: A mobile augmented reality game with multimodal interaction
US20150279224A1 (en) Method for using virtual facial and bodily expressions
Robitaille et al. Increased affect-arousal in VR can be detected from faster body motion with increased heart rate
TWI829944B (zh) 虛擬化身臉部表情產生系統和虛擬化身臉部表情產生方法
US20200226136A1 (en) Systems and methods to facilitate bi-directional artificial intelligence communications
WO2017085963A1 (ja) 情報処理装置、及び映像表示装置
Niewiadomski et al. Vitality forms analysis and automatic recognition
DiMeglio Fear feedback loop: creative and dynamic fear experiences driven by user emotion
TW202422377A (zh) 具表情及人臉辨識與提示功能之互動式穿戴電子裝置以及互動式穿戴電子裝置處理方法
JP2024036324A (ja) オブジェクト制御プログラムおよびオブジェクト制御方法
FLOR DEVELOPMENT OF A MULTISENSORIAL SYSTEM FOR EMOTION RECOGNITION
WO2016205362A1 (en) Method for using virtual facial and bodily expressions
Prodi et al. Affective computing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6754817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250