JP6742405B2 - 表情検出機能を備えたヘッドマウントディスプレイ - Google Patents

表情検出機能を備えたヘッドマウントディスプレイ Download PDF

Info

Publication number
JP6742405B2
JP6742405B2 JP2018517321A JP2018517321A JP6742405B2 JP 6742405 B2 JP6742405 B2 JP 6742405B2 JP 2018517321 A JP2018517321 A JP 2018517321A JP 2018517321 A JP2018517321 A JP 2018517321A JP 6742405 B2 JP6742405 B2 JP 6742405B2
Authority
JP
Japan
Prior art keywords
image
user
face
camera
capturing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018517321A
Other languages
English (en)
Other versions
JP2018538593A (ja
Inventor
ジフン チュ
ジフン チュ
チュンウォン パク
チュンウォン パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Binaryvr Inc
Original Assignee
Binaryvr Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Binaryvr Inc filed Critical Binaryvr Inc
Publication of JP2018538593A publication Critical patent/JP2018538593A/ja
Application granted granted Critical
Publication of JP6742405B2 publication Critical patent/JP6742405B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、仮想現実又は拡張現実の環境において使用される、ユーザの表情検出のためのヘッドマウントディスプレイユニット全般に関連する。
仮想現実(VR)及び拡張現実(AR)は、没入型リアルライフ経験をさせることを可能にすることから、ゲーム、教育、医療、及びソーシャルネットワーキングサービス等の適用における新興分野となっている。これらの適用の一部として、ユーザが表示装置に表示された自身の3D表現(例えば、アバター)を通じて他のユーザと関わることができるようにするソーシャルプラットフォームがある。ユーザが仮想現実又は拡張現実を通じて他のユーザと交流できるようにすることにより、これらの適用におけるユーザの経験を向上させることができる。
人同士の交流において、表情は、個人の感情状態について、他者に多くの情報を伝達する。ユーザ間の交流をより豊かなものとするために、ユーザの3D表現は、ユーザの表情を示すように開発されてもよい。このようにして、VR又はAR環境において、ユーザの心的状態についてより多くの情報を他のユーザに効果的に伝えることができる。
本願は、2015年9月29日出願の米国仮特許出願シリアル番号62/234,478号及び2016年5月16日出願の米国仮特許出願シリアル番号62/337,261号に対する米国特許法第119条(e)に基づく優先権を主張するものであり、その内容全体を参照としてここに援用する。
実施形態は、ヘッドマウントディスプレイを使用した表情検出に関連する。第1画像は、ヘッドマウントディスプレイ上の第1画像撮影装置により撮影される。第1画像は、ユーザの顔の上部を含む。第2画像は、ヘッドマウントディスプレイ上の第2画像撮影装置により撮影される。第2画像は、ユーザの顔の下部を含む。第1画像及び第2画像を処理することにより、ユーザの表情を表す表情パラメータを抽出する。
一実施形態において、第1画像撮影装置は、一対の赤外線カメラを備える。第2画像撮影装置は、深度カメラ、カラーカメラ、赤外線カメラ、又は2つの立体カメラ、のうちの1つを備える。
一実施形態において、第1画像及び第2画像を処理することにより、少なくとも、第1画像から、ユーザの目及びユーザの眉に関連付けられたランドマーク位置を検出し、第2画像から、ユーザの顔の下部に関連付けられたランドマーク位置を検出する。
一実施形態において、抽出された表情パラメータをユーザのデジタル表現に適用することにより、ユーザのグラフィック表現を生成する。
一実施形態において、ユーザの無表情を表すキャリブレーション画像を撮影および処理することにより、キャリブレーションを実施する。
一実施形態において、キャリブレーション画像に基づき、個人化無表情メッシュを生成し、変形転写技術を個人化無表情メッシュに適用することで、個人化追跡モデルを構築することにより、キャリブレーションを実施する。
一実施形態において、ブレンドシェイプモデルを、個人化追跡モデルに基づき、第1画像及び第2画像におけるランドマーク位置にフィットさせることにより、表情パラメータを得る。
一実施形態において、第1画像及び第2画像はリアルタイムで処理され、表情を取得する。
実施形態は、第1撮影装置と、第2撮影装置と、表示装置と、本体とを備えるヘッドマウントディスプレイにも関連する。第1撮影装置は、目領域を含むユーザの顔の上部を撮影する。第2撮影装置は、第1撮影装置の下方位置に設けられ、ユーザの顔の下部を撮影する。表示装置は、ユーザに画像を表示する。本体には、第1撮影装置、第2撮影装置、及び表示装置が搭載される。
一実施形態において、第2撮影装置は、本体からユーザの顔の下部に向かって伸びる伸張部材に搭載される。
一実施形態において、ヘッドマウントディスプレイユニットは、第2撮影装置が搭載される摺動可能なマウントをさらに備える。
一実施形態において、表示装置は、第1ディスプレイ及び第2ディスプレイを備える。第1ディスプレイは、左側画像をユーザの左目の方に表示し、第2ディスプレイは、右側画像をユーザの右目の方に表示する。
一実施形態において、第1撮影装置は、一対のカメラを備え、カメラは各々、本体の両側に設置される。
一実施形態において、第1撮影装置は、本体の中間に設置されたカメラを備える。
一実施形態において、第2撮影装置は、本体に直接搭載される。
一実施形態において、本体は、目領域を包含する膨らんだ上部を有する。
一実施形態において、表示装置は、一対の別個の表示部を備え、第1撮影装置は、一対の表示部の間に2つのカメラを備える。
実施形態は、ヘッドマウントディスプレイユニットと、演算装置とを備える仮想現実システムにも関連する。演算装置は、ヘッドヘッドマウントディスプレイユニットに通信可能に連結される。演算装置は、ヘッドマウントディスプレイユニットから第1画像及び第2画像を受信し、第1画像及び第2画像を処理することにより、ユーザの表情を表す表情パラメータを抽出する。
図1は、一実施形態に係る、ユーザの表情を撮影および処理するシステムを示すブロック図である。 図2Aは、一実施形態に係る、図1のヘッドマウントディスプレイユニットの概略図である。 図2Bは、一実施形態に係る、ユーザの目領域の画像を撮影する2Dカメラを示す概略図である。 図2Cは、一実施形態に係る、ユーザの顔に対するヘッドマウントディスプレイユニットの構成要素を示す概略図である。 図2Dは、他の実施形態に係る、ヘッドマウントディスプレイユニットを示す概略図である。 図2Eは、他の実施形態に係る、立体画像センサを備えたヘッドマウントディスプレイユニットを示す概略図である。 図2Fは、他の実施形態に係る、摺動可能な立体画像センサを備えたヘッドマウントディスプレイユニットを示す概略図である。 図2Gは、一実施形態に係る、主要本体の中間頂上部分に2Dカメラを備えたヘッドマウントディスプレイユニットを示す概略図である。 図2Hは、一実施形態に係る、2Dカメラを包含するように膨らんだ上部を備えたヘッドマウントディスプレイユニットを示す概略図である。 図2Iは、一実施形態に係る、図2G〜図2Hのヘッドマウントディスプレイユニットを使用したユーザの目領域の撮影を示す概略図である。 図2Jは、一実施形態に係る、ヘッドマウントディスプレイユニットの表示装置の間に一対の2Dカメラを配置することを示す概略図である。 図2Kは、一実施形態に係る、モバイルデバイスを受容するヘッドマウントディスプレイユニットを示す概略図である。 図3は、一実施形態に係る、表情を判定するためにヘッドマウントディスプレイユニットに接続された演算装置を示すブロック図である。 図4は、一実施形態に係る、演算装置におけるソフトウェアモジュールのブロック図である。 図5は、一実施形態に係る、表情を判定するために追跡される顔のランドマークを示す図である。 図6は、一実施形態に係る、ユーザのデジタル表現における表情を使用するプロセス全体を示すフローチャートである。 図7は、一実施形態に係る、ユーザの表情を検出するプロセスを示すフローチャートである。
図面及び以下の説明は、単なる例示としての好適な実施形態に関連する。以下を検討することにより、本明細書に開示した構造及び方法の代替実施形態は、クレームの主旨から逸脱することなく採用されてもよい実行可能な代替として容易に認識されることに留意しなければならない。
以降、添付の図面に例示したいくつかの実施形態について詳細に説明する。可及的に、図中では同様の参照符号が使用され、同様の機能を示すことがあることに留意しなければならない。図面は、例示のみを目的として開示のシステム(又は方法)の実施形態を示している。以下の説明において、本明細書に記載の主旨から逸脱しない限り、本明細書に示される構造及び方法の代替実施形態が採用されてもよい。
実施形態は、目領域を含むユーザの顔の上部を撮影する画像撮影装置(例えば、赤外線カメラ)と、鼻、唇、顎先、及び頬のうちの少なくとも1つを含むユーザの顔の下部特徴を撮影するもうひとつの画像撮影装置(例えば、深度カメラ)とを含むヘッドマウントディスプレイユニットを使用して、リアルタイムでユーザの表情を検出することに関連する。第1画像撮影装置及び第2画像撮影装置によって撮影された画像が処理され、表情に関連付けられたパラメータを抽出する。このパラメータは、表情を含むユーザのデジタル表現が生成可能となるように、送信又は処理可能である。
本明細書に記載の目領域とは、目と目の上方の眉をカバーする顔領域をいう。

表情検出システムの例としてのアーキテクチャ
図1は、一実施形態に係る、ユーザの表情を撮影及び処理するシステム100を示すブロック図である。システム100は、数ある構成要素の中でも特に、ヘッドマウントディスプレイ(HMD)102と、HMD102と通信する演算装置108とを備えてもよい。HMD102は、演算装置108と連携して使用され、ユーザの姿勢を検出し、ユーザの表情を検出し、ユーザに画像を表示する。
演算装置108は、有線通信又は無線通信を介してHMD102と通信してもよい。HMD102にて再生するための画像及び音声のデータ120は、演算装置108から送信可能である。HMD102はまた、ユーザの頭部の姿勢を示し、表情に関連付けられた撮影画像を含む情報110を演算装置108に送信する。
HMD102は、図2Cを参照して以下に詳細に示す通り、ユーザの頭部に装着される。HMD102は、数ある構成要素の中でも特に、1つ以上の2Dカメラ104と、1つ以上の深度カメラ105と、1つ以上のディスプレイ106とを備えてもよい。ディスプレイ106とそのオペレーティングモジュールの詳細については、説明を簡潔にするために、本明細書中では省略する。各2Dカメラ104は、ユーザの顔の目領域を撮影し、赤外線カメラ又はRGBカメラ(照明ランプを備えるか、備えないかを問わず)として実現されてもよい。各目領域は、目と眉とを含む。一方、深度カメラ105は、鼻、唇、頬、及び顎先のうちの少なくとも1つを含むユーザの顔の下部特徴について深度画像を生成する。
演算装置108は、以降、図7を参照して詳細に説明する通り、赤外線カメラ104及び深度カメラ105によって生成された画像を処理することにより、ユーザの表情を判定する。深度カメラ105を使用する代わりに、2D RGBカメラ又は2D赤外線(IR)カメラも使用することができる。
演算装置108は、HMD102とは別個のものとして図1に示されているが、この演算装置108は、HMD102の一部であってもよい。

ヘッドマウントディスプレイの例
図2Aは、一実施形態に係るHMD102の概略図である。HMD102は、主要本体202と、主要本体202から下の方へ伸びる垂直伸張部材204とを備える。主要本体202は、2Dカメラ104と、ディスプレイ106と、その他のセンサ(例えば、ジャイロスコープ)とを備えて設置される。
HMD102及び垂直伸張部材204は、深度カメラ105によって撮影されるユーザの顔の領域の調整を可能にする機構を介して連結されてもよい。垂直伸張部材の代わりに、水平に伸びるか、又は傾斜配向で伸びる部材も深度カメラ105を搭載するために使用されてよい。深度カメラ105は、(i)3D深度マップと、(ii)撮影領域の2Dカラー画像又は赤外線画像とを提供する。ユーザの顔の下部特徴を撮影するために深度カメラ105を使用することは、数ある理由の中でも特に、顔の下部特徴についての3Dジオメトリ情報を高精度に得ることができるという理由により、有利である。深度カメラ105を使用する代わりに、2Dカラーカメラもユーザの顔の下部特徴を撮影するために使用可能である。2Dカラーカメラで撮影されたカラー画像を演算装置108で処理することにより、顔の下部特徴について3Dジオメトリ情報を生成してもよい。
HMD102はまた、ユーザがHMD102をユーザの頭部に固定できるように、ストラップ212に取り付けられてもよい。
図2Aに示される通り、一対の2Dカメラ104が、主要本体202の正面壁部の上方隅部に配置されて、ユーザの顔のそれぞれの領域(すなわち、左目及び右目の領域)を撮影する。代替実施形態においては、一対の2DカメラをHMD102の側壁203に配置することができる。2Dカメラ104は、ディスプレイ106のすぐ隣に配置することもできる。
ディスプレイ106は2つの別個の表示モジュールを備えてもよく、そのうちのひとつは左側画像をユーザの左目の方に表示するもの、もう一つは右側画像をユーザの右目の方に表示するものである。2つのディスプレイ106は、物理的に離間してもよい。或いは、単一の表示モジュールが、左側画像及び右側画像を別々に表示するための2つの別個の表示領域に分けられてもよい。
図2Bは、一実施形態に係る、目と眉を含むユーザの顔220の目領域を表す画像を撮影する2Dカメラ104を示す概略図である。2Dカメラ104は、ユーザが装着しているときにユーザの顔に対向するHMD102の本体202に設置される。具体的には、2Dカメラ104は、ユーザの顔の片目又は両目の領域を撮影する。
赤外線カメラが、2Dカメラ104として使用されてもよい。目及び眉の周辺領域の画像を撮影するために赤外線カメラを使用することは、数ある理由の中でも特に、(i)赤外線カメラはユーザの肌に接触することなく顔の特徴を十分に撮影することができるという理由と、(ii)赤外線カメラは、HMD102がユーザによって装着されているときに外部の光が遮られることから生じ得る低照明条件の下で動作するという理由により、有利である。
一実施形態において、2Dカメラ104は、広角を撮影するために魚眼レンズを備えてもよい。2Dカメラからユーザの目及び眉までの距離が短い(通常、5センチメートル以内)ため、魚眼レンズを使用して目領域全体を撮影する。深度カメラ105も、広角を撮影するために魚眼レンズを備える。
図2Cは、一実施形態に係る、ユーザの顔220に対するHMD102の構成要素の配置を示す概略図である。図2CのHMD102は、左目領域を撮影するものと、右目領域を撮影するものとの一対の2Dカメラ104を有する。2Dカメラの中心軸244は、垂直面254に対して角度αを成す。角度αは、目領域を撮影するために30°〜45°の範囲内であってもよい。
図2Dは、他の実施形態に係るHMD102Bの概略図である。HMD102Bは、図2AのHMD102と同様であるが、ユーザの顔の下部の画像を撮影するためにカメラ105Bが取り付けられるマウント204Bを有する。マウント204Bは、図2Aの垂直伸張部材よりも短い。カメラ105Bは、深度カメラであってもよく、又は、RGB/グレースケールカメラであってもよい。カメラ105Bがユーザの顔の下部の画像をよりよく撮影できるように、1つ以上の赤外線又は可視光源(図示せず)もマウント204Bに取り付けられてもよい。代替実施形態では、HMD102は別個のマウント又は垂直伸張部材を備えないが、主要本体202に直接搭載されたカメラ105Bを有する。
図2Eは、他の実施形態に係るHMD102Cの概略図である。HMD102Cは、図2DのHMD102Bと同様であるが、マウント204Cに設置される立体カメラ105Bを有する。両方の立体カメラ105Bがユーザの顔の下部の画像を撮影する。撮影された画像は、演算装置108によって処理され、ユーザの表情を判定する。
図2Fは、一実施形態に係るHMD102Dの概略図である。HMD102Dは、図2EのHMD102Cと同様であるが、主要本体202に対して摺動可能なマウント222A及び222Bを有する。マウント222A及び222Bにはカメラ105Dが搭載され、それらはIRカメラ又はグレースケールカメラであってもよい。マウント222A及び222Bが主要本体202に対して摺動できるようにすることにより、マウント222A及び222Bの位置が、ユーザの顔の下部をよりよく撮影できるように調整されてもよい。いくつかの実施形態において、マウント222A及び222Bは、ユーザによって手動で移動される。他の実施形態においては、マウント222A及び222Bは、アクチュエータ(例えば、図示しないモータである)によって自動調整される。
図2Gは、一実施形態に係るHMD102Eの概略図である。HMD102Dは、単一の2Dカメラ104が主要本体202の中心に配置されることを除いて、図2AのHMD102と同様である。単一の2Dカメラ104は、図2Iを参照して以下に説明する通り、ユーザの顔の左目領域および右目領域を撮影する。
図2Hは、一実施形態に係るHMD102Fの概略図である。HMD102Fは、主要本体202が上の方へ突出した縁部233を有することを除いて、図2GのHMD102Eと同様である。上の方へ突出した縁部233は、ユーザの顔の目領域が、主要本体202の下に完全に包まれるのを可能とする。
図2Iは、図2GのHMD102E又は図2HのHMD102Fにおける単一の2Dカメラ104を使用して両側の目領域を撮影することを示す概略図である。2Dカメラ104で撮影される顔の領域を広げるために、2Dカメラ104において魚眼レンズが使用されてもよい。
図2Jは、一実施形態に係る、2つの別個の2Dカメラ104Jを使用して両側の目領域を撮影することを示す概略図である。図2Cの2Dカメラ104と異なり、2Dカメラ104Jは、ディスプレイ106の間に配置される。2Dカメラ104Jの中心軸247は、両方の2Dカメラ104Jが顔の目領域に対向するように、垂直面254に対して角度βをなす。2Dカメラ104Jをディスプレイ106の間に配置する多くの利点のうちの1つとして、HMDの寸法(特に、幅W)を小さくできることがあげられる。
図2Aから図2Jを参照して上述したHMDは、画像をそれぞれの目の方に表示する専用ディスプレイ106を使用するものとして説明したが、他の実施形態では、ディスプレイは、別のモバイルデバイス(例えば、スマートフォン)の表示装置として実現されてもよい。例えば、図2Kは、モバイルデバイス261を受容するスロット263を有するHMD102Gの概略図である。モバイルデバイス261が主要本体202のスロット263に挿入されて、モバイルデバイスの表示装置がHMD102Gのディスプレイとして機能してもよい。図2Kに示されるようなスロット263は、単なる例示であり、異なる構成のスロットも採用可能である。図2Kの実施形態において、ディスプレイ106は、演算装置108と同じように、モバイルデバイス261で実現される。

表情を判定する一例としての演算装置
図3は、一実施形態に係る、表情を判定するためにHMD102と接続された演算装置108を示すブロック図である。演算装置108は、数ある構成要素の中でも特に、メモリ302と、プロセッサ304と、HMDインタフェース306と、ディスプレイ308と、ユーザインタフェース310と、これらの構成要素を接続するバス301とを備えてもよい。演算装置108は、他の演算装置(図示せず)と通信するために、ネットワークインタフェース等の他の構成要素を含んでもよい。
メモリ302は、図4を参照して以下に詳細に説明する通り、ソフトウェアモジュールを記憶する非一時的コンピュータ可読記憶媒体である。メモリ302に記憶された命令は、プロセッサ304によって実行されることにより、表情検出に関連付けられたオペレーションと、検出された表情を組み込んだユーザのデジタル表現の生成とを実施する。
プロセッサ304は、メモリ302に記憶された種々の命令を実行し、演算装置108における他の構成要素のオペレーションを制御する。演算装置108は、1つを上回る数のプロセッサを備えてもよい。
HMDインタフェース306は、HMD102と通信するためのハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせである。HMDインタフェース306は、演算装置108がHMD102において再生するための画像及び音声のデータ120を送信できるようにし、また、ユーザの頭部の姿勢に関連付けられた情報110と、表情に関連付けられた撮影画像とをHMD102から受信することができる。HMDインタフェース306は、1つ以上の通信プロトコルに対応するものであってもよい。
ディスプレイ308は、画像をレンダリングしてユーザに提示するために使用される。これらの画像には、HMD102のオペレーションに関連付けられた情報が含まれてもよい。
ユーザインタフェース310は、ユーザが演算装置108と情報をやりとりできるようにするためのハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせである。ユーザインタフェース310は、ポインティングデバイス(例えば、マウス)及びキーボードを備えてもよい。
図4は、一実施形態に係る、演算装置108におけるソフトウェアモジュールのブロック図である。メモリ302は、数あるソフトウェア構成要素の中でも特に、オペレーティングシステム406と、表情検出モジュール410と、アプリケーションモジュール440とを記憶する。メモリ302はまた、図4には図示されない他の種々のソフトウェアモジュールも備えてもよい。
オペレーティングシステム406は、演算装置108において利用可能なリソースの管理を担うソフトウェアモジュールである。利用可能なオペレーティングシステムには、例えば、IOS、WINDOWS(登録商標)、LINUX、ANDROID(登録商標)、及びMAC OSが含まれてもよい。
表情検出モジュール410は、2Dカメラ104から受信した2D画像(例えば、赤外線画像)402と、深度カメラ105から受信した画像404とに基づいて、ユーザの表情を検出するソフトウェアモジュールである。画像404には、深度カメラ105によって生成された深度画像とカラー画像又はグレースケール画像との双方が含まれてもよい。表情検出モジュール410は、赤外線画像402と画像404とを処理することにより、ユーザの表情を示す表情(FE)パラメータ424を生成する。
表情検出モジュール410には、目及び眉追跡モジュール414と、顔下部追跡モジュール418と、FEパラメータ生成器422とを含むがこれに限定されないサブモジュールが含まれてもよい。目及び眉追跡モジュール414は、ランドマーク位置に基づき、2D画像402における瞳の中心と、目の輪郭と、眉の輪郭とを判定する。目及び眉追跡モジュール414は、瞳、目の輪郭、眉の輪郭のランドマークのアノテーションのついたトレーニング画像サンプルを用いて事前トレーニングされている。このようなアノテーションは、手動で実施されてもよい。図5A及び図5B中、例としてのランドマークが「X」点として示されている。
目及び眉追跡モジュール414は、追跡アルゴリズムを採用してもよい。追跡アルゴリズムは、当分野で周知である、例えば、(i)教師あり降下法(SDM)、(ii)変形可能モデルフィッティング、(iii)アクティブアピアランスモデリング、(iii)ディープラーニング技術を使用してもよい。目及び眉追跡モジュール414は、ユーザの目と眉とを追跡した結果として、目及び眉の位置及び形状を示すランドマーク位置415を生成する。魚眼レンズを使用して2D画像を撮影するとき、目及び眉追跡モジュール414は、追跡アルゴリズムの実行前に、画像を平坦化して、魚眼レンズの使用によって生じた2D画像中の歪みを除去してもよい。
同様に、顔下部追跡モジュール418は、画像404に基づき、ユーザの鼻、唇、顎先、頬、及び顎先と頬の周囲の顔のシルエットのうちの少なくとも1つの姿勢を追跡する。下部追跡モジュール418は、ユーザの顔の下部のランドマークを追跡するために、当分野において周知である、例えば、(i)教師あり降下法(SDM)、(ii)変形可能モデルフィッティング、(iii)アクティブアピアランスモデリング、(iv)ディープマシンラーニングのうちの1つを使用して、追跡アルゴリズムも使用してもよい。ユーザの顔の下部におけるランドマークは、例えば、図5Cに示されている。顔下部追跡モジュール418は、ユーザの顔の下部におけるランドマークを追跡することにより、鼻、唇、顎先、及び頬のうちの少なくとも1つを含む顔の下部特徴のランドマーク位置419を生成する。顎先及び頬の周囲のシルエットを検出することの多くの利点のうちの1つとして、顎及び頬の動きを明確に撮影できることがあげられる。それはまた、カメラに対する頭部位置のロバストな追跡にも役立ち、これは唇追跡では容易なことではない。
FEパラメータ生成器422は、ランドマーク位置415及び419と、深度カメラからの3D深度マップとを受信する。FEパラメータ生成器422は、図6を参照して以下に詳細に説明する通り、キャリブレーションプロセス中に得られる個人化3D表情モデルのモデルを記憶する。FEパラメータ生成器422はまた、図7を参照して以下に詳細に説明する通り、ランドマーク位置415及び419と3D深度マップを3D表情モデルのモデルにフィッティングすることにより、HMD102を装着するユーザの表情を総合的に示す表情(FE)パラメータ424を抽出する。
アプリケーションモジュール440は、FEパラメータ424の形式での検出表情に基づき、種々のオペレーションを実施する。アプリケーションモジュール440には、数ある要素の中でも特に、マッピングモジュール442と、グラフィック表現ストレージ446と、仮想現実(VR)/拡張現実(AR)モジュール448とが含まれてもよい。グラフィック表現ストレージ446は、ユーザの1つ以上のデジタル表現を記憶する。マッピングモジュール442は、グラフィック表現ストレージ446からユーザのデジタル表現を検索し、受信されたユーザのデジタル表現にFEパラメータ424(例えば、ブレンドシェイプウェイト値)をリアルタイムで転写することにより、VR/ARモジュール448において使用するデータを生成する。
VR/ARモジュール448は、FEパラメータ424(例えば、ブレンドシェイプ)に従って、又は、転写されたブレンドシェイプウェイトとユーザのデジタル表現の表現パラメータ空間との間のセマンティック・マッピング関数に基づき、ユーザの3Dグラフィック表現を生成してもよい。VR/ARモジュール448は、表情に基づく、例えば、ソーシャルネットワーキングサービス、ゲーム、オンラインショッピング、ビデオ通話、及びヒューマン・マシン・インターフェースなどの種々のサービスを実施するソフトウェアモジュールの一部であってもよく、又はこれらと連携して動作してもよい。
表情検出モジュール410及びアプリケーションモジュール440がソフトウェアモジュールとして実現されるものとして図4に示されているが、これらのモジュールは、集積回路(IC)構成要素として実現されてもよい。

表情検出プロセス
図6は、一実施形態に係る、ユーザのデジタル表現における表情を使用するプロセス全体を示すフローチャートである。まず、ユーザがHMD102を装着した後、キャリブレーションが実施される(606)。一実施形態において、オンラインキャリブレーションプロセスを使用して、HMD102のユーザのための個人化追跡モデルを構築する。キャリブレーション中、2Dカメラ104及び/又は深度カメラ105が複数の深度画像及び2Dカラー画像又は赤外線画像を撮影している間の所定時間(例えば、数秒間)、ユーザは無表情の顔ポーズを保つ。
表情検出モジュール410は、キャリブレーションプロセスの一部として、これらの画像を受信し、3D体積測定モデル作成プロセスを適用することにより、関連付けられた顔色情報を備えた、顔の下半分についての平滑化3D体積測定顔メッシュを作成する。平滑化3D体積測定顔メッシュを作成するプロセスは、当分野において周知である(例えば、Richard A. Newcombeらによる「KinectFusion:Real−time Dense Surface Mapping and Tracking」Mixed and augmented reality(ISMAR)、2011年第10回IEEE国際シンポジウム、2011年を参照のこと。その内容全体を参照としてここに援用する)。表情検出モジュール410はまた、目領域画像と顔下部画像とに2Dランドマーク検出を実施することにより、目、目のライン、眉のライン、唇のライン、鼻のライン、及び顔のシルエット(例えば、顎先及び頬のライン)の中心及び周囲を探し出す。表情検出モジュール410は、複数の撮影画像に亘って2Dランドマークを平均化することにより、2Dランドマーク検出においてノイズとなるアーティファクトを低減する。FEパラメータ生成器422は、3D体積測定顔メッシュと2D画像における2D顔ランドマーク位置とを使用して、(i)テンプレート無表情モデルの剛性ポーズを推定した後、(ii)無表情の線形主成分分析(PCA)モデルを歪ませて、体積測定メッシュと2Dランドマークとをフィットさせることにより、個人化無表情モデルを構築する。
具体的には、FEパラメータ生成器422は、個人化無表情モデルMの線形PCAモーフィングバージョンを利用し、以下の式を使用して、ワールド座標における顔メッシュWを表す。
Figure 0006742405
式中、wはモーフィングモデルに対する線形重みづけベクトルを表し、Rは回転行列であり、tは変換ベクトルである。FEパラメータ生成器422は、以下のエネルギー項を最小化することにより、反復的にw及び(R、t)を求める。
Figure 0006742405
式中、α、β、γは、フィッティング項についての重みづけを表す。Cplは、式(4)に規定される通り、体積測定メッシュVと顔メッシュWとの間の点−面誤差を最小化するためのフィッティング項である。Cは、式(5)に規定される通り、口、鼻、及びシルエットの2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Cは、式(6)に規定の通り、右目領域の2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Cは、式(7)に規定される通り、左目領域の2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Cplは、以下の通り、規定される。
Figure 0006742405
式中、νは顔メッシュWのi番目の頂点であり、は、体積測定メッシュV上のνの最も近い点であり、nは、体積測定メッシュV上のνにおける面法線である。Cは、以下の通り、規定される。
Figure 0006742405
式中、uは、追跡された2D顔特徴の位置であり、π(ν)は、ユーザの口、鼻、及びシルエットの周辺のカメラ空間への対応メッシュ頂点νの投影である。Cは、以下の通り、規定される。
Figure 0006742405
式中、uは、追跡された2D顔特徴の位置であり、π(ν)は、対応するメッシュ頂点νの右目領域のカメラ空間への投影である。Cは、以下の通り、規定される。
Figure 0006742405
式中、uは、追跡された2D顔特徴の位置であり、π(ν)は、対応するメッシュ頂点νの左目領域のカメラ空間への投影である。
個人化無表情メッシュが構築された後、当分野で周知の通り、テンプレートフェイスの表現ブレンドシェイプからの変形を、変形転写を用いて転写することにより、個人化表情モデル(ブレンドシェイプモデル)が得られる。変形転写を用いて表現ブレンドシェイプからの変形を転写する一例としての方法については、例えば、Robert W.Sumnerらによる「Deformation transfer for triangle meshes」ACM Transactions on Graphics(TOG)23.3(2004年)399〜405頁に記載されている。或いは、顔のジオメトリの広がり、同一性、及び表情をマルチランクデータテンソルに符号化する双線形顔モデルを適用することにより、個人化表情モデルを得ることができる。双線形顔モデルを適用して個人化表情モデルを構築する一例としての方法は、例えば、Chen Caoらによる「Displaced dynamic expression regression for real−time facial tracking and animation」ACM Transactions on Graphics(TOG)33.4(2014年)に記載されている。この内容全体を参照としてここに援用する。
右目及び左目両方にひとつのカメラだけを使用すれば、C及びCは、1つの式に組み合わせられる。
キャリブレーションを実施した後、図7を参照して以下に詳細に説明する通り、ユーザの顔の特徴の2D画像及び深度画像を追跡及び処理することにより、ユーザの表情を検出する(610)。
その後、ユーザのグラフィック表現に組み込むために、検出された表情をユーザのデジタル表現に適用する(616)。生成されたグラフィック表現は、演算装置108又はネットワーク(例えば、インターネット)を通じて演算装置108と通信する遠隔演算装置により、仮想現実又は拡張現実に表示されてもよい。
図7は、一実施形態に係る、表情検出プロセスを示すフローチャートである。まず、図4を参照して以上に詳細に説明した通り、目領域に関連付けられたランドマーク位置422を2D画像から判定する(710)。図4を参照して以上に詳細に説明した通り、IR画像又はRGB画像及び/又は3Dカメラの深度画像を処理することにより、ユーザの顔の下部特徴に関連付けられたランドマーク位置を生成する(720)。
ランドマーク位置(及び任意で3D深度マップデータ)を使用することにより、ユーザの顔全体に対するFEパラメータ424を生成する(730)。一実施形態において、FEパラメータ生成器422は、ランドマーク位置415に基づき、顎の開放、笑み、及び息を吹く様子等の表現を示すように、FEパラメータ424の一部としてブレンドシェイプパラメータを生成する一方で、ランドマーク位置419に基づき、目の開閉及び眉の上下を示すように、FEパラメータ424の一部としてブレンドシェイプパラメータを生成する。
FEパラメータ424を演算するために、追跡されたランドマーク位置415が入力制約として組み合わせられ、この入力制約に基づき、FE表現パラメータにフィッティングが実施される。フィッティングオペレーションは、2つの部分からなってもよい。すなわち、(i)剛性安定化と、(ii)表現パラメータ追跡とである。最適化オペレーションは、剛性ポーズ値とパラメータ値との双方が収束するまで、剛性安定化と表現パラメータ追跡の間で選択的に実施されてもよい。
剛性安定化については、顔の剛性ポーズをカメラに対して動かすことができる。ユーザが表情を作るとき、の筋肉がヘッドセットを前方且つ上方に押し上げ、カメラに対する相対的な顔の剛性ポーズを経時的に変化させる。ポーズがロックされたとき、剛性的な動きにより、表現パラメータ追跡にアーティファクトを生じるため、無関係な剛性的動きの因子により、不正確なパラメータ値が得られることがある。さらに、ユーザが素早く頭部を動かすとき、ヘッドセットが顔にしっかり装着されていたとしても、顔に対して滑り落ちてしまうことがある。このような状況により、頭部ポーズが固定されているという前提が無効になり、表現追跡にアーティファクトを生じる。ヘッドセットに対する頭部の位置のずれを調整するために、剛性安定化が実施され、ヘッドセット上に剛性固定されたカメラに対する頭部の相対的ポーズを演算する。

一実施形態において、頭部の初期剛性ポーズを判定するために、キャリブレーション段階において剛性反復最近接点(ICP)アルゴリズムが使用される。しかしながら、追跡モードへの切り替え後、初期剛性ポーズは、ヘッドセットに対する頭部の相対的な動きを調整するように限定的範囲での摂動を許容されたアンカーとして使用される。剛性ICPはまた、特に、ユーザがHMDを外し、それを再び装着した後に、HMDからの頭部ポーズのオフセットを考慮して頭部の初期剛性ポーズを判定するために、追跡モードの開始時にいくつかの画像フレームに対して実施されてもよい。その後、剛性ICPを再び実施することにより、剛性ポーズが再初期化される。初期剛性ポーズが判定された後、追跡されたランドマーク位置と入力された深度マップとを入力制約として使用しつつ、回転のヨー、ロール、ピッチと変換x、y、zの値が初期剛性ポーズの所与の限度を超えて外れることがないように、制約を追加して剛性ICPが実施されてもよい。
FEパラメータ424を得るために、ランドマーク位置415及び419(及び3Dカメラが使用される場合には深度マップ)に基づき、個人化追跡モデルにフィッティングが実施される。キャリブレーションプロセスのように、撮影カメラは、ヘッドセットに剛性的に固定されると想定され、それらの相対的ポーズ(すなわち、回転及び変換)におけるパラメータが既知であると想定される。FEパラメータ生成器422は、ランドマーク位置415及び419(及び3Dカメラが使用される場合には深度マップ)に基づき、FE表現パラメータを取得するために、フィッティングオペレーションを実施してもよい。
個人化線形モデルは、個人化無表情モデルMから導き出された一組の表情形状(例えば、笑顔と顎の開放)である。一実施形態において、FEパラメータ生成器422は、フィッティング最適化を実施するためのワールド座標における式(8)に示される通り、個人化線形表現モデル(すなわち、ブレンドシェイプモデル)Bを利用して顔メッシュWを表す。
Figure 0006742405
式中、eはブレンドシェイプモデルのための線形重みづけベクトルであり、Rは回転行列であり、tは剛性安定化ステップから演算された変換ベクトルである。FEパラメータ生成器422における追跡プロセスでは、以下のエネルギー項を最小化することにより、最適なeを反復的にみつける。
Figure 0006742405
式中、α、β、γはフィッティング項についての重みづけを表し、C plは、式(10)で規定される通り、深度マップと顔メッシュWとの間の点−面誤差を最小化するフィッティング項である。C は、式(11)で規定される通り、口、鼻、シルエットの2D顔特徴ランドマークと顔のメッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C は、式(12)で規定される通り、右目領域の2D顔特徴ランドマークと顔メッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C は、式(13)で規定される通り、左目領域の2D顔特徴ランドマークと顔メッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C plは、以下の通り、規定される。
Figure 0006742405
式中、νは顔メッシュWのi番目の頂点であり、pはνと同一のカメラ空間座標である深度マップ上の点であり、nはpにおける面法線である。C は、以下の通り、規定される。
Figure 0006742405
式中、uは追跡された2D顔特徴の位置であり、π(ν)は対応メッシュ頂点νの口カメラ空間への投影である。C は、以下の通り、規定される。
Figure 0006742405
式中、uは追跡された2D顔特徴の位置であり、π(ν)は対応メッシュ頂点νの右目領域のカメラ空間への投影である。C は、以下の通り、規定される。
Figure 0006742405
式中、uは追跡された2D顔特徴の位置であり、π(ν)は対応メッシュ頂点νの左目領域のカメラ空間への投影である。右目及び左目の双方に対して1つのみのカメラが使用される場合、C及びCは、1つの式に組み合わせられる。
一実施形態において、FEパラメータ生成器422は、検出されたユーザの表情を総合的に示すFEパラメータを追跡プロセスの結果として生成しながら、式(8)中、eで表されるブレンドシェイプウェイト値を出力する。
1つ以上の実施形態において、図7のステップは、リアルタイムで実施され、カメラから受信した画像402及び404の各セットを処理してもよい。さらに、図7に示されるステップ及びステップのシーケンスは、単なる例示である。例えば、ランドマーク位置を判定するステップ710と、3D深度マップデータを判定するステップ720とは、逆の順序で実施することもでき、また並列に実施することもできる。
本明細書中、本発明の特定の実施形態及び適用について図示及び説明したが、本発明は、本明細書に開示の精密な構成及び構成要素に限定されるものでなく、本発明の方法及び装置の配置、オペレーション、及び詳細において、添付のクレームによって規定される本発明の主旨及び範囲から逸脱することなく、種々の修正、変更、及び変化が加えられてもよいことが理解されなければならない。

Claims (17)

  1. 表情検出方法であって、
    ヘッドマウントディスプレイの主要本体上の第1画像撮影装置により、ユーザの目領域を含む前記ユーザの顔の上部の第1画像を撮影することと、
    前記ヘッドマウントディスプレイの前記主要本体から前記ユーザの顔の下部に向かって下方に伸びる伸張部材上の第2画像撮影装置により、前記ユーザの顔の前記下部を含む前記ユーザの第2画像を撮影することと、
    前記第1画像及び前記第2画像を処理することにより、前記ユーザの表情を表す表情パラメータを抽出することと、を備え、
    前記第1画像及び前記第2画像の処理では、剛性安定化を実行し、前記第1画像撮影装置及び前記第2画像撮影装置に対する前記ユーザの顔の相対的なポーズを決定する方法。
  2. 前記第1画像撮影装置は、一対の赤外線カメラを備え、前記第2画像撮影装置は、深度カメラ、カラーカメラ、赤外線カメラ、又は2つの立体カメラ、のうちの1つを備える請求項1に記載の方法。
  3. 前記第1画像及び前記第2画像を処理することは、
    前記第1画像から、前記ユーザの目及び前記ユーザの眉に関連付けられたランドマーク位置を検出することと、
    前記第2画像から、前記ユーザの顔の下部に関連付けられたランドマーク位置を検出することと、を備える請求項1に記載の方法。
  4. 前記抽出された表情パラメータを前記ユーザのデジタル表現に適用することにより、前記ユーザのグラフィック表現を生成することをさらに備える請求項1に記載の方法。
  5. 前記ユーザの無表情を表すキャリブレーション画像を撮影および処理することにより、キャリブレーションを実施することをさらに備える請求項1に記載の方法。
  6. 前記キャリブレーションを実施することは、
    前記キャリブレーション画像に基づき、個人化無表情メッシュを生成することと、
    変形転写技術を前記個人化無表情メッシュに適用することにより、個人化追跡モデルを構築することと、を備え、
    前記第1画像及び前記第2画像の前記処理は、前記個人化追跡モデルに基づき、少なくとも1つのブレントシェイプモデルを前記第1画像及び前記第2画像におけるランドマーク位置にフィッティングすることにより、前記表情パラメータを得ることを備える請求項5に記載の方法。
  7. 前記第1画像及び前記第2画像の前記処理は、リアルタイムで実施される請求項6に記載の方法。
  8. ヘッドマウントディスプレイであって、
    目領域を含むユーザの顔の上部を示す第1画像を撮影するように構成された本体上の第1画像撮影装置と、
    前記ユーザの顔の下部を示す第2画像を撮影するように構成され、前記本体から下方に延伸した伸張部材又は前記本体に搭載された第2画像撮影装置と、
    剛性安定化を実施し、前記第1画像撮影装置及び前記第2画像撮影装置に対するユーザの顔の相対的なポーズを決定することで生成された画像を前記ユーザに表示するように構成された前記本体上の表示装置と、
    前記本体と、
    を備えるヘッドマウントディスプレイユニット。
  9. 前記第1画像撮影装置は、一対の赤外線カメラを備え、前記第2画像撮影装置は、深度カメラ、カラーカメラ、赤外線カメラ、又は2つの立体カメラのうちの1つを備える請求項8に記載のヘッドマウントディスプレイユニット。
  10. 摺動可能なマウントをさらに備える請求項8に記載のヘッドマウントディスプレイユニット。
  11. 前記表示装置は、第1ディスプレイ及び第2ディスプレイを備え、前記第1ディスプレイは、左側画像を前記ユーザの左目の方に表示するように構成され、前記第2ディスプレイは、右側画像を前記ユーザの右目の方に表示するように構成される請求項8に記載のヘッドマウントディスプレイユニット。
  12. 前記第1画像撮影装置は、一対のカメラを備え、前記カメラは各々、前記本体の両側に設置される請求項8に記載のヘッドマウントディスプレイユニット。
  13. 前記第2画像撮影装置は、前記本体に直接搭載される請求項8に記載のヘッドマウントディスプレイユニット。
  14. 前記本体は、前記目領域を包含する膨らんだ上部を有する請求項8に記載のヘッドマウントディスプレイユニット。
  15. 前記表示装置は、一対の別個の表示部を備え、前記第1画像撮影装置は、前記一対の表示部の間に2つのカメラを備える請求項8に記載のヘッドマウントディスプレイユニット。
  16. 仮想現実又は拡張現実システムであって、
    目領域を含むユーザの顔の上部の第1画像を撮影するように構成された第1画像撮影装置と、
    前記第1画像撮影装置の下方位置に設けられ、前記ユーザの顔の下部の第2画像を撮影するように構成された第2画像撮影装置と、
    画像を前記ユーザに表示するように構成された表示装置と、
    前記第1画像撮影装置、及び前記表示装置を搭載するように構成された本体と、
    前記本体から前記ユーザの顔の前記下部に向かって伸びた伸張部材と、
    を備え、
    前記第2画像撮影装置は前記本体又は前記伸張部材に搭載されるヘッドマウントディスプレイユニットと、
    前記ヘッドマウントディスプレイユニットに通信可能に連結される演算装置と、
    を備え、
    前記演算装置は、
    前記ヘッドマウントディスプレイユニットから前記第1画像及び前記第2画像を受信し、
    剛性安定化に基づき個人化無表情メッシュを生成し、前記個人化無表情メッシュに変形転写技術を適用することで個人化追跡モデルを構築することにより、キャリブレーションを実施し、
    前記個人化追跡モデルに基づき、前記第1画像及び前記第2画像内のランドマーク位置に少なくともブレンドシェイプモデルをフィッティングすることにより、前記第1画像及び前記第2画像を処理して、前記ユーザの表情を表す表情パラメータを得る仮想現実又は拡張現実システム。
  17. 前記演算装置は、
    前記第1画像から、前記ユーザの目及び前記ユーザの眉に関連付けられたランドマーク位置を検出し、
    前記第2画像から、前記ユーザの顔の前記下部に関連付けられたランドマーク位置を検出するように構成される請求項16に記載の仮想現実又は拡張現実システム。
JP2018517321A 2015-09-29 2016-09-26 表情検出機能を備えたヘッドマウントディスプレイ Active JP6742405B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562234478P 2015-09-29 2015-09-29
US62/234,478 2015-09-29
US201662337261P 2016-05-16 2016-05-16
US62/337,261 2016-05-16
PCT/US2016/053821 WO2017058733A1 (en) 2015-09-29 2016-09-26 Head-mounted display with facial expression detecting capability

Publications (2)

Publication Number Publication Date
JP2018538593A JP2018538593A (ja) 2018-12-27
JP6742405B2 true JP6742405B2 (ja) 2020-08-19

Family

ID=58406374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018517321A Active JP6742405B2 (ja) 2015-09-29 2016-09-26 表情検出機能を備えたヘッドマウントディスプレイ

Country Status (6)

Country Link
US (2) US10089522B2 (ja)
JP (1) JP6742405B2 (ja)
KR (1) KR102136241B1 (ja)
CN (1) CN108140105A (ja)
DE (1) DE112016004437T5 (ja)
WO (1) WO2017058733A1 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3186787A1 (en) * 2014-08-29 2017-07-05 Thomson Licensing Method and device for registering an image to a model
WO2016063166A1 (en) * 2014-10-21 2016-04-28 Koninklijke Philips N.V. Augmented reality patient interface device fitting apparatus
US10165949B2 (en) * 2015-06-14 2019-01-01 Facense Ltd. Estimating posture using head-mounted cameras
US10276210B2 (en) * 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
JP2017097645A (ja) * 2015-11-25 2017-06-01 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10684674B2 (en) * 2016-04-01 2020-06-16 Facebook Technologies, Llc Tracking portions of a user's face uncovered by a head mounted display worn by the user
JP2017202038A (ja) * 2016-05-10 2017-11-16 富士通株式会社 判別装置、判別方法、および判別プログラム
JP6913164B2 (ja) * 2016-11-11 2021-08-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. 完全な顔画像の眼球周囲およびオーディオ合成
US11368664B2 (en) * 2017-01-20 2022-06-21 Sony Corporation Information processing apparatus, information processing method, and program
US11042729B2 (en) * 2017-05-01 2021-06-22 Google Llc Classifying facial expressions using eye-tracking cameras
US10636193B1 (en) * 2017-06-29 2020-04-28 Facebook Technologies, Llc Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display
US10636192B1 (en) 2017-06-30 2020-04-28 Facebook Technologies, Llc Generating a graphical representation of a face of a user wearing a head mounted display
CN107590430A (zh) * 2017-07-26 2018-01-16 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
CN107886558A (zh) * 2017-11-13 2018-04-06 电子科技大学 一种基于RealSense的人脸表情动画驱动方法
JP2019106045A (ja) * 2017-12-13 2019-06-27 キヤノン株式会社 画像処理装置、方法及びプログラム
US10586370B2 (en) * 2018-01-08 2020-03-10 Facebook Technologies, Llc Systems and methods for rendering avatars with deep appearance models
US11228709B2 (en) 2018-02-06 2022-01-18 Hewlett-Packard Development Company, L.P. Constructing images of users' faces by stitching non-overlapping images
CN108256505A (zh) * 2018-02-12 2018-07-06 腾讯科技(深圳)有限公司 图像处理方法及装置
WO2019162842A1 (en) * 2018-02-20 2019-08-29 Hike Private Limited A system and a method for customizing an image based on facial expressions
CN108446609B (zh) * 2018-03-02 2022-03-11 南京邮电大学 一种基于生成对抗网络的多角度面部表情识别方法
CN112106066A (zh) * 2018-03-16 2020-12-18 奇跃公司 根据眼睛跟踪相机的面部表情
WO2019209265A1 (en) * 2018-04-24 2019-10-31 Hewlett-Packard Development Company, L.P. Animated gazes on head mounted displays
US10650563B2 (en) 2018-07-26 2020-05-12 BinaryVR, Inc. Tongue position tracking for facial animation
CN110866864A (zh) 2018-08-27 2020-03-06 阿里巴巴集团控股有限公司 人脸姿态估计/三维人脸重构方法、装置及电子设备
TW202014992A (zh) 2018-10-08 2020-04-16 財團法人資訊工業策進會 虛擬臉部模型之表情擬真系統及方法
CN111127537A (zh) 2018-10-29 2020-05-08 托比股份公司 用于检测头戴式装置中的阴影的方法和装置
US10529113B1 (en) * 2019-01-04 2020-01-07 Facebook Technologies, Llc Generating graphical representation of facial expressions of a user wearing a head mounted display accounting for previously captured images of the user's facial expressions
US20220128813A1 (en) * 2019-06-07 2022-04-28 Hewlett-Packard Development Company, L.P. Eye movement controls in extended reality
US11301677B2 (en) * 2019-06-14 2022-04-12 Tobil AB Deep learning for three dimensional (3D) gaze prediction
US10885693B1 (en) * 2019-06-21 2021-01-05 Facebook Technologies, Llc Animating avatars from headset cameras
EP3973697A4 (en) 2019-07-26 2023-03-15 Hewlett-Packard Development Company, L.P. CHANGING STRUCTURED LIGHT PROJECTED BASED ON IDENTIFIED POINTS IN A CAPTURED IMAGE
JP7295045B2 (ja) * 2020-01-16 2023-06-20 株式会社コロプラ プログラム、コンピュータが実行する方法及びコンピュータ
WO2021187647A1 (ko) * 2020-03-20 2021-09-23 라인플러스 주식회사 가상 공간에서 사용자의 동작을 따라 하는 아바타를 표현하는 방법 및 시스템
EP4150520A4 (en) * 2020-05-15 2024-05-22 Univ Cornell WEARABLE DEVICES FOR FACIAL EXPRESSION RECOGNITION
CN111709302B (zh) * 2020-05-21 2023-08-25 青岛小鸟看看科技有限公司 人脸表情检测方法、装置、头戴显示设备及存储介质
KR102662884B1 (ko) * 2020-05-21 2024-05-03 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 사용자 상호작용 방법, 장치, 디바이스 및 매체
CN111885343B (zh) * 2020-07-31 2022-06-14 中国工商银行股份有限公司 特征处理方法及装置、电子设备和可读存储介质
CN114125193A (zh) * 2020-08-31 2022-03-01 安霸国际有限合伙企业 使用具有结构光的rgb-ir传感器得到无污染视频流的计时机构
US20230368574A1 (en) * 2020-10-02 2023-11-16 Hewlett-Packard Development Company, L.P. User identification via extended reality image capture
US20230408830A1 (en) * 2020-10-30 2023-12-21 Hewlett-Packard Development Company, L.P. Head mounted display assembly
WO2022093278A1 (en) * 2020-10-30 2022-05-05 Hewlett-Packard Development Company, L.P. A head mounted display assembly
US11644890B2 (en) * 2021-02-11 2023-05-09 Qualcomm Incorporated Image capturing in extended reality environments
US11614345B2 (en) 2021-06-16 2023-03-28 Microsoft Technology Licensing, Llc Surface sensing via resonant sensor
WO2022271499A1 (en) * 2021-06-25 2022-12-29 Innopeak Technology, Inc. Methods and systems for depth estimation using fisheye cameras
US11977979B2 (en) * 2021-07-23 2024-05-07 Qualcomm Incorporated Adaptive bounding for three-dimensional morphable models
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US11673054B2 (en) 2021-09-07 2023-06-13 Snap Inc. Controlling AR games on fashion items
US11900506B2 (en) * 2021-09-09 2024-02-13 Snap Inc. Controlling interactive fashion based on facial expressions
US11734866B2 (en) 2021-09-13 2023-08-22 Snap Inc. Controlling interactive fashion based on voice
US11636662B2 (en) 2021-09-30 2023-04-25 Snap Inc. Body normal network light and rendering control
US11983826B2 (en) 2021-09-30 2024-05-14 Snap Inc. 3D upper garment tracking
US11651572B2 (en) 2021-10-11 2023-05-16 Snap Inc. Light and rendering of garments
US20230266589A1 (en) * 2022-02-23 2023-08-24 Qualcomm Incorporated Adjustable camera system
US20240029331A1 (en) * 2022-07-22 2024-01-25 Meta Platforms Technologies, Llc Expression transfer to stylized avatars
GB2621868A (en) * 2022-08-25 2024-02-28 Sony Interactive Entertainment Inc An image processing method, device and computer program
CN116704572B (zh) * 2022-12-30 2024-05-28 荣耀终端有限公司 一种基于深度摄像头的眼动追踪方法和装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01196366A (ja) * 1988-02-02 1989-08-08 Mitsubishi Electric Corp 印字ヘッド制御装置
KR200145873Y1 (ko) * 1996-12-30 1999-06-15 전주범 얼굴 표정 추출을 위한 헤드폰형 카메라 마이크
US6121953A (en) * 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
JP3771989B2 (ja) * 1997-03-24 2006-05-10 オリンパス株式会社 画像音声通信システムおよびテレビ電話送受信方法
CA2307877C (en) * 1997-10-30 2005-08-30 The Microoptical Corporation Eyeglass interface system
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US7949616B2 (en) * 2004-06-01 2011-05-24 George Samuel Levy Telepresence by human-assisted remote controlled devices and robots
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
JP5362357B2 (ja) * 2005-08-26 2013-12-11 ソニー株式会社 顔の動きのデータの撮影及び処理
US7606392B2 (en) * 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
JP4756589B2 (ja) * 2005-12-07 2011-08-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
TWI365416B (en) * 2007-02-16 2012-06-01 Ind Tech Res Inst Method of emotion recognition and learning new identification information
US9390516B2 (en) * 2008-09-29 2016-07-12 Two Pic Mc Llc Asynchronous streaming of data for validation
KR101527408B1 (ko) * 2008-11-04 2015-06-17 삼성전자주식회사 얼굴 표정 검출 방법 및 시스템
JP5446572B2 (ja) 2009-08-12 2014-03-19 学校法人近畿大学 画像生成システム、制御プログラム、及び記録媒体
HU0900696D0 (en) * 2009-11-05 2009-12-28 Holakovszky Laszlo Binocular display device
KR101708682B1 (ko) * 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
EP2613555A3 (en) * 2012-01-06 2014-04-30 LG Electronics, Inc. Mobile terminal with eye movement sensor and grip pattern sensor to control streaming of contents
US9679215B2 (en) * 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
CN103093490B (zh) * 2013-02-02 2015-08-26 浙江大学 基于单个视频摄像机的实时人脸动画方法
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US9104907B2 (en) * 2013-07-17 2015-08-11 Emotient, Inc. Head-pose invariant recognition of facial expressions
KR101821284B1 (ko) * 2013-08-22 2018-01-23 비스포크, 인코포레이티드 커스텀 제품을 생성하기 위한 방법 및 시스템
US9317954B2 (en) * 2013-09-23 2016-04-19 Lucasfilm Entertainment Company Ltd. Real-time performance capture with on-the-fly correctives
US9477878B2 (en) * 2014-01-28 2016-10-25 Disney Enterprises, Inc. Rigid stabilization of facial expressions
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
CN104778750B (zh) * 2015-04-13 2018-12-18 北京迪生数字娱乐科技股份有限公司 一种面部表情捕捉系统及实现方法
US9600742B2 (en) * 2015-05-05 2017-03-21 Lucasfilm Entertainment Company Ltd. Determining control values of an animation model using performance capture
JP6518134B2 (ja) * 2015-05-27 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント 眼前装着型表示装置

Also Published As

Publication number Publication date
US20170091535A1 (en) 2017-03-30
US20180365484A1 (en) 2018-12-20
KR20180112756A (ko) 2018-10-12
DE112016004437T5 (de) 2018-07-05
CN108140105A (zh) 2018-06-08
KR102136241B1 (ko) 2020-07-22
WO2017058733A1 (en) 2017-04-06
US10089522B2 (en) 2018-10-02
JP2018538593A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6742405B2 (ja) 表情検出機能を備えたヘッドマウントディスプレイ
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
US9348950B2 (en) Perceptually guided capture and stylization of 3D human figures
CA3003550C (en) Real-time visual feedback for user positioning with respect to a camera and a display
JP5632100B2 (ja) 表情出力装置及び表情出力方法
EP3274916B1 (en) Automated three dimensional model generation
CN107111753B (zh) 用于注视跟踪模型的注视检测偏移
JP4950787B2 (ja) 画像処理装置及びその方法
WO2009091029A1 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
CN106997618A (zh) 一种虚拟现实与真实场景融合的方法
JP2008194146A (ja) 視線検出装置及びその方法
JP2011053942A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2019046239A (ja) 画像処理装置、画像処理方法、プログラム及び合成用画像データ
JP4659722B2 (ja) 人体特定領域抽出・判定装置、人体特定領域抽出・判定方法、人体特定領域抽出・判定プログラム
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP2000268161A (ja) 実時間表情検出装置
WO2020263277A1 (en) Landmark temporal smoothing
CN110858095A (zh) 可由头部操控的电子装置与其操作方法
CN116547719A (zh) 传感器仿真
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
JP2021022185A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
JP2016062184A (ja) 動画像生成システム、動画像生成装置、動画像生成方法、及びコンピュータプログラム
JP2014099077A (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6742405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250