JP2022009208A - ウェアラブルデバイスによる顔モデル捕捉 - Google Patents
ウェアラブルデバイスによる顔モデル捕捉 Download PDFInfo
- Publication number
- JP2022009208A JP2022009208A JP2021170260A JP2021170260A JP2022009208A JP 2022009208 A JP2022009208 A JP 2022009208A JP 2021170260 A JP2021170260 A JP 2021170260A JP 2021170260 A JP2021170260 A JP 2021170260A JP 2022009208 A JP2022009208 A JP 2022009208A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- face
- eye camera
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 142
- 210000001508 eye Anatomy 0.000 claims description 252
- 238000003384 imaging method Methods 0.000 claims description 126
- 238000004422 calculation algorithm Methods 0.000 claims description 115
- 230000033001 locomotion Effects 0.000 claims description 41
- 210000003128 head Anatomy 0.000 claims description 37
- 230000001133 acceleration Effects 0.000 claims description 33
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 11
- 238000009530 blood pressure measurement Methods 0.000 claims 1
- 230000004438 eyesight Effects 0.000 abstract description 11
- 230000001815 facial effect Effects 0.000 description 49
- 230000003287 optical effect Effects 0.000 description 45
- 230000008569 process Effects 0.000 description 40
- 238000012545 processing Methods 0.000 description 29
- 210000001747 pupil Anatomy 0.000 description 27
- 210000000695 crystalline len Anatomy 0.000 description 21
- 230000004308 accommodation Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000013507 mapping Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000003190 augmentative effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 239000000835 fiber Substances 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 238000000926 separation method Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000035807 sensation Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 230000002730 additional effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 206010014970 Ephelides Diseases 0.000 description 1
- 208000001692 Esotropia Diseases 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 208000003351 Melanosis Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000036410 touch Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B27/0103—Head-up displays characterised by optical features comprising holographic elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B27/0103—Head-up displays characterised by optical features comprising holographic elements
- G02B2027/0105—Holograms with particular structures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
- G02B2027/0174—Head mounted characterised by optical features holographic
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Abstract
Description
本願は、米国仮出願第62/400,907号(2016年9月28日出願、名称「FACE MODEL CAPTURE BY AN AUGMENTED REALITY DEVICE」)に対する米国特許法§119(e)に基づく優先権およびその利益を主張し、上記出願の開示は、その全体が参照により本明細書に引用される。
(分野)
本開示は、仮想現実および拡張現実結像ならびに可視化システムに関し、より具体的には、そのようなシステムのユーザの顔モデルを生成することに関する。
本発明は、例えば以下を提供する。
(項目1)
ユーザの顔の3次元(3D)モデルを生成するためのシステムであって、前記システムは、
仮想コンテンツをユーザに提示するように構成された頭部搭載型ディスプレイ(HMD)と、
少なくとも1つの眼カメラを備えている内向きに面した結像システムであって、前記結像システムは、前記ユーザが前記HMDを装着しつつある間、前記ユーザの顔の少なくとも一部を結像するように構成されている、内向きに面した結像システムと、
前記HMDに関連付けられ、前記HMDの移動を検出するように構成された慣性測定ユニット(IMU)と、
ハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記ユーザの顔の結像を開始するためのトリガを検出することであって、前記トリガは、前記IMUによって検出される移動を含み、前記移動は、前記HMDを前記ユーザの頭部上に着けつつあること、または前記HMDを前記ユーザの頭部から外しつつあることを含む、ことと、
前記トリガの検出に応答して、前記少なくとも1つの眼カメラをアクティブにし、画像を入手することと、
前記IMUまたは前記内向きに面した結像システムのうちの少なくとも1つから入手されたデータに基づいて、前記結像を停止するための停止条件を検出することと、
立体視アルゴリズムを用いて、前記少なくとも1つの眼カメラによって入手された前記
画像を分析することと、
少なくとも部分的に前記立体視アルゴリズムの出力に基づいて、前記画像を融合させ、前記ユーザの顔の顔モデルを生成することと
を行うようにプログラムされている、システム。
(項目2)
前記トリガを検出するために、前記ハードウェアプロセッサは、
前記HMDの加速を決定することと、
前記HMDの加速を閾値加速と比較することと、
前記加速が前記閾値加速を超えているという比較に応答して、前記トリガを検出することと
を行うようにプログラムされている、項目1に記載のシステム。
(項目3)
前記停止条件は、前記HMDと前記ユーザの頭部との間の距離が閾値距離に達すると、検出される、項目1に記載のシステム。
(項目4)
前記立体視アルゴリズムは、ブロックマッチングアルゴリズム、セミグローバルマッチングアルゴリズム、セミグローバルブロックマッチングアルゴリズム、視差マップ、深度マップ、またはニューラルネットワークアルゴリズムのうちの少なくとも1つを含む、項目1に記載のシステム。
(項目5)
前記少なくとも1つの眼カメラは、第1の眼カメラおよび第2の眼カメラを備え、前記
第1の眼カメラおよび前記第2の眼カメラは、重複している視野を有する、項目1に記載のシステム。
(項目6)
前記画像は、複数の対の画像を備え、各対の画像は、前記第1の眼カメラによって入手された第1の画像と、前記第2の眼カメラによって入手された第2の画像とを備えている、項目5に記載のシステム。(項目7)
一対の画像は、前記立体視アルゴリズムを用いて、一緒に分析される、項目6に記載のシステム。
(項目8)
前記立体視アルゴリズムの出力は、前記複数の対の画像内のピクセルへの深度割り当てを含む、項目6に記載のシステム。
(項目9)
前記ユーザの顔は、前記第1の眼カメラおよび前記第2の眼カメラによって入手された前記画像の分析に基づいて、複数の点群によって表され、前記画像を融合させ、顔モデルを生成するために、前記ハードウェアプロセッサは、
前記複数の群を互いに適合させることと、
前記複数の群における外れ値を除外することと、
クラスタ化することまたは平均することのうちの少なくとも1つによって、前記顔モデルの表面を平滑化することと
を行うようにプログラムされている、項目6に記載のシステム。
(項目10)
前記複数の群を適合させるために、前記ハードウェアプロセッサは、反復最近傍点アルゴリズムを前記複数の群に適用するようにプログラムされている、項目9に記載のシステム。
(項目11)
前記ハードウェアプロセッサは、
前記画像に基づいて、テクスチャマップを決定することと、
前記テクスチャマップを前記顔モデルに適用することと
を行うようにさらにプログラムされている、項目1に記載のシステム。
(項目12)
前記ハードウェアプロセッサは、前記顔モデルをウェアラブルデバイスに渡すようにさらにプログラムされている、項目1に記載のシステム。
(項目13)
前記画像を分析するために、前記ハードウェアプロセッサは、少なくとも、
キーポイント検出器および記述子アルゴリズムを使用して、前記画像内のキーポイントを識別すること、または、
顔特徴を前記画像から識別し、3D空間内の点を用いて前記識別された顔特徴を記述すること
を行うようにプログラムされている、項目1に記載のシステム。
(項目14)
前記画像を融合させるために、前記ハードウェアプロセッサは、バンドル調整アルゴリズムを使用して前記キーポイントまたは顔特徴を組み合わせるようにプログラムされている、項目13に記載のシステム。
(項目15)
ユーザの顔の3次元(3D)モデルを生成する方法であって、前記方法は、
ユーザの顔モデルを生成することに対する要求を受信することと、
ウェアラブルデバイスの内向きに面した結像システムによって入手された前記ユーザの頭部の画像にアクセスすることであって、前記内向きに面した結像システムは、少なくとも1つの眼カメラを備えている、ことと、
複数の対の画像を前記アクセスされた画像から識別することと、
立体視アルゴリズムを前記複数の対の画像に適用することによって、前記画像を分析することと、
前記分析するステップから取得される出力を融合させ、顔モデルを作成することと
を含む、方法。
(項目16)
前記出力は、前記ユーザの顔に関連付けられた深度マップを含み、前記深度マップは、前記顔と前記ウェアラブルデバイスとの間の距離に関連する情報を含む、項目15に記載の方法。
(項目17)
前記画像は、前記ウェアラブルが、前記ユーザに着けられつつあるとき、または前記ユーザから外されつつあるときに入手される、項目15に記載の方法。
(項目18)
前記少なくとも1つの眼カメラは、第1の眼カメラおよび第2の眼カメラを備え、一対
の画像は、それぞれ、前記第1の眼カメラおよび前記第2の眼カメラによって実質的に同時に入手される第1の画像および第2の画像を備えている、項目15に記載の方法。
(項目19)
前記画像を分析することは、前記複数の対の画像を点群に変換することを含む、項目15に記載の方法。
(項目20)
前記出力を融合させることは、反復最近傍点アルゴリズムを使用して前記点群を組み合わせることを含む、請求項19に記載の方法。
拡張または仮想現実システムのユーザは、頭部搭載型ディスプレイ(HMD)等のウェアラブルデバイスを使用して、仮想オブジェクトを伴う代替世界に没入することができる。時として、ウェアラブルデバイスは、他のユーザとの相互作用のために、ユーザのアバタ(例えば、仮想画像を含む)をその代替世界内に提示し得る。アバタのための現実的画像および移動を提供するために、ウェアラブルデバイスは、ユーザの顔の外観および表情に基づいて、アバタ画像を提供することができる。アバタ画像は、ウェアラブルデバイスの1つ以上の結像システムによって入手された画像に基づいて、構築され得る。結像システムは、ユーザの眼の移動を追跡するための眼カメラを備え得る内向きに面した結像システムと、ユーザの環境を結像するためのカメラを備え得る外向きに面した結像システムとを含むことができる。しかしながら、ウェアラブルデバイスの結像システムは、ユーザの頭部上に設置されると、ユーザの顔を容易に結像することができない。例えば、内向きに面した結像システムは、ユーザによって装着されるウェアラブルデバイスおよび眼カメラが、ユーザの顔全体を結像するために十分に広い視野を有していないとき、ユーザの眼球周囲領域を結像するように構成され得る。別の例として、外向きに面した結像システムのカメラは、ユーザがウェアラブルデバイスを装着しているとき、ユーザから離れて向くように構成され、したがって、ユーザの顔画像を容易に取得することができない。これは、仮想アバタをレンダリングするための容認可能画像を生成するために、種々の難点をもたらす。
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせ等において、静止画像、ビデオのフレーム、またはビデオであり得る。ウェアラブルシステムの少なくとも一部は、ウェアラブルデバイス上に実装されることができ、ウェアラブルデバイスは、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示できる。ウェアラブルデバイスは、頭部搭載型デバイス(HMD)であることができ、それは、ARデバイス(ARD)と同義的に使用される。さらに、本開示の目的のために、用語「AR」は、用語「MR」と同義的に使用される。
図4は、画像情報をユーザに出力するための導波管スタックの例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応し得、図4は、そのウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合され得る。
多くの実装では、ウェアラブルシステムは、上で説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含み得る。ウェアラブルシステムは、例えば、1つ以上の触知デバイスまたはコンポーネントを含み得る。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であり得る。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力またはテクスチャの感覚を提供し得る。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現し得るか、または仮想コンテンツが表す想像上のオブジェクトもしくはキャラクタ(例えば、ドラゴン)の感覚を再現し得る。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着され得る(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持され得る。
ウェアラブルシステムは、高被写界深度をレンダリングされた明視野において達成するために、種々のマッピング関連技法を採用し得る。仮想世界をマッピングすることにおいて、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)の組を収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを包囲する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
手のジェスチャ追跡または認識も、入力情報を提供し得る。ウェアラブルシステム900は、ボタン押下のため、左または右、停止、握持、保持等をジェスチャするための手のジェスチャを追跡および解釈するように構成され得る。例えば、1つの構成では、ユーザは、非ゲーム環境において電子メールまたはカレンダを通フリップすること、または、別の人物またはプレーヤと「フィストバンプ」を行うことを欲し得る。ウェアラブルシステム900は、最小量の手のジェスチャを活用するように構成され得、ジェスチャは、動的であることも、動的でないこともある。例えば、ジェスチャは、停止を示すために手を広げること、OKを示すために親指を上げること、OKではないことを示すために親指を下げること、または方向性コマンドを示すために左右もしくは上下に手をフリップすること等、単純な静的ジェスチャであり得る。
図11は、例示的ウェアラブルデバイスを図示し、それは、ユーザが、ウェアラブルデバイスを着けつつある間、ユーザの顔の画像を入手することができる。ユーザがウェアラブルデバイスを着けつつある(または外しつつある)間に入手された画像は、ユーザの顔モデルを生成するために使用され得る。ウェアラブルデバイス1150は、図2を参照して説明される例示的頭部搭載型デバイス(HMD)であることができる。ウェアラブルデバイス1150は、結像システム1160を含むことができ、それは、ユーザ210の顔を結像するように構成される。例えば、結像システム1160は、ユーザ210が、ウェアラブルデバイスを装着しつつある間、ユーザの眼1110の眼球周囲領域を結像するように構成される眼カメラ(例えば、眼カメラ1160aおよび眼カメラ1160b)等のセンサを含み得る。この例では、眼1110bは、図3に示される眼302に対応し得、眼1110aは、眼304に対応し得る。いくつかの実装では、結像システム1160は、図4に示される内向きに面した結像システム462の実施形態であり得る。
ウェアラブルデバイス1150は、種々の技法を使用して、ユーザ210の結像を開始および停止するためのトリガを決定することができる。例えば、ウェアラブルデバイス1150は、ユーザが、ウェアラブルデバイス1150を着けつつある(または外しつつある)ことを検出すると、ユーザの顔の結像を開始するように構成され得る。有利には、画像入手を開始または停止するためのトリガは、ウェアラブルデバイス1150の移動に関連するデータ(例えば、そのような移動は、デバイス内のIMUを使用して測定され得る)またはウェアラブルデバイス1150の1つ以上のカメラ(例えば、例えば、デバイスが、ユーザの顔により近くなるにつれて、またはそこからより遠く離れるにつれて、ユーザの顔の領域がより大きくなること、またはより小さくなることを検出する内向きに面した結像システム462または外向きに面した結像システム464内のカメラ)によって入手された画像に基づくことができる。したがって、ウェアラブルデバイスは、ユーザ介入なく、画像入手を自動的に開始または停止することができる。
結像システム1160を使用して、顔を結像することに加え、またはその代替として、ウェアラブルデバイス1150は、他の技法を使用して、顔の画像を取得することができる。例えば、ウェアラブルデバイス1150は、ユーザが、ウェアラブルデバイスを装着しつつある間、ユーザの環境を結像するように構成される外向きに面した結像システム(例えば、図4に説明される外向きに面した結像システム464参照)を含み得る。ユーザは、外向きに面した結像システムのカメラをユーザの頭部の方に向け、外向きに面した結像システムを使用して、顔の画像を取得することができる。
図11に示されるように、眼カメラ1160aおよび眼カメラ1160bは、重複FOV1130を有することができる。この重複FOVにより、2つの眼カメラは、ユーザの顔が領域1130内にあるとき、ユーザの顔を結像するための単一立体視システムとして扱われ得る。
立体視技法を使用して顔モデルを構築することに加え、またはその代替として、ウェアラブルデバイス1150は、片眼ベースで顔の画像を融合させることによって、顔モデルを構築することもできる。単眼視技法は、2つのカメラが、重複FOV領域1130を有していないとき、または重複が小さいとき、有利であり得る。
ウェアラブルデバイスおよび他のコンピューティングシステムによって撮影された画像は、顔のためのテクスチャマップを生成するために使用され得る。顔のテクスチャマップは、皮膚色、眼色、そばかすまたはしわ等の顔特徴を含み得る。ウェアラブルデバイスは、2つの眼カメラによって撮影された画像を融合させ、顔全体の画像を生成することができる。融合された画像は、品質を向上させるために処理され得る。ウェアラブルデバイスは、品質を増加させるために、超解像技術、ラッキー結像法、または他の画像処理技法等の技法を使用することができる。加えて、または代替として、ウェアラブルデバイスは、2つの眼カメラによって撮影された画像のうちの1つを識別し、その画像を処理し、テクスチャマップを作成し得る。例えば、ウェアラブルデバイスは、眼カメラ1160a(図11に示される)によって撮影された画像がユーザの顔全体を含むことを識別し得る。ウェアラブルデバイスは、その画像を処理し、その画像を使用して、テクスチャマップを抽出し得る。
図12は、顔モデルを生成するための例示的プロセスを図示する。プロセス1200は、図11に説明されるウェアラブルデバイス1150によって実施され得る。ウェアラブルデバイス1150は、1つ以上の眼カメラおよびIMU(図2および7に説明される)等の種々のセンサを含むことができる。
第1の側面では、ユーザの顔の3次元(3D)モデルを生成するための拡張現実(AR)システムであって、システムは、3D環境をユーザに表示するように構成された拡張現実デバイス(ARD)と、第1の眼カメラおよび第2の眼カメラを備えている内向きに面した結像システムであって、結像システムは、ユーザの顔の一部を結像するように構成されている、内向きに面した結像システムと、ARDに関連付けられ、ユーザの移動を検出するように構成された慣性測定ユニット(IMU)と、ARDに関連付けられたコンピュータプロセッサとを備え、コンピュータプロセッサは、移動の指示をIMUから受信することであって、移動は、ARDをユーザの頭部上に着けることを含む、ことと、ARDがユーザの頭部に着けられている間、第1の顔の画像を第1の眼カメラから受信すること、および第2の顔の画像を第2の眼カメラから受信することと、第1の画像および第2の画像を分析することと、少なくとも部分的に第1の画像および第2の画像の分析に基づいて、顔の顔モデルを生成することとを行うようにプログラムされている、システム。
テムであって、内向きに面した結像システムは、ユーザがHMDを装着しつつある間、ユーザの顔の少なくとも一部を結像するように構成されている、内向きに面した結像システムと、HMDに関連付けられ、HMDの移動を検出するように構成された慣性測定ユニット(IMU)と、ハードウェアプロセッサとを備え、ハードウェアプロセッサは、ユーザの顔の結像を開始するためのトリガを検出することであって、トリガは、HMDをユーザの頭部上に着けつつあること、またはHMDをユーザの頭部から外しつつあることを含むIMUによって検出される移動を含む、ことと、トリガの検出に応答して、少なくとも1つの眼カメラをアクティブにし、画像を入手することと、IMUまたは内向きに面した結像システムのうちの少なくとも1つから入手されたデータに基づいて、結像を停止するための停止条件を検出することと、立体視アルゴリズムを用いて、少なくとも1つの眼カメ
ラによって入手された画像を分析することと、少なくとも部分的に立体視アルゴリズムの出力に基づいて、画像を融合させ、ユーザの顔の顔モデルを生成することとを行うようにプログラムされている、システム。
ラを備え、第1の眼カメラおよび第2の眼カメラは、重複している視野を有する、側面34-37のいずれか1項に記載のシステム。
る、ことと、複数の対の画像をアクセスされた画像から識別することと、立体視アルゴリズムを複数の対の画像に適用することによって、画像を分析することと、該分析するステップから取得される出力を融合させ、顔モデルを作成することとを含む、方法。
ラを備え、一対の画像は、それぞれ、第1の眼カメラおよび第2の眼カメラによって実質的に同時に入手される第1の画像および第2の画像を含む、側面48-50のいずれか1項に記載の方法。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムの各々は、具体的かつ特定のコンピュータ命令を実行するように構成される1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行されるコードモジュールにおいて具現化され、それによって完全もしくは部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得るか、動的リンクライブラリ内にインストールされ得るか、または、解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (26)
- ユーザの顔の3次元(3D)モデルを生成するためのシステムであって、前記システムは、
仮想コンテンツをユーザに提示するように構成された頭部搭載型ディスプレイ(HMD)と、
第1の眼カメラと第2の眼カメラとを備えている内向きに面した結像システムであって、前記第1の眼カメラ、前記第2の眼カメラはそれぞれ、前記ユーザが前記HMDを装着している間に、前記ユーザの左眼、右眼を結像するように構成されている、結像システムと、
ハードウェアプロセッサと
を備えており、
前記ハードウェアプロセッサは、
前記第1の眼カメラおよび前記第2の眼カメラを使用して前記ユーザの前記顔の画像を入手することと、
前記HMDの1つ以上の慣性センサからのセンサデータに少なくとも基づいて、前記ユーザの頭部に向かった移動を示す前記HMDの移動を検出することと、
前記検出された移動に応答して、各々が前記第1の眼カメラからの第1の画像と前記第2の眼カメラからの第2の眼画像とを含む入手された画像の対に対して、
前記入手された画像のうちの1つ以上に基づいて、前記ユーザの前記頭部と前記HMDとの間の距離を決定することと、
前記距離が距離範囲内にあることを決定したことに応答して、前記ユーザの前記顔の3Dモデルを生成する際に使用可能であるとして前記入手された画像の対にタグ付けすることと、
入手された画像の1つ以上のタグ付けされた対を識別することと、
前記入手された画像の1つ以上のタグ付けされた対の各々に対して、立体視アルゴリズムを用いて前記入手された画像を分析することと、
前記立体視アルゴリズムの出力に少なくとも基づいて、前記入手された画像の1つ以上のタグ付けされた対を融合させることにより、前記ユーザの前記顔の3Dモデルを生成することと
を行うようにプログラムされている、システム。 - 第1の眼カメラおよび前記第2の眼カメラは、重複している視野を有する、請求項1に記載のシステム。
- ユーザの顔の3次元(3D)モデルを生成する方法であって、前記方法は、
ユーザの3D顔モデルを生成することに対する要求を受信することと、
頭部搭載型ディスプレイ(HMD)の1つ以上の慣性センサからのセンサデータに少なくとも基づいて、前記ユーザの頭部に向かった移動を示す前記HMDの移動を検出することと、
前記検出された移動に応答して、
ウェアラブルデバイスの内向きに面した結像システムによって入手された画像にアクセスすることであって、前記内向きに面した結像システムは、第1の眼カメラおよび第2の眼カメラを備えている、ことと、
前記ユーザの頭部位置が特定の距離範囲内にあることを決定したことに応答して、前記アクセスされた画像のうちの少なくとも1つの画像にタグ付けすることであって、前記ユーザの頭部位置は、前記アクセスされた画像のうちの前記少なくとも1つの画像内の前記ユーザの前記顔のサイズに基づいている、ことと、
複数の対の画像を前記タグ付けされた画像から識別することと、
立体視アルゴリズムを前記複数の対の画像に適用することによって、前記タグ付けされた画像を分析することと、
前記分析することから取得された出力を融合させることにより、前記ユーザの前記顔の前記3Dモデルを作成することと
を含む、方法。 - 前記出力は、前記ユーザの前記顔に関連付けられた深度マップを含み、前記深度マップは、前記顔と前記ウェアラブルデバイスとの間の距離に関連する情報を含む、請求項3に記載の方法。
- 一対の画像は、前記第1の眼カメラ、前記第2の眼カメラによってそれぞれ実質的に同時に入手される第1の画像、第2の画像を含む、請求項3に記載の方法。
- 前記画像を分析することは、前記複数の対の画像を点群に変換することを含む、請求項3に記載の方法。
- 前記出力を融合させることは、反復最近傍点アルゴリズムを使用して前記点群を組み合わせることを含む、請求項6に記載の方法。
- 前記ハードウェアプロセッサは、前記HMDに関連付けられた少なくとも1つのセンサから、前記ユーザ上の前記HMDの装着位置を検出するようにプログラムされている、請求項1に記載のシステム。
- 前記少なくとも1つのセンサは、近接度センサを含む、請求項8に記載のシステム。
- 前記近接度センサは、容量近接度センサを含む、請求項9に記載のシステム。
- 前記近接度センサからのデータは、前記ユーザの頭部と前記近接度センサとの間の距離を含む、請求項9に記載のシステム。
- 前記少なくとも1つのセンサは、圧力センサを含む、請求項8に記載のシステム。
- 前記圧力センサからのデータは、圧力測定値を含む、請求項12に記載のシステム。
- 前記圧力センサは、前記HMDのつるに配置されている、請求項12に記載のシステム。
- 前記圧力センサは、前記HMDの鼻パッドに配置されている、請求項12に記載のシステム。
- 前記少なくとも1つのセンサは、慣性測定ユニット(IMU)を含む、請求項8に記載のシステム。
- 前記IMUからのデータは、前記HMDの加速度測定値を含む、請求項16に記載のシステム。
- 前記少なくとも1つのセンサは、前記第1の眼カメラまたは前記第2の眼カメラを含む、請求項8に記載のシステム。
- 前記第1の眼カメラまたは前記第2の眼カメラからのデータは、前記ユーザの顔の画像を含む、請求項18に記載のシステム。
- 前記第1の眼カメラおよび前記第2の眼カメラの前記重複している視野は、結像領域を画定し、前記距離範囲は、前記結像領域内の距離を含む、請求項2に記載のシステム。
- 前記距離範囲は、175mmより大きい距離を含む、請求項1に記載のシステム。
- 前記距離範囲は、前記第1の眼カメラまたは前記第2の眼カメラからの画像が焦点ずれする距離より大きい距離を含む、請求項1に記載のシステム。
- 前記第1の眼カメラの視野および前記第2の眼カメラの視野は、重複することにより、結像領域を画定し、前記特定の距離範囲は、前記結像領域内の距離を含む、請求項3に記載の方法。
- 前記特定の距離範囲は、175mmより大きい距離を含む、請求項23に記載の方法。
- 前記特定の距離範囲は、前記第1の眼カメラまたは前記第2の眼カメラからの画像が焦点ずれする距離より大きい距離を含む、請求項24に記載の方法。
- 前記ユーザの前記頭部と前記HMDとの間の前記距離を決定するために、前記ハードウェアプロセッサは、
前記入手された画像の対に関連付けられた結像平面内の前記ユーザの前記顔のサイズを推定するように、前記入手された画像の対を分析することと、
前記ユーザの前記顔の前記サイズが閾値サイズより小さいかどうかを決定することであって、前記閾値サイズは、前記距離範囲外にある距離に関連付けられている、ことと
を行うようにプログラムされている、請求項1に記載のシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662400907P | 2016-09-28 | 2016-09-28 | |
US62/400,907 | 2016-09-28 | ||
JP2019515206A JP6964132B2 (ja) | 2016-09-28 | 2017-09-27 | ウェアラブルデバイスによる顔モデル捕捉 |
PCT/US2017/053729 WO2018064169A1 (en) | 2016-09-28 | 2017-09-27 | Face model capture by a wearable device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019515206A Division JP6964132B2 (ja) | 2016-09-28 | 2017-09-27 | ウェアラブルデバイスによる顔モデル捕捉 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022009208A true JP2022009208A (ja) | 2022-01-14 |
JP7186844B2 JP7186844B2 (ja) | 2022-12-09 |
Family
ID=61687208
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019515206A Active JP6964132B2 (ja) | 2016-09-28 | 2017-09-27 | ウェアラブルデバイスによる顔モデル捕捉 |
JP2021170260A Active JP7186844B2 (ja) | 2016-09-28 | 2021-10-18 | ウェアラブルデバイスによる顔モデル捕捉 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019515206A Active JP6964132B2 (ja) | 2016-09-28 | 2017-09-27 | ウェアラブルデバイスによる顔モデル捕捉 |
Country Status (9)
Country | Link |
---|---|
US (4) | US10976549B2 (ja) |
EP (2) | EP3519878B1 (ja) |
JP (2) | JP6964132B2 (ja) |
KR (1) | KR102491438B1 (ja) |
CN (2) | CN114356098A (ja) |
AU (2) | AU2017335736B2 (ja) |
CA (1) | CA3037047A1 (ja) |
IL (1) | IL265520B2 (ja) |
WO (1) | WO2018064169A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10359806B2 (en) * | 2016-03-28 | 2019-07-23 | Sony Interactive Entertainment Inc. | Pressure sensing to identify fitness and comfort of virtual reality headset |
IL265520B2 (en) | 2016-09-28 | 2023-09-01 | Magic Leap Inc | Capturing a facial model using a wearable device |
US11944481B1 (en) * | 2018-02-23 | 2024-04-02 | Robert Edwin Douglas | Method and apparatus for predicting an image analysis tool based on user behavior |
JP2021081757A (ja) * | 2018-03-12 | 2021-05-27 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、プログラム |
US10728518B2 (en) * | 2018-03-22 | 2020-07-28 | Microsoft Technology Licensing, Llc | Movement detection in low light environments |
US10475196B2 (en) * | 2018-03-22 | 2019-11-12 | Microsoft Technology Licensing, Llc | Hybrid depth detection and movement detection |
US10565720B2 (en) | 2018-03-27 | 2020-02-18 | Microsoft Technology Licensing, Llc | External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality |
WO2019246044A1 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
US11796833B2 (en) * | 2018-12-12 | 2023-10-24 | Solos Technology Limited | Modularized eyewear systems, apparatuses, and methods |
US11871174B1 (en) | 2018-12-12 | 2024-01-09 | Solos Technology Limited | Personalized directional audio for head-worn audio projection systems, apparatuses, and methods |
US11835798B2 (en) | 2018-12-12 | 2023-12-05 | Solos Technology Limited | Eyewear systems, apparatuses, and methods for providing assistance to a user |
JP7293814B2 (ja) * | 2019-04-01 | 2023-06-20 | 株式会社リコー | 生体情報計測装置、生体情報計測方法およびプログラム |
CN110287764B (zh) * | 2019-05-06 | 2022-01-11 | 深圳大学 | 姿势预测方法、装置、计算机设备和存储介质 |
US11039651B1 (en) * | 2019-06-19 | 2021-06-22 | Facebook Technologies, Llc | Artificial reality hat |
WO2020264101A1 (en) * | 2019-06-25 | 2020-12-30 | The Regents Of The University Of California | Systems and methods for characterizing joint attention during real world interaction |
CN110310373B (zh) * | 2019-06-28 | 2023-12-12 | 京东方科技集团股份有限公司 | 一种增强现实设备的图像处理方法和增强现实设备 |
WO2021011420A1 (en) * | 2019-07-12 | 2021-01-21 | Magic Leap, Inc. | Eyeball camera system and methods for display system calibration |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US20210327121A1 (en) * | 2020-04-15 | 2021-10-21 | Sirisilp Kongsilp | Display based mixed-reality device |
CN111523480B (zh) * | 2020-04-24 | 2021-06-18 | 北京嘀嘀无限科技发展有限公司 | 一种面部遮挡物的检测方法、装置、电子设备及存储介质 |
CN111709302B (zh) * | 2020-05-21 | 2023-08-25 | 青岛小鸟看看科技有限公司 | 人脸表情检测方法、装置、头戴显示设备及存储介质 |
CN112911356B (zh) * | 2020-05-29 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 一种虚拟现实vr视频的播放方法及相关设备 |
US11803237B2 (en) | 2020-11-14 | 2023-10-31 | Facense Ltd. | Controlling an eye tracking camera according to eye movement velocity |
US11740322B2 (en) * | 2021-09-10 | 2023-08-29 | Htc Corporation | Head mounted display device and position device thereof |
US11887234B2 (en) * | 2021-12-23 | 2024-01-30 | Softbank Corp. | Avatar display device, avatar generating device, and program |
CN116433432B (zh) * | 2023-04-18 | 2023-11-21 | 北京漂洋过海科技有限责任公司 | 一种大数据的智慧校园管理系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013077076A1 (ja) * | 2011-11-24 | 2013-05-30 | 株式会社エヌ・ティ・ティ・ドコモ | 表情出力装置及び表情出力方法 |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US20140104143A1 (en) * | 2012-10-11 | 2014-04-17 | Sony Computer Entertainment Europe Limited | Head mountable display |
JP2015092646A (ja) * | 2013-11-08 | 2015-05-14 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
US20160025971A1 (en) * | 2014-07-25 | 2016-01-28 | William M. Crow | Eyelid movement as user input |
JP2019511067A (ja) * | 2016-01-19 | 2019-04-18 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 反射を利用する拡張現実システムおよび方法 |
Family Cites Families (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
EP1039417B1 (en) * | 1999-03-19 | 2006-12-20 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Method and device for the processing of images based on morphable models |
US7255437B2 (en) | 2003-10-09 | 2007-08-14 | Howell Thomas A | Eyeglasses with activity monitoring |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
EP1784988A1 (en) | 2004-08-06 | 2007-05-16 | University of Washington | Variable fixation viewing distance scanned light displays |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
JP5434569B2 (ja) * | 2009-12-22 | 2014-03-05 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
KR20120064557A (ko) | 2010-12-09 | 2012-06-19 | 한국전자통신연구원 | 증강형 3차원 입체 영상 제시를 위한 혼합현실 디스플레이 플랫폼 및 운영 방법 |
AU2011348122A1 (en) | 2010-12-24 | 2013-07-11 | Magic Leap Inc. | An ergonomic head mounted display device and optical system |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
RU2621644C2 (ru) | 2011-05-06 | 2017-06-06 | Мэджик Лип, Инк. | Мир массового одновременного удаленного цифрового присутствия |
JP5414946B2 (ja) | 2011-06-16 | 2014-02-12 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
US8184067B1 (en) * | 2011-07-20 | 2012-05-22 | Google Inc. | Nose bridge sensor |
CN103033936A (zh) | 2011-08-30 | 2013-04-10 | 微软公司 | 具有虹膜扫描剖析的头戴式显示器 |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US20130083003A1 (en) | 2011-09-30 | 2013-04-04 | Kathryn Stone Perez | Personal audio/visual system |
WO2013085639A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
CA2858208C (en) | 2011-11-23 | 2019-01-15 | Magic Leap, Inc. | Three dimensional virtual and augmented reality display system |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
WO2013188464A1 (en) | 2012-06-11 | 2013-12-19 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US20130339433A1 (en) | 2012-06-15 | 2013-12-19 | Duke University | Method and apparatus for content rating using reaction sensing |
KR102099262B1 (ko) | 2012-07-11 | 2020-04-09 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 액정 표시 장치, 및 액정 표시 장치의 구동 방법 |
US20140071163A1 (en) | 2012-09-11 | 2014-03-13 | Peter Tobias Kinnebrew | Augmented reality information detail |
WO2014043196A1 (en) | 2012-09-11 | 2014-03-20 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
JP2014064248A (ja) | 2012-09-24 | 2014-04-10 | Ntt Docomo Inc | 画像投影装置及び画像投影方法 |
US9996150B2 (en) * | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
KR102507206B1 (ko) | 2013-01-15 | 2023-03-06 | 매직 립, 인코포레이티드 | 초고해상도 스캐닝 섬유 디스플레이 |
US10163049B2 (en) * | 2013-03-08 | 2018-12-25 | Microsoft Technology Licensing, Llc | Inconspicuous tag for generating augmented reality experiences |
KR102516124B1 (ko) | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
NZ751593A (en) | 2013-03-15 | 2020-01-31 | Magic Leap Inc | Display system and method |
US9264803B1 (en) | 2013-06-05 | 2016-02-16 | Google Inc. | Using sounds for determining a worn state of a wearable computing device |
US10019057B2 (en) | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9256987B2 (en) * | 2013-06-24 | 2016-02-09 | Microsoft Technology Licensing, Llc | Tracking head movement when wearing mobile device |
US20140375542A1 (en) | 2013-06-25 | 2014-12-25 | Steve Robbins | Adjusting a near-eye display device |
KR102270674B1 (ko) * | 2013-09-30 | 2021-07-01 | 삼성전자주식회사 | 생체인식 카메라 |
KR102547756B1 (ko) | 2013-10-16 | 2023-06-23 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
KR102493498B1 (ko) | 2013-11-27 | 2023-01-27 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
EP2887639A1 (en) * | 2013-12-18 | 2015-06-24 | Microsoft Technology Licensing, LLC | Augmented reality information detail |
EP4099274B1 (en) | 2014-01-31 | 2024-03-06 | Magic Leap, Inc. | Multi-focal display system and method |
KR102177133B1 (ko) | 2014-01-31 | 2020-11-10 | 매직 립, 인코포레이티드 | 멀티-포컬 디스플레이 시스템 및 방법 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10430985B2 (en) | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
US9672416B2 (en) * | 2014-04-29 | 2017-06-06 | Microsoft Technology Licensing, Llc | Facial expression tracking |
AU2015297035B2 (en) | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
AU2015266586B2 (en) | 2014-05-30 | 2020-07-23 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
CN106937531B (zh) * | 2014-06-14 | 2020-11-06 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US9719871B2 (en) | 2014-08-09 | 2017-08-01 | Google Inc. | Detecting a state of a wearable device |
US9922236B2 (en) | 2014-09-17 | 2018-03-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable eyeglasses for providing social and environmental awareness |
US9808185B2 (en) | 2014-09-23 | 2017-11-07 | Fitbit, Inc. | Movement measure generation in a wearable electronic device |
US9728010B2 (en) * | 2014-12-30 | 2017-08-08 | Microsoft Technology Licensing, Llc | Virtual representations of real-world objects |
GB2534580B (en) | 2015-01-28 | 2020-06-17 | Sony Interactive Entertainment Europe Ltd | Image processing |
JP2016149660A (ja) | 2015-02-13 | 2016-08-18 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US9652896B1 (en) | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
US10359806B2 (en) * | 2016-03-28 | 2019-07-23 | Sony Interactive Entertainment Inc. | Pressure sensing to identify fitness and comfort of virtual reality headset |
IL265520B2 (en) | 2016-09-28 | 2023-09-01 | Magic Leap Inc | Capturing a facial model using a wearable device |
JP6212667B1 (ja) * | 2016-12-26 | 2017-10-11 | 株式会社コロプラ | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
-
2017
- 2017-09-27 IL IL265520A patent/IL265520B2/en unknown
- 2017-09-27 CA CA3037047A patent/CA3037047A1/en active Pending
- 2017-09-27 US US15/717,223 patent/US10976549B2/en active Active
- 2017-09-27 WO PCT/US2017/053729 patent/WO2018064169A1/en unknown
- 2017-09-27 KR KR1020197010685A patent/KR102491438B1/ko active IP Right Grant
- 2017-09-27 JP JP2019515206A patent/JP6964132B2/ja active Active
- 2017-09-27 CN CN202210024536.1A patent/CN114356098A/zh active Pending
- 2017-09-27 EP EP17857333.3A patent/EP3519878B1/en active Active
- 2017-09-27 EP EP23168280.8A patent/EP4220280A1/en active Pending
- 2017-09-27 AU AU2017335736A patent/AU2017335736B2/en not_active Ceased
- 2017-09-27 CN CN201780072862.7A patent/CN110023814B/zh active Active
-
2021
- 2021-03-09 US US17/196,394 patent/US11428941B2/en active Active
- 2021-10-18 JP JP2021170260A patent/JP7186844B2/ja active Active
-
2022
- 2022-07-25 US US17/872,443 patent/US11740474B2/en active Active
- 2022-11-09 AU AU2022268332A patent/AU2022268332A1/en not_active Abandoned
-
2023
- 2023-06-30 US US18/345,396 patent/US20230359044A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
WO2013077076A1 (ja) * | 2011-11-24 | 2013-05-30 | 株式会社エヌ・ティ・ティ・ドコモ | 表情出力装置及び表情出力方法 |
US20140104143A1 (en) * | 2012-10-11 | 2014-04-17 | Sony Computer Entertainment Europe Limited | Head mountable display |
JP2015092646A (ja) * | 2013-11-08 | 2015-05-14 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
US20160025971A1 (en) * | 2014-07-25 | 2016-01-28 | William M. Crow | Eyelid movement as user input |
JP2019511067A (ja) * | 2016-01-19 | 2019-04-18 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 反射を利用する拡張現実システムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3519878A1 (en) | 2019-08-07 |
IL265520B1 (en) | 2023-05-01 |
CN110023814A (zh) | 2019-07-16 |
IL265520A (en) | 2019-05-30 |
JP6964132B2 (ja) | 2021-11-10 |
EP3519878B1 (en) | 2023-04-19 |
EP4220280A1 (en) | 2023-08-02 |
WO2018064169A1 (en) | 2018-04-05 |
CA3037047A1 (en) | 2018-04-05 |
US20230359044A1 (en) | 2023-11-09 |
US11740474B2 (en) | 2023-08-29 |
JP2019531014A (ja) | 2019-10-24 |
KR20190054119A (ko) | 2019-05-21 |
US20210223552A1 (en) | 2021-07-22 |
US11428941B2 (en) | 2022-08-30 |
US10976549B2 (en) | 2021-04-13 |
US20220357582A1 (en) | 2022-11-10 |
CN110023814B (zh) | 2022-01-11 |
KR102491438B1 (ko) | 2023-01-25 |
AU2022268332A1 (en) | 2022-12-15 |
JP7186844B2 (ja) | 2022-12-09 |
CN114356098A (zh) | 2022-04-15 |
EP3519878A4 (en) | 2020-06-10 |
US20180088340A1 (en) | 2018-03-29 |
IL265520B2 (en) | 2023-09-01 |
AU2017335736A1 (en) | 2019-04-11 |
AU2017335736B2 (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6964132B2 (ja) | ウェアラブルデバイスによる顔モデル捕捉 | |
US11636652B2 (en) | Periocular and audio synthesis of a full face image | |
JP7378431B2 (ja) | フレーム変調機能性を伴う拡張現実ディスプレイ | |
JP7090601B2 (ja) | 複合現実較正のための眼球周囲試験 | |
JP2023100853A (ja) | アバタ移動のためのマルチモードの手の場所および配向 | |
US20230281988A1 (en) | Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221028 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7186844 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |