JP7090601B2 - 複合現実較正のための眼球周囲試験 - Google Patents

複合現実較正のための眼球周囲試験 Download PDF

Info

Publication number
JP7090601B2
JP7090601B2 JP2019517930A JP2019517930A JP7090601B2 JP 7090601 B2 JP7090601 B2 JP 7090601B2 JP 2019517930 A JP2019517930 A JP 2019517930A JP 2019517930 A JP2019517930 A JP 2019517930A JP 7090601 B2 JP7090601 B2 JP 7090601B2
Authority
JP
Japan
Prior art keywords
user
hmd
image
eye
fit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019517930A
Other languages
English (en)
Other versions
JP2020502849A5 (ja
JP2020502849A (ja
Inventor
エイドリアン ケーラー,
ゲイリー ブラドスキー,
ヴィジャイ バドリナラヤナン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020502849A publication Critical patent/JP2020502849A/ja
Publication of JP2020502849A5 publication Critical patent/JP2020502849A5/ja
Priority to JP2022034301A priority Critical patent/JP2022069522A/ja
Application granted granted Critical
Publication of JP7090601B2 publication Critical patent/JP7090601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Description

(あらゆる優先権出願に対する参照による援用)
本願は、米国仮出願第62/404,419号、出願日2016年10月5日、発明の名称 “PERIOCULAR TEST FOR GLASSES REMOVAL”、米国仮出願第62/404,493号、出願日2016年10月5日、発明の名称 “PERIOCULAR TEST FOR GLASSES FIT”、および米国仮出願第62/416,341号、出願日2016年11月2日、発明の名称 “DYNAMIC DISPLAY CORRECTION BASED ON DISPLAY POSITION TRACKING”に対する35 U.S.C. § 119(e)のもとでの優先権の利益を主張するものであり、これらの全ての開示は、これらの全体が参照により本明細書中に援用される。
本開示は、仮想現実および拡張現実結像ならびに可視化システムに関し、より具体的には、仮想または拡張現実ウェアラブルディスプレイデバイスの動作パラメータの調整に関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」、「拡張現実」、または「複合現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、もしくはそのように知覚され得る様式でユーザに提示される。仮想現実または「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」は、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する、新しい環境を生成するための実世界と仮想世界の融合に関連する。結論から述べると、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適かつ自然のような感覚で、かつ豊かな提示を促進する、VR、AR、またはMR技術の生産は、困難である。本明細書に開示されるシステムおよび方法は、VR、AR、ならびにMR技術に関連する種々の課題に対処する。
ウェアラブルデバイスは、ユーザの眼球周囲領域の画像を入手するように構成される、内向きに面した結像システムを含むことができる。ウェアラブルデバイスは、内向きに面した結像システムによって入手された画像に基づいて、ウェアラブルデバイスとユーザの顔との間の相対的位置を決定することができる。相対的位置は、ユーザがウェアラブルデバイスを装着しているかどうか、ウェアラブルデバイスがユーザにフィットしているかどうか、または仮想オブジェクトのレンダリング場所に対する調節がウェアラブルデバイスのその正常静止位置からの逸脱を補償するために行われるべきかどうかを決定するために使用されてもよい。
本発明は、例えば、以下を提供する。
(項目1)
頭部搭載型デバイス(HMD)であって、
仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される空間拡張現実(AR)ディスプレイシステムと、
前記HMDと前記ユーザの頭部との間の相対的位置の測定値を記憶するように構成される非一過性メモリと、
前記非一過性メモリおよび前記空間ARディスプレイシステムと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記HMDと前記ユーザの頭部との間の相対的位置の測定値にアクセスすることと、
少なくとも部分的に、前記HMDと前記ユーザの頭部との間の相対的位置に基づいて、前記仮想オブジェクトの正常レンダリング位置に対する調節を計算することと、
前記正常レンダリング位置に対する調節に基づいて、前記仮想オブジェクトのレンダリング場所を決定することと、
前記空間ARディスプレイシステムに、前記仮想オブジェクトを前記レンダリング場所にレンダリングするように命令することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、HMD。
(項目2)
前記HMDと前記ユーザの頭部との間の相対的位置の測定値は、視覚的特徴点を使用して眼球周囲特徴を追跡すること、または前記顔の領域と前記ユーザの頭部の少なくとも一部をエンコードする稠密マップを合致させることのうちの少なくとも1つを実施することによって計算される、項目1に記載のHMD。
(項目3)
前記視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または前記稠密マップは、反復最近傍点アルゴリズムを使用して計算される、項目2に記載のHMD。
(項目4)
前記ハードウェアプロセッサはさらに、前記HMDのレンダリング視点と関連付けられた前記ユーザの眼の正常静止位置を決定するようにプログラムされ、前記仮想オブジェクトの正常レンダリング位置は、前記ユーザの眼の正常静止位置に対応する、項目1に記載のHMD。
(項目5)
前記仮想オブジェクトの正常レンダリング位置に対する調節を計算するために、前記ハードウェアプロセッサは、
少なくとも部分的に、前記HMDと前記ユーザの頭部との間の相対的位置に基づいて、前記正常静止位置に対する偏移を決定することと、
少なくとも部分的に、前記正常静止位置に対する偏移に基づいて、前記HMDのレンダリング視点と関連付けられた座標を偏移させることと
を行うようにプログラムされる、項目4に記載のHMD。
(項目6)
前記HMDと前記ユーザの頭部との間の相対的位置は、前記正常静止位置に対する水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、項目5に記載のHMD。
(項目7)
前記HMDと前記ユーザの頭部との間の相対的位置は、前記ユーザの第1の眼に関する前記HMDとの間の第1の相対的位置と、前記ユーザの第2の眼に関する第2の相対的位置とを含む、項目1に記載のHMD。
(項目8)
方法であって、
ハードウェアプロセッサと、コンピュータプロセッサと、仮想オブジェクトをレンダリングするように構成されるディスプレイシステムと、ユーザの顔の眼球周囲部分を結像するように構成される内向きに面した結像システムとを備える頭部搭載型デバイス(HMD)の制御下で、
画像を前記内向きに面した結像システムから受信することと、
オブジェクト認識装置によって、前記画像を分析し、前記ユーザの眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置を決定することと、
前記相対的位置と閾値条件を比較することによって、フィット感を決定することと、
前記HMDに、
前記HMDのディスプレイを調節し、前記相対的位置を補償すること、または
ユーザに前記フィット感と関連付けられたインジケーションを提供すること
のうちの少なくとも1つを実施させることと
を含む、方法。
(項目9)
前記相対的位置を決定することは、
前記HMDからユーザの眼までの距離を計算すること、
前記ユーザの眼間の瞳孔間距離を計算すること、
前記HMDと前記ユーザの眼との間の相対的位置を決定すること、
前記ユーザの眼の非対称性を決定すること、または
前記HMDの傾斜を決定することであって、前記傾斜は、前方傾斜または側方傾斜のうちの少なくとも1つを含む、こと
のうちの少なくとも1つを含む、項目8に記載の方法。
(項目10)
前記HMDのディスプレイを調節し、前記相対的位置を補償することは、
前記ユーザの眼の正常静止位置と、前記ユーザの眼の正常静止位置に対応する前記仮想オブジェクトの正常レンダリング位置とを決定することと、
少なくとも部分的に、前記HMDと前記ユーザの頭部との間の相対的位置に基づいて、前記仮想オブジェクトの正常レンダリング位置に対する調節を計算することと、
前記正常レンダリング位置に対する調節に基づいて、前記仮想オブジェクトのレンダリング場所を決定することと
を含む、項目8に記載の方法。
(項目11)
前記フィット感を決定することは、
前記ユーザの眼球周囲領域の画像にアクセスすることと、
前記眼球周囲領域の画像と前記ユーザ上の前記HMDのフィット感との間のマッピングにアクセスすることと、
前記マッピングを適用し、前記HMDのフィット感を決定することと
を含む、項目8に記載の方法。
(項目12)
前記フィット感と関連付けられたユーザへのインジケーションは、
前記フィット感の改良に関する命令をユーザに提供することと、
付加的眼画像にアクセスすることと、
前記マッピングを前記付加的眼画像に適用し、更新されたフィット感を決定することと、
更新されたフィット感が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感を決定することと
を含む、項目8に記載の方法。
(項目13)
前記相対的位置を決定することは、
第1の画像および第2の画像を前記内向きに面した結像システムから受信することであって、前記第1の画像および前記第2の画像は、シーケンスで入手される、ことと、
前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内の眼球周囲領域のユーザに特有の眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記眼球周囲領域が前記第1の画像または前記第2の画像内にあるかどうかを決定することと、
少なくとも部分的に、前記第1および第2の画像内の前記眼球周囲特徴の出現に基づいて、前記相対的位置を決定することと
を含み、前記方法はさらに、
前記眼球周囲領域が前記第1の画像または前記第2の画像のいずれにも存在しないことの決定に応答して、前記HMDが前記ユーザの頭部から除去されたことのインジケーションを提供することと、
前記眼球周囲特徴が前記第1の画像または前記第2の画像のいずれかに存在することの決定に応答して、前記HMDに関する状態の変化を示すことと
を含む、項目8に記載の方法。
(項目14)
頭部搭載型デバイス(HMD)であって、
ユーザの顔の眼球周囲領域を結像するように構成される内向きに面した結像システムであって、前記内向きに面した結像システムは、前記眼球周囲領域の少なくとも第1の画像を入手するように構成され、さらに、前記第1の画像内で捕捉された前記眼球周囲領域の一部をマスクするように構成される、内向きに面した結像システムと、
ハードウェアプロセッサであって、
画像を前記内向きに面した結像システムから受信することと、
オブジェクト認識装置によって、前記画像を分析し、前記ユーザの眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置を決定することと、
前記相対的位置と閾値条件を比較することによって、フィット感を決定することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、HMD。
(項目15)
前記フィット感を決定するために、前記ハードウェアプロセッサは、
前記ユーザの眼球周囲領域の画像にアクセスすることと、
前記眼球周囲領域の画像と前記ユーザ上の前記HMDのフィット感との間のマッピングにアクセスすることであって、前記マッピングは、機械学習モデルを使用して訓練される、ことと、
前記マッピングを適用し、前記HMDのフィット感を決定することと
を行うようにプログラムされる、項目14に記載のHMD。
(項目16)
前記フィット感は、良好フィット感、適正フィット感、または不良フィット感のうちの少なくとも1つを含む、項目14に記載のHMD。
(項目17)
前記ハードウェアプロセッサはさらに、前記フィット感に基づいて、仮想オブジェクトのレンダリング場所を調節するようにプログラムされる、項目14に記載のHMD。
(項目18)
前記ハードウェアプロセッサはさらに、前記HMDの初期化位相において、ユーザに前記フィット感に関するインジケーションを提供するようにプログラムされる、項目14に記載のHMD。
(項目19)
前記ハードウェアプロセッサはさらに、
前記フィット感の改良に関する命令をユーザに提供することと、
付加的眼画像にアクセスすることと、
前記マッピングを前記付加的眼画像に適用し、更新されたフィット感を決定することと、
更新されたフィット感が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感を決定することと
を行うようにプログラムされる、項目18に記載のHMD。
(項目20)
前記相対的位置を決定するために、前記ハードウェアプロセッサは、
第1の画像および第2の画像を前記内向きに面した結像システムから受信することであって、前記第1の画像および前記第2の画像は、シーケンスで入手される、ことと、
前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内の前記眼球周囲領域のユーザに特有の眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記眼球周囲領域が前記第1の画像または前記第2の画像内にあるかどうかを決定することと、
少なくとも部分的に、前記第1および第2の画像内の前記眼球周囲特徴の出現に基づいて、前記相対的位置を決定することと
を行うようにプログラムされる、項目14に記載のHMD。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、ならびに請求項から明白となるであろう。本概要または以下の発明を実施するための形態のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
図1は、人物によって視認されるある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。
図2は、ウェアラブルシステムの実施例を図式的に図示する。
図3は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図式的に図示する。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図式的に図示する。
図5は、導波管によって出力され得る、例示的出射ビームを示す。
図6は、導波管装置と、光を導波管装置へまたはそこから光学的に結合するための光学結合器サブシステムと、多焦点立体ディスプレイ、画像、またはライトフィールドの生成において使用される、制御サブシステムとを含む、光学システムを示す、概略図である。
図7は、ウェアラブルシステムの実施例のブロック図である。
図8は、認識されるオブジェクトに関連して仮想コンテンツをレンダリングする方法の実施例のプロセスフロー図である。
図9は、ウェアラブルシステムの別の実施例のブロック図である。
図10は、仮想ユーザインターフェースと相互作用するための方法の実施例のプロセスフロー図である。
図11は、ユーザの顔の画像を入手することができる、例示的ウェアラブルデバイスを図示する。
図12Aは、片眼に関する眼球周囲領域の例示的画像を図示する。
図12Bは、眼球周囲領域の別の例示的画像を図示し、画像内の眼球周囲領域の一部は、マスクされている。
図13Aは、頭部搭載型ディスプレイがユーザの顔に対してその正常静止位置にある、実施例を図示する。
図13Bは、頭部搭載型ディスプレイが片側に傾斜された実施例を図示する。
図13Cは、頭部搭載型ディスプレイが前方に傾斜または偏移された実施例を図示する。
図14Aおよび14Bは、空間拡張現実(SAR)ディスプレイ内の仮想オブジェクトのレンダリング場所の調節の実施例を図示する。 図14Aおよび14Bは、空間拡張現実(SAR)ディスプレイ内の仮想オブジェクトのレンダリング場所の調節の実施例を図示する。
図15Aは、ユーザの顔上のウェアラブルデバイスのフィット感を決定するための例示的方法を図示する。
図15Bは、機械学習技法を使用して、フィット感の良好度または頭部搭載型ディスプレイがユーザ上にあるかどうかに関するマッピングを提供するための方法の実施例を図示する。
図15Cは、ユーザの頭部からのウェアラブルデバイスの除去を決定するための例示的方法を図示する。
図16は、例仮想オブジェクトのレンダリング場所を調節するための示的プロセスを図示する。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図されない。
概要
AR/VR/MRシステムのためのウェアラブルデバイスは、3次元(3D)画像をユーザに提示するための頭部搭載型デバイス(HMD)であることができる。HMDは、頭部搭載型ディスプレイを含んでもよく、これは、3次元(3D)仮想オブジェクトをユーザの環境の中にユーザの眼の視点からレンダリングすることができる。その結果、3D仮想オブジェクトは、実世界オブジェクトと類似様式においてユーザによって知覚され得る。HMDは、これは、ユーザの環境内のオブジェクト(仮想オブジェクトを含む)を示す、世界マップに基づいて、3D仮想オブジェクトをレンダリングすることができる。HMDは、世界マップに対応する色および強度を用いて、ディスプレイ上のピクセルを照明することができる。しかしながら、世界マップ内の点は、ユーザの眼が動き回るため、HMD上に所定のレンダリング場所を有していない場合がある。ディスプレイは、デバイスが最初にユーザによって使用されるとき等、ユーザの眼に対して較正され得るが、そのような較正は、ディスプレイがユーザの頭部に強固に添着されないであろうため、常時、信頼性があるわけではない場合がある。例えば、ディスプレイは、ユーザがユーザ移動を要求するビデオゲームをプレーしているとき等、ユーザがそれと相互作用するとき、移動し得る。さらに、ディスプレイは、ユーザの鼻の下方に若干滑動する、またはユーザの耳間の線に対して傾斜し得る。その結果、HMDは、ディスプレイの偏移(前方または片側への傾斜等)に起因して、仮想オブジェクトの現実的提示を提供することが不可能な場合がある。
本明細書に説明される技法は、少なくとも部分的に、本問題を解決することを対象とする。ウェアラブルデバイスの内向きに面した結像システムは、ユーザの顔の眼球周囲領域の画像を入手することができる。ウェアラブルデバイスは、眼球周囲画像を分析し、眼球周囲特徴(例えば、ユーザの眼の位置)を識別することができる。ウェアラブルデバイスは、ユーザの眼とHMDとの間の相対的位置を決定するために、眼球周囲特徴を追跡することができる。本情報に基づいて、ウェアラブルデバイスは、(HMDによって表示されるための)仮想オブジェクトのレンダリング場所を動的に調節し、ユーザの眼の視点を反映させることができる。故に、HMDのそのような実施形態は、HMDが、ユーザの頭部に対して若干滑動、移動、または傾斜するときでも、画像をユーザに正確に表示することができる。
HMDとユーザの頭部との間の相対的位置はまた、HMDのフィット感を決定するために使用されることができる。フィット感は、現実的かつ没入型の視覚的体験を提供するために、HMDのあるパラメータを調節すべきかどうか(例えば、レンダリングパラメータまたはフレームの位置(例えば、左および右耳掛け部間の距離を増減させ、より大きいまたはより小さい頭部に適応することによって))に関するインジケーションを提供し得る。HMDは、眼球周囲領域の眼画像空間からデバイスに関するフィット感空間へのマッピングを使用して、フィット感の良好度を決定することができる。眼画像空間は、例えば、眼球周囲領域または特徴の画像等、内向きに面した結像システムによって入手された画像に基づいて決定されてもよい。フィット感空間は、フィット感に関する定質的または定量的インジケーションの集合を含むことができる。マッピングは、例えば、深層ニューラルネットワーク等の機械学習技法によって学習され、ユーザの眼球周囲領域内の特徴を識別し、識別された特徴を使用して、HMDとユーザの顔との間の相対的位置を決定する、またはフィット感の良好度を分類し得る。HMDは、相対的位置または機械学習技法によって学習された他の特徴に基づいて、HMDがユーザの顔にフィットしているかどうかに関するインジケーションを提供することができる。HMDはまた、光(例えば、ライトフィールド)がユーザの眼のそれぞれの中に正確に投影されるように、ユーザの頭部に対するHMDの相対的の位置に基づいて、3Dディスプレイからの光の投影を調節することができる。
HMDはまた、マッピングを使用して、ユーザがHMDを装着しているかどうかを決定することができる。例えば、HMDが、眼球周囲特徴が内向きに面した結像システムによって入手された画像内に現れていないことを決定する(または小さすぎ、HMDがユーザの顔から外されていることを示す)と、HMDは、ユーザがデバイスを外したことを示す信号を送信してもよい。信号は、デバイスを1つのモードから別のモードに変化させてもよい。例えば、信号は、HMDをアクティブモードから電源オフモードまたはスリープモードに変化させてもよい。別の実施例として、HMDは、画像を使用して、ユーザの顔とデバイスとの間の距離を計算することができ、HMDが、距離が閾値距離を上回ることを決定する場合、HMDは、ユーザがHMDを外したことを示す信号を送信してもよい。
(ウェアラブルシステムの3Dディスプレイの実施例)
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムの少なくとも一部は、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイス上に実装されることができる。ウェアラブルデバイスは、頭部搭載型デバイス(HMD)であることができ、これは、ARデバイス(ARD)と同義的に使用される。さらに、本開示の目的のために、用語「AR」は、用語「MR」と同義的に使用される。
図1は、人物によって視認される、ある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。図1では、MR場面100が、描写され、MR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、MR技術のユーザはまた、実世界プラットフォーム120上に立っているロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
3Dディスプレイが、真の深度感覚、より具体的には、表面深度のシミュレートされた感覚を生成するために、ディスプレイの視野内の点毎に、その仮想深度に対応する遠近調節応答を生成することが望ましくあり得る。ディスプレイ点に対する遠近調節応答が、収束および立体視の両眼深度キューによって決定されるようなその点の仮想深度に対応しない場合、ヒトの眼は、遠近調節衝突を体験し、不安定な結像、有害な眼精疲労、頭痛、および遠近調節情報の不在下では、表面深度のほぼ完全な欠如をもたらし得る。
VR、AR、およびMR体験は、複数の深度平面に対応する画像が視認者に提供されるディスプレイを有する、ディスプレイシステムによって提供されることができる。画像は、深度平面毎に異なってもよく(例えば、場面またはオブジェクトの若干異なる提示を提供する)、視認者の眼によって別個に集束され、それによって、異なる深度平面上に位置する場面に関する異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、または合焦からずれている異なる深度平面上の異なる画像特徴を観察することに基づいて、ユーザに深度キューを提供することに役立ち得る。本明細書のいずれかに議論されるように、そのような深度キューは、信用できる深度の知覚を提供する。
図2は、ウェアラブルシステム200の実施例を図示し、これは、AR/VR/MR場面を提供するように構成されることができる。ウェアラブルシステム200はまた、ARシステム200と称され得る。ウェアラブルシステム200は、ディスプレイ220と、ディスプレイ220の機能をサポートするための種々の機械的ならびに電子的モジュールおよびシステムとを含む。ディスプレイ220は、ユーザ、装着者、または視認者210によって装着可能である、フレーム230に結合されてもよい。ディスプレイ220は、ユーザ210の眼の正面に位置付けられることができる。ディスプレイ220は、AR/VR/MRコンテンツをユーザに提示するができる。ディスプレイ220は、ユーザの頭部上に装着される、頭部搭載型ディスプレイを備えることができる。頭部搭載型ディスプレイは、ヘッドアップディスプレイ(HUD)であってもよく、これは、仮想情報をユーザの視野内の所定の場所に表示することができる(HUDを通して知覚されるように)。頭部搭載型ディスプレイはまた、空間拡張現実(SAR)ディスプレイであってもよく、これは、仮想オブジェクトが実世界オブジェクトと同様に現れるように、視点が定まった様式において(例えば、ユーザの視点から)3Dオブジェクトをユーザの環境の中にレンダリングすることができる。仮想オブジェクトをレンダリングするために使用される視点は、レンダリング視点とも称され得る。
いくつかの実施形態では、スピーカ240が、フレーム230に結合され、ユーザの外耳道に隣接して位置付けられる(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音響制御を提供する)。ディスプレイ220は、環境からオーディオストリームを検出し、周囲音を捕捉するために、オーディオセンサ(例えば、マイクロホン)232を含むことができる。いくつかの実施形態では、示されない1つ以上の他のオーディオセンサが、ステレオ音受信を提供するために位置付けられる。ステレオ音受信は、音源の場所を決定するために使用されることができる。ウェアラブルシステム200は、音声または発話認識をオーディオストリームに実施することができる。
ウェアラブルシステム200は、ユーザの周囲の環境内の世界を観察する、外向きに面した結像システム464(図4に示される)を含むことができる。ウェアラブルシステム200はまた、ユーザの眼移動を追跡することができる、内向きに面した結像システム462(図4に示される)を含むことができる。内向きに面した結像システムは、一方の眼の移動または両方の眼の移動のいずれかを追跡することができる。内向きに面した結像システム462は、フレーム230に取り付けられてもよく、内向きに面した結像システムによって入手された画像情報を処理し、例えば、ユーザ210の眼の瞳孔直径もしくは配向、眼の移動、または眼姿勢を決定し得る、処理モジュール260または270と電気通信してもよい。内向きに面した結像システム462は、1つ以上のカメラを含んでもよい。例えば、少なくとも1つのカメラは、各眼を結像するために使用されてもよい。カメラによって入手された画像は、眼毎の瞳孔サイズまたは眼姿勢を別個に決定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために使用されてもよい。別の実施例として、1つのみの眼の瞳孔直径または配向が、決定され(例えば、その眼の画像を入手するように構成されるカメラのために入手された画像に基づいて)、本眼のために決定された眼特徴は、ユーザ210の他の眼に関しても類似であると仮定される。
実施例として、ウェアラブルシステム200は、外向きに面した結像システム464または内向きに面した結像システム462を使用して、ユーザの姿勢の画像を入手することができる。画像は、静止画像、ビデオのフレーム、またはビデオであってもよい。
ディスプレイ220は、有線導線または無線接続等によって、フレーム230に固定して取り付けられる、ユーザによって装着されるヘルメットもしくは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ210に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載され得る、ローカルデータ処理モジュール260に動作可能に結合されることができる(250)。
ローカル処理およびデータモジュール260は、ハードウェアプロセッサならびに不揮発性メモリ(例えば、フラッシュメモリ)等のデジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、画像捕捉デバイス(例えば、内向きに面した結像システムおよび/または外向きに面した結像システム内のカメラ)、オーディオセンサ(例えば、マイクロホン)、慣性測定ユニット(IMU)、加速度計、コンパス、全地球測位システム(GPS)ユニット、無線デバイス、もしくはジャイロスコープ等の(例えば、フレーム230に動作可能に結合される、または別様にユーザ210に取り付けられ得る)センサから捕捉されるデータ(a)、または場合によっては処理もしくは読出後にディスプレイ220への通過のために、遠隔処理モジュール270もしくは遠隔データリポジトリ280を使用して入手もしくは処理されるデータ(b)を含んでもよい。ローカル処理およびデータモジュール260は、これらの遠隔モジュールがローカル処理およびデータモジュール260へのリソースとして利用可能であるように、有線または無線通信リンク等を介して、通信リンク262または264を遠隔処理モジュール270または遠隔データリポジトリ280に動作可能に結合されてもよい。加えて、遠隔処理モジュール280および遠隔データリポジトリ280は、相互に動作可能に結合されてもよい。
いくつかの実施形態では、遠隔処理モジュール270は、データまたは画像情報を分析および処理するように構成される、1つ以上のプロセッサを備えてもよい。いくつかの実施形態では、遠隔データリポジトリ280は、デジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュールにおいて実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
ヒト視覚系は、複雑であって、深度の現実的知覚を提供することは、困難である。理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散運動(vergence)と遠近調節(accommodation)の組み合わせに起因して、オブジェクトを3次元として知覚し得ると考えられる。相互に対する2つの眼の輻輳・開散運動(すなわち、瞳孔が、相互に向かって、またはそこから離れるように移動し、眼の視線を収束させ、オブジェクトを固視するような瞳孔の回転)は、眼の水晶体の合焦(または「遠近調節」)と緊密に関連付けられる。通常条件下、焦点を1つのオブジェクトから異なる距離における別のオブジェクトに変化させるための眼のレンズの焦点の変化または眼の遠近調節は、「遠近調節-輻輳・開散運動反射」として知られる関係下、輻輳・開散運動の整合変化を自動的に同一距離に生じさせるであろう。同様に、輻輳・開散運動の変化は、通常条件下、遠近調節の整合変化を誘起するであろう。遠近調節と輻輳・開散運動との間のより良好な整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
図3は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。図3を参照すると、z-軸上の眼302および304からの種々の距離におけるオブジェクトは、それらのオブジェクトが合焦するように、眼302および304によって遠近調節される。眼302および304は、特定の遠近調節された状態をとり、オブジェクトをz-軸に沿った異なる距離に合焦させる。その結果、特定の遠近調節された状態は、特定の深度平面におけるオブジェクトまたはオブジェクトの一部が、眼がその深度平面に対して遠近調節された状態にあるとき、合焦するように、関連付けられた焦点距離を有する、深度平面306のうちの特定の1つと関連付けられると言え得る。いくつかの実施形態では、3次元画像は、眼302および304毎に、画像の異なる提示を提供することによって、また、深度平面のそれぞれに対応する画像の異なる提示を提供することによって、シミュレートされてもよい。例証を明確にするために、別個であるように示されるが、眼302および304の視野は、例えば、z-軸に沿った距離が増加するにつれて、重複し得ることを理解されたい。加えて、例証を容易にするために、平坦であるように示されるが、深度平面の輪郭は、深度平面内の全ての特徴が特定の遠近調節された状態における眼と合焦するように、物理的空間内で湾曲され得ることを理解されたい。理論によって限定されるわけではないが、ヒトの眼は、典型的には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。
(導波管スタックアセンブリ)
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、そのウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
図4を継続して参照すると、導波管アセンブリ480はまた、複数の特徴458、456、454、452を導波管の間に含んでもよい。いくつかの実施形態では、特徴458、456、454、452は、レンズであってもよい。他の実施形態では、特徴458、456、454、452は、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、空気間隙を形成するためのクラッディング層または構造)。
導波管432b、434b、436b、438b、440bまたは複数のレンズ458、456、454、452は、種々のレベルの波面曲率または光線発散を用いて、画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス420、422、424、426、428は、それぞれ、眼410(図3における眼304に対応し得る)に向かって出力するために、各個別の導波管を横断して入射光を分散させるように構成され得る、導波管440b、438b、436b、434b、432bの中に画像情報を投入するために利用されてもよい。光は、画像投入デバイス420、422、424、426、428の出力表面から出射し、導波管440b、438b、436b、434b、432bの対応する入力縁の中に投入される。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられた深度平面に対応する特定の角度(および発散量)において眼410に向かって指向される、クローン化されたコリメートビームの場全体を出力してもよい。
いくつかの実施形態では、画像投入デバイス420、422、424、426、428は、それぞれ、それぞれの対応する導波管440b、438b、436b、434b、432bの中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス420、422、424、426、428は、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して、画像投入デバイス420、422、424、426、428のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。
コントローラ460が、スタックされた導波管アセンブリ480および画像投入デバイス420、422、424、426、428の動作を制御する。コントローラ460は、導波管440b、438b、436b、434b、432bへの画像情報のタイミングおよび提供を調整する、プログラミング(例えば、非一過性コンピュータ可読媒体内の命令)を含む。いくつかの実施形態では、コントローラ460は、単一一体型デバイスまたは有線もしくは無線通信チャネルによって接続される分散型システムであってもよい。コントローラ460は、いくつかの実施形態では、処理モジュール260または270(図2に図示される)の一部であってもよい。
導波管440b、438b、436b、434b、432bは、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管440b、438b、436b、434b、432bはそれぞれ、主要な上部および底部表面ならびにそれらの主要上部表面と底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管440b、438b、436b、434b、432bはそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から画像情報を眼410に出力することによって、光を導波管から抽出するように構成される、光抽出光学要素440a、438a、436a、434a、432aを含んでもよい。抽出された光はまた、外部結合光と称され得、光抽出光学要素はまた、外部結合光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光再指向要素に衝打する場所において出力される。光抽出光学要素(440a、438a、436a、434a、432a)は、例えば、反射または回折光学特徴であってもよい。説明を容易にし、図面を明確にするために、導波管440b、438b、436b、434b、432bの底部主要表面に配置されて図示されるが、いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、上部もしくは底部主要表面に配置されてもよい、または導波管440b、438b、436b、434b、432bの容積内に直接配置されてもよい。いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、透明基板に取り付けられ、導波管440b、438b、436b、434b、432bを形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管440b、438b、436b、434b、432bは、材料のモノリシック部品であってもよく、光抽出光学要素440a、438a、436a、434a、432aは、その材料部品の表面上および/または内部に形成されてもよい。
図4を継続して参照すると、本明細書に議論されるように、各導波管440b、438b、436b、434b、432bは、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管432bは、そのような導波管432bの中に投入されるにつれて、コリメートされた光を眼410に送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管434bは、眼410に到達し得る前に、第1のレンズ452(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。第1のレンズ452は、眼/脳が、その次の上方の導波管434bから生じる光を光学無限遠から眼410に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管436bは、眼410に到達する前に、その出力光を第1のレンズ452および第2のレンズ454の両方を通して通過させる。第1および第2のレンズ452ならびに454の組み合わせられた屈折力は、眼/脳が、第3の上方の導波管436bから生じる光が次の上方の導波管434bからの光であった光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層(例えば、導波管438b、440b)およびレンズ(例えば、レンズ456、458)も同様に構成され、スタック内の最高導波管440bを用いて、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ480の他側の世界470から生じる光を視認/解釈するとき、レンズ458、456、454、452のスタックを補償するために、補償レンズ層430が、スタックの上部に配置され、下方のレンズスタック458、456、454、452の集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の光抽出光学要素およびレンズの集束側面は両方とも、静的であってもよい(例えば、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
図4を継続して参照すると、光抽出光学要素440a、438a、436a、434a、432aは、導波管と関連付けられた特定の深度平面のために、光をその個別の導波管から再指向し、かつ本光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、関連付けられた深度平面に応じて、異なる量の発散を伴う光を出力する、異なる構成の光抽出光学要素を有してもよい。いくつかの実施形態では、本明細書に議論されるように、光抽出光学要素440a、438a、436a、434a、432aは、光を具体的角度で出力するように構成され得る、立体または表面特徴であってもよい。例えば、光抽出光学要素440a、438a、436a、434a、432aは、体積ホログラム、表面ホログラム、および/または回折格子であってもよい。回折格子等の光抽出光学要素は、2015年6月25日に公開された米国特許公開第2015/0178939号(参照することによってその全体として本明細書に組み込まれる)に説明される。
いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、回折パターンまたは「回折光学要素」(また、本明細書では、「DOE」とも称される)を形成する、回折特徴である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差点を用いて眼410に向かって偏向される一方、残りが、全内部反射を介して、導波管を通して移動し続けるように、比較的に低回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼304に向かって非常に均一なパターンの出射放出となることができる。
いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられることができる(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに整合しない屈折率に切り替えられることができる(その場合、パターンは、入射光を能動的に回折させる)。
いくつかの実施形態では、深度平面または被写界深度の数および分布は、視認者の眼の瞳孔サイズまたは配向に基づいて、動的に変動されてもよい。被写界深度は、視認者の瞳孔サイズと反比例して変化してもよい。その結果、視認者の眼の瞳孔のサイズが減少するにつれて、被写界深度は、その平面の場所が眼の焦点深度を越えるため判別不能である1つの平面が、判別可能となり、瞳孔サイズの低減および被写界深度の相当する増加に伴って、より合焦して現れ得るように増加する。同様に、異なる画像を視認者に提示するために使用される、離間される深度平面の数は、減少された瞳孔サイズに伴って減少されてもよい。例えば、視認者は、一方の深度平面から他方の深度平面への眼の遠近調節を調節せずに、第1の深度平面および第2の深度平面の両方の詳細を1つの瞳孔サイズにおいて明確に知覚することが可能ではない場合がある。しかしながら、これらの2つの深度平面は、同時に、遠近調節を変化させずに、別の瞳孔サイズにおいてユーザに合焦するには十分であり得る。
いくつかの実施形態では、ディスプレイシステムは、瞳孔サイズまたは配向の決定に基づいて、もしくは特定の瞳孔サイズまたは配向を示す電気信号の受信に応じて、画像情報を受信する導波管の数を変動させてもよい。例えば、ユーザの眼が、2つの導波管と関連付けられた2つの深度平面間を区別不能である場合、コントローラ460(ローカル処理およびデータモジュール260の実施形態であり得る)は、これらの導波管のうちの1つへの画像情報の提供を停止するように構成またはプログラムされることができる。有利には、これは、システムへの処理負担を低減させ、それによって、システムの応答性を増加させ得る。導波管のためのDOEがオンおよびオフ状態間で切替可能である実施形態では、DOEは、導波管が画像情報を受信するとき、オフ状態に切り替えられてもよい。
いくつかの実施形態では、出射ビームに視認者の眼の直径未満の直径を有するという条件を満たさせることが望ましくあり得る。しかしながら、本条件を満たすことは、視認者の瞳孔のサイズの変動性に照らして、困難であり得る。いくつかの実施形態では、本条件は、視認者の瞳孔のサイズの決定に応答して出射ビームのサイズを変動させることによって、広範囲の瞳孔サイズにわたって満たされる。例えば、瞳孔サイズが減少するにつれて、出射ビームのサイズもまた、減少し得る。いくつかの実施形態では、出射ビームサイズは、可変開口を使用して変動されてもよい。
ウェアラブルシステム400は、世界470の一部を結像する、外向きに面した結像システム464(例えば、デジタルカメラ)を含むことができる。世界470の本部分は、世界カメラの視野(FOV)と称され得、結像システム464は、時として、FOVカメラとも称される。世界カメラのFOVは、視認者210のFOVと同一である場合とそうではない場合があり、これは、視認者210が所与の時間に知覚する、世界470の一部を包含する。例えば、いくつかの状況では、世界カメラのFOVは、ウェアラブルシステム400の視認者210の視野より大きくあり得る。視認者による視認または結像のために利用可能な領域全体は、動眼視野(FOR)と称され得る。FORは、装着者が、その身体、頭部、または眼を移動させ、空間内の実質的に任意の方向を知覚することができるため、ウェアラブルシステム400を囲繞する4πステラジアンの立体角を含んでもよい。他のコンテキストでは、装着者の移動は、より抑制されてもよく、それに応じて、装着者のFORは、より小さい立体角に接し得る。外向きに面した結像システム464から得られた画像は、ユーザによって行われるジェスチャ(例えば、手または指のジェスチャ)を追跡し、ユーザの正面における世界470内のオブジェクトを検出する等のために、使用されることができる。
ウェアラブルシステム400は、オーディオセンサ232、例えば、マイクロホンを含み、周囲音を捕捉することができる。上記に説明されるように、いくつかの実施形態では、1つ以上の他のオーディオセンサが、発話源の場所の決定に有用なステレオ音受信を提供するために位置付けられることができる。オーディオセンサ232は、別の実施例として、指向性マイクロホンを備えることができ、これはまた、オーディオ源が位置する場所に関するそのような有用な指向性情報を提供することができる。ウェアラブルシステム400は、発話源を位置特定する際、または特定の瞬間におけるアクティブ話者を決定するため等に、外向きに面した結像システム464およびオーディオセンサ230の両方からの情報を使用することができる。例えば、ウェアラブルシステム400は、単独で、または話者の反射された画像(例えば、鏡に見られるように)と組み合わせて、音声認識を使用し、話者の識別を決定することができる。別の実施例として、ウェアラブルシステム400は、指向性マイクロホンから入手された音に基づいて、環境内の話者の位置を決定することができる。ウェアラブルシステム400は、発話認識アルゴリズムを用いて、話者の位置から生じる音を解析し、発話のコンテンツを決定し、音声認識技法を使用して、話者の識別(例えば、名前または他の人口統計情報)を決定することができる。
ウェアラブルシステム400はまた、眼移動および顔移動等のユーザの移動を観察する、内向きに面した結像システム466(例えば、デジタルカメラ)を含むことができる。内向きに面した結像システム466は、眼410の画像を捕捉し、眼304の瞳孔のサイズおよび/または配向を決定するために使用されてもよい。内向きに面した結像システム466は、ユーザが見ている方向(例えば、眼姿勢)を決定する際に使用するため、またはユーザのバイオメトリック識別のため(例えば、虹彩識別を介して)、画像を得るために使用されることができる。いくつかの実施形態では、少なくとも1つのカメラが、眼毎に、独立して、各眼の瞳孔サイズまたは眼姿勢を別個に決定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために利用されてもよい。いくつかの他の実施形態では、片眼410のみの瞳孔直径または配向(例えば、対の眼あたり単一カメラのみを使用して)が、決定され、ユーザの両眼に関して類似すると仮定される。内向きに面した結像システム466によって得られる画像は、ユーザに提示されるべきオーディオまたは視覚的コンテンツを決定するためにウェアラブルシステム400によって使用され得る、ユーザの眼姿勢または気分を決定するために分析されてもよい。ウェアラブルシステム400はまた、IMU、加速度計、ジャイロスコープ等のセンサを使用して、頭部姿勢(例えば、頭部位置または頭部配向)を決定してもよい。
ウェアラブルシステム400は、ユーザが、コマンドをコントローラ460に入力し、ウェアラブルシステム400と相互作用し得る、ユーザ入力デバイス466を含むことができる。例えば、ユーザ入力デバイス466は、トラックパッド、タッチスクリーン、ジョイスティック、多自由度(DOF)コントローラ、容量感知デバイス、ゲームコントローラ、キーボード、マウス、指向性パッド(Dパッド)、ワンド、触知デバイス、トーテム(例えば、仮想ユーザ入力デバイスとして機能する)等を含むことができる。マルチDOFコントローラは、コントローラの一部または全部の可能性として考えられる平行移動(例えば、左/右、前方/後方、もしくは上/下)または回転(例えば、ヨー、ピッチ、もしくはロール)におけるユーザ入力を感知することができる。平行移動をサポートする、マルチDOFコントローラは、3DOFと称され得る一方、平行移動および回転をサポートする、マルチDOFコントローラは、6DOFと称され得る。ある場合には、ユーザは、指(例えば、親指)を使用して、タッチセンサ式入力デバイスを押下またはその上でスワイプし、入力をウェアラブルシステム400に提供してもよい(例えば、ユーザ入力をウェアラブルシステム400によって提供されるユーザインターフェースに提供するために)。ユーザ入力デバイス466は、ウェアラブルシステム400の使用の間、ユーザの手によって保持されてもよい。ユーザ入力デバイス466は、ウェアラブルシステム400と有線または無線通信することができる。
図5は、導波管によって出力された出射ビームの実施例を示す。1つの導波管が図示されるが、導波管アセンブリ480内の他の導波管も同様に機能し得、導波管アセンブリ480は、複数の導波管を含むことを理解されたい。光520が、導波管432bの入力縁432cにおいて導波管432bの中に投入され、TIRによって導波管432b内を伝搬する。光520がDOE432aに衝突する点において、光の一部が、出射ビーム510として導波管から出射する。出射ビーム510は、略平行として図示されるが、それらはまた、導波管432bと関連付けられた深度平面に応じて、ある角度で眼410に伝搬するように再指向されてもよい(例えば、発散出射ビーム形成)。略平行出射ビームは、光を外部結合し、眼410から遠距離(例えば、光学無限遠)における深度平面に設定されるように現れる画像を形成する光抽出光学要素を伴う導波管を示し得ることを理解されたい。他の導波管または他の光抽出光学要素のセットは、より発散する、出射ビームパターンを出力してもよく、これは、眼410がより近い距離に遠近調節し、網膜に合焦させることを要求し、光学無限遠より眼410に近い距離からの光として脳によって解釈されるであろう。
図6は、導波管装置と、光を導波管装置へまたはそこから光学的に結合するための光学結合器サブシステムと、多焦点立体ディスプレイ、画像、またはライトフィールドの生成において使用される制御サブシステムとを含む、光学システムを示す、概略図である。光学システムは、導波管装置と、光を導波管装置にまたはそこから光学的に結合するための光学結合器サブシステムと、制御サブシステムとを含むことができる。光学システムは、多焦点立体、画像、またはライトフィールドを生成するために使用されることができる。光学システムは、1つ以上の一次平面導波管632a(1つのみのが図6に示される)と、一次導波管632aの少なくともいくつかのそれぞれと関連付けられた1つ以上のDOE632bとを含むことができる。平面導波管632bは、図4を参照して議論される導波管432b、434b、436b、438b、440bに類似することができる。光学システムは、分散導波管装置を採用し、光を第1の軸(図6の図では、垂直またはY-軸)に沿って中継し、第1の軸(例えば、Y-軸)に沿って光の有効射出瞳を拡張させてもよい。分散導波管装置は、例えば、分散平面導波管622bと、分散平面導波管622bと関連付けられた少なくとも1つのDOE622a(二重破線によって図示される)とを含んでもよい。分散平面導波管622bは、少なくともいくつかの点において、それと異なる配向を有する一次平面導波管632bと類似または同じであってもよい。同様に、少なくとも1つのDOE622aは、少なくともいくつかの点において、DOE632aと類似または同じであってもよい。例えば、分散平面導波管622bまたはDOE622aは、それぞれ、一次平面導波管632bまたはDOE632aと同一材料から成ってもよい。図6に示される光学ディスプレイシステム600の実施形態は、図2に示されるウェアラブルシステム200の中に統合されることができる。
中継され、射出瞳が拡張された光は、分散導波管装置から1つ以上の一次平面導波管632bの中に光学的に結合され得る。一次平面導波管632bは、好ましくは、第1の軸に直交する、第2の軸(例えば、図6の図では、水平またはX-軸)に沿って、光を中継することができる。着目すべきこととして、第2の軸は、第1の軸に対して非直交軸であることができる。一次平面導波管632bは、その第2の軸(例えば、X-軸)に沿って、光の有効射出瞳を拡張させる。例えば、分散平面導波管622bは、光を垂直またはY-軸に沿って中継および拡張させ、光を水平またはX-軸に沿って中継および拡張させ得る、一次平面導波管632bにその光を通過させることができる。
光学システムは、単一モード光ファイバ640の近位端の中に光学的に結合され得る、1つ以上の着色光源(例えば、赤色、緑色、および青色レーザ光)610を含んでもよい。光ファイバ640の遠位端は、圧電材料の中空管642を通して螺合または受容されてもよい。遠位端は、固定されない可撓性カンチレバー644として、管642から突出する。圧電管642は、4つの象限電極(図示せず)と関連付けられることができる。電極は、例えば、管642の外側、外側表面もしくは外側周縁、または直径に鍍着されてもよい。コア電極(図示せず)もまた、管642のコア、中心、内側周縁、または内径に位置してもよい。
例えば、ワイヤ660を介して電気的に結合される、駆動電子機器650は、対向する対の電極を駆動し、圧電管642を独立して2つの軸において屈曲させる。光ファイバ644の突出する遠位先端は、機械的共鳴モードを有する。共鳴の周波数は、光ファイバ644の直径、長さ、および材料性質に依存し得る。圧電管642をファイバカンチレバー644の第1の機械的共鳴モードの近傍で振動させることによって、ファイバカンチレバー644は、振動させられ、大偏向を通して掃引し得る。
2つの軸において共振振動を刺激することによって、ファイバカンチレバー644の先端は、2次元(2-D)走査を充填する面積内において2軸方向に走査される。光源610の強度をファイバカンチレバー644の走査と同期して変調させることによって、ファイバカンチレバー644から発せられる光は、画像を形成することができる。そのような設定の説明は、米国特許公開第2014/0003762号(参照することによってその全体として本明細書に組み込まれる)に提供されている。
光学結合器サブシステムのコンポーネントは、走査ファイバカンチレバー644から発せられる光をコリメートすることができる。コリメートされた光は、鏡面表面648によって、少なくとも1つの回折光学要素(DOE)622aを含有する、狭分散平面導波管622bの中に反射されることができる。コリメートされた光は、TIRによって分散平面導波管622bに沿って(図6の図に対して)垂直に伝搬し、そうすることによって、DOE622aと繰り返し交差することができる。DOE622aは、好ましくは、低回折効率を有する。これは、光の一部(例えば、10%)をDOE622aとの交差点の各点においてより大きい一次平面導波管632bの縁に向かって回折させ、光の一部をTIRを介して分散平面導波管622bの長さを辿ってそのオリジナル軌道上で継続させることができる。
DOE622aとの交差点の各点において、付加的光が、一次導波管632bの入口に向かって回折されることができる。入射光を複数の外部結合セットに分割することによって、光の射出瞳は、分散平面導波管622b内のDOE622aによって垂直に拡張されることができる。分散平面導波管622bから外部結合された本垂直に拡張された光は、一次平面導波管632bの縁に進入することができる。
一次導波管632bに進入する光は、TIRを介して、一次導波管632bに沿って(図6の図に対して)水平に伝搬することができる。光は、複数の点においてDOE632aと交差するにつれて、TIRを介して、一次導波管632bの長さの少なくとも一部に沿って水平に伝搬する。DOE632aは、有利には、線形回折パターンおよび半径方向対称回折パターンの総和である、位相プロファイルを有し、光の偏向および集束の両方を生成するように設計または構成され得る。DOE632aは、有利には、ビームの光の一部のみが、DOE632aの各交差点において視認者の眼に向かって偏向される一方、光の残りが、TIRを介して、一次導波管632bを通して伝搬し続けるように、低回折効率(例えば、10%)を有し得る。
伝搬する光とDOE632aとの間の交差点の各点において、光の一部は、一次導波管632bの隣接面に向かって回折され、光がTIRから逃散し、一次導波管632bの面から発せられることを可能にする。いくつかの実施形態では、DOE632aの半径方向対称回折パターンは、加えて、ある焦点レベルを回折された光に付与し、個々のビームの光波面を成形(例えば、曲率を付与する)し、かつビームを設計される焦点レベルに合致する角度に操向することの両方を行う。
故に、これらの異なる経路は、異なる角度におけるDOE632aの多重度、焦点レベル、または射出瞳において異なる充填パターンをもたらすことによって、光を一次平面導波管632bの外部で結合させることができる。射出瞳における異なる充填パターンは、有利には、複数の深度平面を伴うライトフィールドディスプレイを生成するために使用されることができる。導波管アセンブリ内の各層またはスタック内の層のセット(例えば、3層)が、個別の色(例えば、赤色、青色、緑色)を生成するために採用されてもよい。したがって、例えば、第1の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第1の焦点深度において生成するために採用されてもよい。第2の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第2の焦点深度において生成するために採用されてもよい。複数のセットが、種々の焦点深度を伴うフル3Dまたは4Dカラー画像ライトフィールドを生成するために採用されてもよい。
(ウェアラブルシステムの他のコンポーネント)
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つ以上の触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトもしくはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、例えば、ユーザによって操作可能であって、ウェアラブルシステムへの入力またはそれとの相互作用を可能にする、1つ以上の物理的オブジェクトを含んでもよい。これらの物理的オブジェクトは、本明細書では、トーテムと称され得る。いくつかのトーテムは、例えば、金属またはプラスチック片、壁、テーブルの表面等、無生物オブジェクトの形態をとってもよい。ある実装では、トーテムは、実際には、任意の物理的入力構造(例えば、キー、トリガ、ジョイスティック、トラックボール、ロッカスイッチ)を有していなくてもよい。代わりに、トーテムは、単に、物理的表面を提供してもよく、ウェアラブルシステムは、ユーザにトーテムの1つ以上の表面上にあるように見えるように、ユーザインターフェースをレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムの1つ以上の表面上に常駐するように見えるように、コンピュータキーボードおよびトラックパッドの画像をレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムとしての役割を果たす、アルミニウムの薄い長方形プレートの表面上に見えるように、仮想コンピュータキーボードおよび仮想トラックパッドをレンダリングしてもよい。長方形プレート自体は、任意の物理的キーまたはトラックパッドもしくはセンサを有していない。しかしながら、ウェアラブルシステムは、仮想キーボードまたは仮想トラックパッドを介して行われた選択または入力として、長方形プレートを用いたユーザ操作または相互作用もしくはタッチを検出し得る。ユーザ入力デバイス466(図4に示される)は、トラックパッド、タッチパッド、トリガ、ジョイスティック、トラックボール、ロッカもしくは仮想スイッチ、マウス、キーボード、多自由度コントローラ、または別の物理的入力デバイスを含み得る、トーテムの実施形態であってもよい。ユーザは、単独で、または姿勢と組み合わせて、トーテムを使用し、ウェアラブルシステムまたは他のユーザと相互作用してもよい。
本開示のウェアラブルデバイス、HMD、およびディスプレイシステムと併用可能な触知デバイスおよびトーテムの実施例は、米国特許公開第2015/0016777号(参照することによってその全体として本明細書に組み込まれる)に説明される。
(例示的ウェアラブルシステム、環境、およびインターフェース)
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
図7は、MR環境700の実施例のブロック図である。MR環境700は、入力(例えば、ユーザのウェアラブルシステムからの視覚的入力702、室内カメラ等の定常入力704、種々のセンサからの感覚入力706、ユーザ入力デバイス466からのジェスチャ、トーテム、眼追跡、ユーザ入力等)を1つ以上のユーザウェアラブルシステム(例えば、ウェアラブルシステム200もしくはディスプレイシステム220)または定常室内システム(例えば、室内カメラ等)から受信するように構成されてもよい。ウェアラブルシステムは、種々のセンサ(例えば、加速度計、ジャイロスコープ、温度センサ、移動センサ、深度センサ、GPSセンサ、内向きに面した結像システム、外向きに面した結像システム等)を使用して、ユーザの環境の場所および種々の他の属性を決定することができる。本情報はさらに、異なる視点からの画像または種々のキューを提供し得る、部屋内の定常カメラからの情報で補完されてもよい。カメラ(室内カメラまたは外向きに面した結像システムのカメラ等)によって入手された画像データは、マッピング点のセットに低減されてもよい。
1つ以上のオブジェクト認識装置708が、受信されたデータ(例えば、点の集合)を通してクローリングし、点を認識またはマッピングし、画像をタグ付けし、マップデータベース710を用いて、意味論情報をオブジェクトに結び付けることができる。マップデータベース710は、経時的に収集された種々の点およびその対応するオブジェクトを備えてもよい。種々のデバイスおよびマップデータベースは、ネットワーク(例えば、LAN、WAN等)を通して相互に接続され、クラウドにアクセスすることができる。
本情報およびマップデータベース内の点集合に基づいて、オブジェクト認識装置708a-708nは、環境内のオブジェクトを認識してもよい。例えば、オブジェクト認識装置は、顔、人物、窓、壁、ユーザ入力デバイス、テレビ、ドキュメント(例えば、本明細書におけるセキュリティ実施例において説明されるような旅券、運転免許証、パスポート)、ユーザの環境内の他のオブジェクト等を認識することができる。1つ以上のオブジェクト認識装置が、ある特性を伴うオブジェクトのために特殊化されてもよい。例えば、オブジェクト認識装置708aは、顔を認識するために使用されてもよい一方、別のオブジェクト認識装置は、ドキュメントを認識するために使用されてもよい。
オブジェクト認識は、種々のコンピュータビジョン技法を使用して実施されてもよい。例えば、ウェアラブルシステムは、外向きに面した結像システム464(図4に示される)によって入手された画像を分析し、場面再構成、イベント検出、ビデオ追跡、オブジェクト認識(例えば、人物またはドキュメント)、オブジェクト姿勢推定、顔認識(例えば、環境内の人物またはドキュメント上の画像から)、学習、インデックス化、運動推定、または画像分析(例えば、写真、署名、識別情報、旅行情報等のドキュメント内の印を識別する)等を実施することができる。1つ以上のコンピュータビジョンアルゴリズムが、これらのタスクを実施するために使用されてもよい。コンピュータビジョンアルゴリズムの非限定的実施例は、スケール不変特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、配向FASTおよび回転BRIEF(ORB)、バイナリロバスト不変スケーラブルキーポイント(BRISK)、高速網膜キーポイント(FREAK)、Viola-Jonesアルゴリズム、Eigenfacesアプローチ、Lucas-Kanadeアルゴリズム、Horn-Schunkアルゴリズム、Mean-shiftアルゴリズム、視覚的同時位置推定およびマッピング(vSLAM)技法、シーケンシャルベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタ等)、バンドル調節、適応閾値化(および他の閾値化技法)、反復最近傍点(ICP)、セミグローバルマッチング(SGM)、セミグローバルブロックマッチング(SGBM)、特徴点ヒストグラム、種々の機械学習アルゴリズム(例えば、サポートベクトルマシン、k最近傍アルゴリズム、単純ベイズ、ニューラルネットワーク(畳み込みまたは深層ニューラルネットワークを含む)、または他の教師あり/教師なしモデル等)等を含む。
オブジェクト認識は、加えて、または代替として、種々の機械学習アルゴリズムによって実施されることができる。いったん訓練されると、機械学習アルゴリズムは、HMDによって記憶されることができる。機械学習アルゴリズムのいくつかの実施例は、教師ありまたは教師なし機械学習アルゴリズムを含むことができ、回帰アルゴリズム(例えば、通常の最小2乗回帰等)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化等)、決定ツリーアルゴリズム(例えば、分類および回帰ツリー等)、ベイズアルゴリズム(例えば、単純ベイズ等)、クラスタリングアルゴリズム(例えば、k-平均クラスタリング等)、関連付けルール学習アルゴリズム(例えば、アプリオリアルゴリズム等)、人工ニューラルネットワークアルゴリズム(例えば、Perceptron等)、深層学習アルゴリズム(例えば、Deep Boltzmann Machine、すなわち、深層ニューラルネットワーク等)、次元削減アルゴリズム(例えば、主成分分析等)、アンサンブルアルゴリズム(例えば、Stacked Gneralization等)、および/または他の機械学習アルゴリズムを含む。いくつかの実施形態では、個々のモデルは、個々のデータセットのためにカスタマイズされることができる。例えば、ウェアラブルデバイスは、ベースモデルを生成または記憶することができる。ベースモデルは、開始点として使用され、データタイプ(例えば、テレプレゼンスセッション内の特定のユーザ)、データセット(例えば、テレプレゼンスセッション内のユーザの取得される付加的画像のセット)、条件付き状況、または他の変形例に特有の付加的モデルを生成してもよい。いくつかの実施形態では、ウェアラブルHMDは、複数の技法を利用して、集約されたデータの分析のためのモデルを生成するように構成されることができる。他の技法は、事前に定義された閾値またはデータ値を使用することを含んでもよい。
マップデータベース内の本情報および点の集合に基づいて、オブジェクト認識装置708a-708nは、オブジェクトを認識し、オブジェクトを意味論情報で補完し、生命をオブジェクトに与えてもよい。例えば、オブジェクト認識装置が、点のセットがドアであることを認識する場合、システムは、いくつかの意味論情報を結び付けてもよい(例えば、ドアは、ヒンジを有し、ヒンジを中心として90度移動を有する)。オブジェクト認識装置が、点のセットが鏡であることを認識する場合、システムは、鏡が、部屋内のオブジェクトの画像を反射させ得る、反射表面を有するという意味論情報を結び付けてもよい。意味論情報は、本明細書に説明されるように、オブジェクトのアフォーダンスを含むことができる。例えば、意味論情報は、オブジェクトの法線を含んでもよい。システムは、ベクトルを割り当てることができ、その方向は、オブジェクトの法線を示す。経時的に、マップデータベースは、システム(ローカルに常駐し得る、または無線ネットワークを通してアクセス可能であり得る)がより多くのデータを世界から蓄積するにつれて成長する。いったんオブジェクトが認識されると、情報は、1つ以上のウェアラブルシステムに伝送されてもよい。例えば、MR環境700は、Californiaで生成している場面についての情報を含んでもよい。環境700は、New Yorkにおける1人以上のユーザに伝送されてもよい。FOVカメラおよび他の入力から受信されたデータに基づいて、オブジェクト認識装置および他のソフトウェアコンポーネントは、場面が世界の異なる部分に存在し得る第2のユーザに正確に「パス」され得るように、種々の画像から収集された点をマッピングし、オブジェクトを認識すること等ができる。環境700はまた、位置特定目的のために、トポロジマップを使用してもよい。
図8は、認識されたオブジェクトに関連して仮想コンテンツをレンダリングする方法800の実施例のプロセスフロー図である。方法800は、仮想場面がウェアラブルシステムのユーザに提示され得る方法を説明する。ユーザは、その場面から地理的に遠隔に存在してもよい。例えば、ユーザは、New Yorkに存在し得るが、Californiaで現在起こっている場面を視認することを所望し得る、またはCaliforniaに存在する友人と散歩に行くことを所望し得る。
ブロック810では、ウェアラブルシステムは、ユーザの環境に関する入力をユーザおよび他のユーザから受信してもよい。これは、種々の入力デバイスおよびマップデータベース内にすでに保有されている知識を通して達成されてもよい。ユーザのFOVカメラ、センサ、GPS、眼追跡等が、ブロック810において、情報をシステムに伝達する。システムは、ブロック820において、本情報に基づいて、疎点を決定してもよい。疎点は、ユーザの周囲における種々のオブジェクトの配向および位置を表示ならびに理解する際に使用され得る、姿勢データ(例えば、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャ)を決定する際に使用されることができる。オブジェクト認識装置708a、708nは、ブロック830において、これらの収集された点を通してクローリングし、マップデータベースを使用して、1つ以上のオブジェクトを認識してもよい。本情報は、次いで、ブロック840において、ユーザの個々のウェアラブルシステムに伝達されてもよく、所望の仮想場面が、ブロック850において、適宜、ユーザに表示されてもよい。例えば、所望の仮想場面(例えば、CAにおけるユーザ)が、New Yorkにおけるユーザの種々のオブジェクトおよび他の周囲に関連して、適切な配向、位置等において表示されてもよい。
図9は、ウェアラブルシステムの別の実施例のブロック図である。本実施例では、ウェアラブルシステム900は、マップ920を備え、これは、世界に関するマップデータを含有する、マップデータベース710を含んでもよい。マップは、部分的に、ウェアラブルシステム上にローカルに常駐してもよく、部分的に、有線または無線ネットワークによってアクセス可能なネットワーク化された記憶場所(例えば、クラウドシステム内)に常駐してもよい。姿勢プロセス910が、ウェアラブルコンピューティングアーキテクチャ(例えば、処理モジュール260またはコントローラ460)上で実行され、ウェアラブルコンピューティングハードウェアまたはユーザの位置および配向を決定するために、マップ920からのデータを利用してもよい。姿勢データは、ユーザが、システムを体験し、その世界内で動作するにつれて、オンザフライで収集されたデータから算出されてもよい。データは、実または仮想環境内のオブジェクトに関する画像、センサ(概して、加速度計およびジャイロスコープコンポーネントを備える、慣性測定ユニット等)からのデータ、および表面情報を備えてもよい。
疎点表現は、同時位置特定およびマッピング(例えば、入力が画像/視覚のみである構成を指す、SLAMまたはvSLAM)プロセスの出力であってもよい。システムは、世界内の種々のコンポーネントの場所だけではなく、世界が構成される内容も見出すように構成されることができる。姿勢は、マップへの取込およびマップからのデータの使用を含め、多くの目標を達成する、構築ブロックであり得る。
一実施形態では、疎点位置は、それ自体では完全に適正であり得ず、さらなる情報が、多焦点AR、VR、またはMR体験を生成するために必要とされ得る。概して、深度マップ情報を指す、稠密表現が、少なくとも部分的に、本間隙を充填するために利用されてもよい。そのような情報は、立体視940と称されるプロセスから算出されてもよく、深度情報は、三角測量または飛行時間感知等の技法を使用して決定される。画像情報およびアクティブパターン(アクティブプロジェクタを使用して生成される赤外線パターン等)、画像カメラから入手された画像、または手ジェスチャ/トーテム950が、立体視プロセス940への入力としての役割を果たし得る。有意な量の深度マップ情報が、ともに融合されてもよく、このうちのいくつかは、表面表現を用いて要約されてもよい。例えば、数学的に定義可能な表面は、ゲームエンジンのような他の処理デバイスへの効率的(例えば、大規模点群に対して)かつ要約しやすい入力であってもよい。したがって、立体視プロセス(例えば、深度マップ)940の出力は、融合プロセス930において組み合わせられてもよい。姿勢950は、同様に、本融合プロセス930への入力であってもよく、融合930の出力は、マップ取込プロセス920への入力となる。サブ表面が、トポグラフィマッピング等において、相互に接続し、より大きい表面を形成し得、マップは、点および表面の大規模ハイブリッドとなる。
複合現実プロセス960における種々の側面を解決するために、種々の入力が、利用されてもよい。例えば、図9に描写される実施形態では、ゲームパラメータは、システムのユーザが1匹以上のモンスタと種々の場所においてモンスタバトルゲームをプレーしていること、モンスタが死んでいる、または種々の条件下で逃げている(ユーザがモンスタを撃つ場合等)、種々の場所における壁または他のオブジェクト、および同等物を決定するための入力であってもよい。世界マップは、オブジェクトの場所に関する情報またはオブジェクトの意味論情報を含んでもよく、世界マップは、複合現実に対する別の有用な入力となることができる。世界に対する姿勢は、同様に、入力となり、ほぼあらゆる双方向システムに対して重要な役割を果たす。
ユーザからの制御または入力は、ウェアラブルシステム900への別の入力である。本明細書に説明されるように、ユーザ入力は、視覚的入力、ジェスチャ、トーテム、オーディオ入力、感覚入力等を含むことができる。動き回るまたはゲームをプレーするために、例えば、ユーザは、ウェアラブルシステム900に、行うことを所望する対象に関して命令する必要があり得る。空間内で自ら移動するだけではなく、利用され得る種々の形態のユーザ制御が、存在する。一実施形態では、トーテム(例えば、ユーザ入力デバイス)、または玩具銃等のオブジェクトが、ユーザによって保持され、システムによって追跡されてもよい。システムは、好ましくは、ユーザがアイテムを保持していることを把握し、ユーザがアイテムと行っている相互作用の種類を理解するように構成されるであろう(例えば、トーテムまたはオブジェクトが、銃である場合、システムは、場所および配向だけではなく、ユーザが、そのようなアクティビティがカメラのいずれかの視野内にないときでも、生じている状況を決定することを補助し得る、IMU等のセンサを装備し得る、トリガまたは他の感知ボタンもしくは要素をクリックしているかどうかも理解するように構成されてもよい。)
手のジェスチャ追跡または認識もまた、入力情報を提供してもよい。ウェアラブルシステム900は、ボタン押下のため、左または右、停止、握持、保持等をジェスチャするために、手のジェスチャを追跡および解釈するように構成されてもよい。例えば、1つの構成では、ユーザは、非ゲーム環境において電子メールもしくはカレンダを通して捲る、または別の人物もしくはプレーヤと「フィストバンプ」を行うことを所望し得る。ウェアラブルシステム900は、動的である場合とそうではない場合がある、最小量の手のジェスチャを活用するように構成されてもよい。例えば、ジェスチャは、停止を示すために手を広げる、OKを示すために親指を上げる、OKではないことを示すために親指を下げる、または指向性コマンドを示すために左右もしくは上下に手をフリップする等、単純な静的ジェスチャであってもよい。
眼追跡は、別の入力である(例えば、ユーザが見ている場所を追跡し、ディスプレイ技術を制御し、具体的深度または範囲においてレンダリングする)。一実施形態では、眼の輻輳・開散運動が、三角測量を使用して決定されてもよく、次いで、その特定の人物のために開発された輻輳・開散運動/遠近調節モデルを使用して、遠近調節が、決定されてもよい。眼追跡は、眼カメラによって実施され、眼視線(例えば、片眼または両眼の方向もしくは配向)を決定することができる。他の技法も、例えば、眼の近傍に設置された電極による電位の測定(例えば、電気眼球図記録)等、眼追跡のために使用されることができる。
発話追跡は、単独で、または他の入力(例えば、トーテム追跡、眼追跡、ジェスチャ追跡等)と組み合わせて使用され得る、別の入力であり得る。発話追跡は、単独で、または組み合わせて、発話認識、音声認識を含んでもよい。システム900は、オーディオストリームを環境から受信する、オーディオセンサ(例えば、マイクロホン)を含むことができる。システム900は、発話している人物(例えば、発話がARDの装着者または別の人物もしくは音声(例えば、環境内のラウドスピーカによって伝送される記録された音声)からのものであるかどうか)を決定するための音声認識技術ならびに言われていることを決定するための発話認識技術を組み込むことができる。ローカルデータおよび処理モジュール260または遠隔処理モジュール270は、マイクロホンからのオーディオデータ(または、例えば、ユーザによって鑑賞されているビデオストリーム等の別のストリーム内のオーディオデータ)を処理し、例えば、隠れマルコフモデル、動的時間伸縮法(DTW)ベースの発話認識、ニューラルネットワーク、ディープフィードフォワードおよび再帰ニューラルネットワーク等の深層学習アルゴリズム、エンドツーエンド自動発話認識、機械学習アルゴリズム(図7を参照して説明される)、もしくは音響モデル化または言語モデル化等を使用する、他のアルゴリズム等の種々の発話認識アルゴリズムを適用することによって、発話のコンテンツを識別することができる。
ローカルデータおよび処理モジュール260、または遠隔処理モジュール270はまた、音声認識アルゴリズムを適用することができ、これは、話者がウェアラブルシステム900のユーザ210またはユーザが会話している別の人物であるかどうか等の話者の識別を識別することができる。いくつかの例示的音声認識アルゴリズムは、頻度推定、隠れマルコフモデル、ガウス混合モデル、パターンマッチングアルゴリズム、ニューラルネットワーク、マトリクス表現、ベクトル量子化、話者ダイアライゼーション、決定ツリー、および動的時間伸縮(DTW)技法を含むことができる。音声認識技法はまた、コホートモデルおよび世界モデル等のアンチ話者技法を含むことができる。スペクトル特徴は、話者特性を表す際に使用されてもよい。ローカルデータおよび処理モジュールまたは遠隔データ処理モジュール270は、図7を参照して説明される種々の機械学習アルゴリズムを使用して、音声認識を実施することができる。
カメラシステムに関して、図9に示される例示的ウェアラブルシステム900は、3つの対のカメラ、すなわち、ユーザの顔の両側に配列される相対的広FOVまたは受動SLAM対のカメラと、ユーザの正面に配向され、立体視結像プロセス940をハンドリングし、また、ユーザの顔の正面の手のジェスチャおよびトーテム/オブジェクトの軌道を捕捉するための異なる対のカメラとを含むことができる。ステレオプロセス940に対するFOVカメラおよび対のカメラは、外向きに面した結像システム464(図4に示される)の一部であってもよい。ウェアラブルシステム900は、眼ベクトルおよび他の情報を三角測量するために、ユーザの眼に向かって配向される眼追跡カメラ(図4に示される内向きに面した結像システム462の一部であってもよい)を含むことができる。ウェアラブルシステム900はまた、1つ以上のテクスチャ化光プロジェクタ(赤外線(IR)プロジェクタ等)を備え、テクスチャを場面の中に投入してもよい。
図10は、仮想ユーザインターフェースと相互作用するための方法1000の実施例のプロセスフロー図である。方法1000は、本明細書に説明されるウェアラブルシステムによって行われてもよい。方法1000は、テレプレゼンスセッションにおいて方法1000を実施してもよい。
ブロック1010では、ウェアラブルシステムは、特定のUIを識別してもよい。UIのタイプは、ユーザによって与えられてもよい。ウェアラブルシステムは、特定のUIがユーザ入力(例えば、ジェスチャ、視覚的データ、オーディオデータ、感覚データ、直接コマンド等)に基づいて取り込まれる必要があることを識別してもよい。UIは、テレプレゼンスセッションに特有であってもよい。ブロック1020では、ウェアラブルシステムは、仮想UIのためのデータを生成してもよい。例えば、UIの境界、一般的構造、形状等と関連付けられたデータが、生成されてもよい。加えて、ウェアラブルシステムは、ウェアラブルシステムがユーザの物理的場所に関連してUIを表示し得るように、ユーザの物理的場所のマップ座標を決定してもよい。例えば、UIが、身体中心である場合、ウェアラブルシステムは、リングUIがユーザの周囲に表示され得る、または平面UIが壁上もしくはユーザの正面に表示され得るように、ユーザの物理的立ち位置、頭部姿勢、または眼姿勢の座標を決定してもよい。テレプレゼンスコンテキストでは、UIは、UIが、ユーザを囲繞し、環境内の別のユーザの存在の実在感覚をもたらすかのように表示されてもよい(例えば、UIは、ユーザの周囲の参加者の仮想アバタを表示することができる)。UIが、手中心の場合、ユーザの手のマップ座標が、決定されてもよい。これらのマップ点は、FOVカメラ、感覚入力を通して受信されたデータ、または任意の他のタイプの収集されたデータを通して導出されてもよい。
ブロック1030では、ウェアラブルシステムは、データをクラウドからディスプレイに送信してもよい、またはデータは、ローカルデータベースからディスプレイコンポーネントに送信されてもよい。ブロック1040では、UIは、送信されたデータに基づいて、ユーザに表示される。例えば、ライトフィールドディスプレイは、仮想UIをユーザの眼の一方または両方の中に投影することができる。いったん仮想UIが生成されると、ウェアラブルシステムは、ブロック1050において、単に、ユーザからのコマンドを待機し、より多くの仮想コンテンツを仮想UI上に生成してもよい。例えば、UIは、ユーザの身体またはユーザの環境内の人物(例えば、旅行者)の身体の周囲の身体中心リングであってもよい。ウェアラブルシステムは、次いで、コマンド(ジェスチャ、頭部または眼移動、音声コマンド、ユーザ入力デバイスからの入力等)を待機してもよく、認識される場合(ブロック1160)、コマンドと関連付けられた仮想コンテンツが、ユーザに表示されてもよい(ブロック1070)。
(ウェアラブルデバイスおよびユーザの顔の画像の実施例)
図11は、例示的ウェアラブルデバイスを図示し、これは、ユーザの顔の画像を入手することができる。ウェアラブルデバイス1150は、図2を参照して説明される、例示的頭部搭載型デバイス(HMD)であることができる。ウェアラブルデバイス1150は、SARデバイスであってもよく、これは、仮想オブジェクトをユーザの眼の視点からレンダリングするための頭部搭載型ディスプレイを含んでもよい。ウェアラブルデバイスによって入手された画像は、静止画像、動画、ビデオからの個々のフレーム、またはビデオを含むことができる。
ウェアラブルデバイス1150は、結像システム1160を含むことができ、これは、ユーザ210の顔を結像するように構成されることができる。結像システム1160は、図4に示される内向きに面した結像システム462の実施例であってもよい。例えば、結像システム1160は、ユーザ210が、ウェアラブルデバイス1150を装着している間、ユーザの眼1110の眼球周囲領域を結像するように構成される、眼カメラ(例えば、眼カメラ1160aおよび眼カメラ1160b)等のセンサを含んでもよい。本実施例では、眼1110bは、図3に示される、眼302に対応し得、眼1110aは、眼304に対応し得る。ウェアラブルデバイス1150はまた、例えば、慣性測定ユニット、圧力センサ、近接度センサ等の他のタイプのセンサを含むことができる。これらのセンサのうちの1つ以上のものは、ウェアラブルデバイス1150のフレーム上(例えば、一方または両方の耳掛け部上)に配置されることができる。センサによって入手されたデータは、ウェアラブルデバイス1150とユーザの顔との間の相対的位置を決定するために使用されてもよい。
各眼カメラは、視野(FOV)を有してもよい。例えば、眼カメラ1160aに関するFOVは、領域1120aおよび領域1130を含むことができる。眼カメラ1160bに関するFOVは、領域1120bおよび領域1130を含むことができる。眼カメラ1160aのFOVおよび眼カメラ1160bのFOVは、領域1130において重複してもよい。
図11に示されるように、結像システム1160は、ユーザ210の頭部に向かって向いている。眼カメラ1160aは、眼1110aを結像するように構成されてもよい一方、眼カメラ1160bは、眼1110bを結像するように構成されてもよい。本図では、眼カメラ1160aの光学軸1140aは、眼カメラ1160bの光学軸1140bと平行である。
いくつかの実装では、眼カメラの一方または両方は、2つの眼カメラの光学軸がもはや平行ではないように回転されてもよい。例えば、2つの眼カメラは、若干、相互に向かって向いていてもよい(例えば、特に、眼カメラが、デバイス1150のフレームの外側縁の近傍に配置される場合)。本実装は、交差眼構成を作成し得、これが、2つのカメラ間のFOVの重複を増加させ、かつ2つの眼カメラがより近い距離において顔を結像することを可能にし得るため、有利であり得る。
ウェアラブルデバイス1150が、ユーザ210に非常に近接するとき、眼カメラは、合焦ずれし得る。例えば、ユーザに関する眼球周囲分離(例えば、顔の左および右側上の眼球周囲特徴間の距離)が、46mm(成人男性に典型的)であって、2つの眼カメラがそれぞれ、66度(眼追跡のために適切)の水平FOVを有すると仮定すると、ウェアラブルデバイスは、顔とウェアラブルデバイスとの間の距離が、少なくとも約175mmであるとき、写真を撮影し得る。多くの眼カメラのレンズのための最小焦点距離は、約14mmである。レンズが、固定焦点距離を有する場合、その焦点深度は、約65ジオプタである必要がある。
不十分な焦点深度が存在するときに画像が取得される場合、ウェアラブルデバイス1150は、画像を低分解能画像として扱い得る。その結果、ウェアラブルデバイスによって生成された顔モデルは、低忠実性を有する、または顔全体の特徴の疎表現を有し得る。そのような顔モデルは、依然として、ユーザ(例えば、瞳孔間距離)のための眼球間分離を推測するために使用されてもよく、これは、ウェアラブルデバイスがユーザの顔にフィットしているかどうかを決定するために有用である。
図11に説明される実施例は、2つの眼カメラを図示するが、ウェアラブルデバイス1150は、2つの眼カメラを有するように要求されない。いくつかの実施形態では、結像システム1160は、ユーザの顔を結像する1つの眼カメラを含んでもよい。1つの眼カメラは、片眼と関連付けられた眼球周囲領域または両眼に関する眼球周囲領域を結像するように構成されてもよい。他の実施形態では、ウェアラブルデバイス1150は、2つを上回る眼カメラを含んでもよい。
ウェアラブルデバイス1150は、結像システム1160によって入手されたユーザの顔の画像を使用して、ユーザの顔のモデルを構築することができる。画像は、ユーザが、デバイスを着けている、または外しているとき、結像システム1160によって入手されてもよい。画像はまた、外向きに面した結像システム464(図4に示される)を使用して、ユーザの顔を走査することによって入手されてもよい。例えば、外向きに面した結像システム464を使用して、ユーザの顔を走査するために、ユーザは、外向きに面した結像システム464がユーザの顔に向かって(ユーザの環境ではなく)面するように、ウェアラブルデバイス1150を旋回させてもよい。ウェアラブルデバイスは、例えば、ユーザが最初にウェアラブルデバイスを使用するとき、またはユーザがウェアラブルデバイスをオンにするとき等、ウェアラブルデバイスの初期化位相の間、ユーザの顔のモデルを作成することができる。結像システム1160によって入手された画像を使用した顔モデルの生成の実施例はまた、「FACE MODEL CAPTURE BY AN AUGMENTED REALITY DEVICE」と題された米国仮出願第62/400,907号(本開示は、参照することによってその全体として本明細書に組み込まれる)に説明される。
ユーザの顔のモデルは、基本モデルおよびユーザに特有のデータに基づいて生成されてもよい。例えば、ウェアラブルデバイスは、あるグループの人々と関連付けられたデータから事前に生成された基本モデルを使用して、ウェアラブルデバイスによって入手された画像を分析することによって取得されるユーザ特有情報に基づいて、基本モデルをカスタマイズしてもよい。いくつかの実装では、基本モデルは、ウェアラブルデバイスのユーザに類似する人口統計情報を有するグループの人々と関連付けられてもよい。例えば、ユーザが、十代の女性である場合、ウェアラブルデバイスは、十代の典型的女性と関連付けられた基本モデルにアクセスしてもよい。別の実施例として、ユーザが、ある性別および/または人種グループに属する場合、ウェアラブルデバイスは、その性別および/または人種グループに共通する基本モデルにアクセスしてもよい。ウェアラブルデバイスはまた、あるグループの人々またはユーザと関連付けられた画像に関する統計的分析に基づいて、マップ上のある顔特徴の場所の尤度を決定することができる。ウェアラブルデバイスは、次いで、ユーザに特有の入手された画像に基づいて、尤度を更新する、または眼球周囲特徴の場所を確認することができる。
画像内の眼球周囲特徴の存在を識別することに加え、またはその代替として、ウェアラブルデバイスは、ウェアラブルデバイスとユーザとの間の相対的位置を決定するために、内向きに面した結像システムによって入手された画像を分析することができる。内向きに面した結像システム462(図4に示される)の眼カメラは、そのFOV内の画像を持続的に取得することができる。眼カメラはまた、トリガに基づいてのみ、画像を入手するように構成されてもよい。例えば、眼カメラは、ユーザがウェアラブルデバイスを着けているとき(例えば、IMUに基づいて、ウェアラブルデバイスの移動によって決定されるように)、1つ以上の画像を捕捉するようにトリガされてもよい。代替として、眼カメラは、選択された頻度において画像を捕捉してもよい。頻度は、数秒または数分毎等、任意の所望の時間インターバルであってもよく、頻度は、画像を使用するシステムの要件に応じて変化してもよい。
ウェアラブルデバイスはまた、ユーザ特有の画像に基づいて、顔モデルを構築することができる。例えば、ウェアラブルデバイスは、内向きに面した結像システムまたは外向きに面した結像システムによって入手された画像からのみ、ユーザの顔のモデルを生成してもよい。いくつかの実装では、ウェアラブルデバイスは、ユーザの顔のより多くの画像が入手されるにつれて、ユーザの顔モデルを更新してもよい。例えば、ウェアラブルデバイスは、ユーザがデバイスを着けるにつれて、内向きに面した結像システムによって入手された画像に基づいて、顔モデルを生成してもよい。ウェアラブルデバイスは、ユーザがデバイスを外しているとき、またはユーザがデバイスを再び着けている次のセッションにおいて入手された新しい画像に基づいて、顔モデルを更新することができる。
これらの実施例は、ウェアラブルデバイスを使用した顔モデルの構築またはユーザの顔のマップの作成を参照するが、いくつかの実施形態は、遠隔コンピューティングデバイスと通信し、顔モデルを生成または別様に取得する、ウェアラブルデバイスを含んでもよい。例えば、ウェアラブルデバイスは、ユーザの顔の画像を入手し、画像(単独で、または、例えば、ユーザの人口統計情報等のユーザの他の情報と組み合わせて)を遠隔コンピューティングデバイス(例えば、サーバ等)に渡すことができる。遠隔コンピューティングデバイスは、画像を分析し、顔モデルを作成することができ、顔モデルをユーザのウェアラブルデバイスに戻す、または顔モデルを別のユーザのウェアラブルデバイスに渡すことができる(例えば、テレプレゼンスセッションの間)。
さらに、ウェアラブルデバイスのフィット感もしくは除去を決定する、または仮想画像のレンダリング場所を調節することに加え、またはその代替として、顔モデルはまた、ユーザ識別を実施するために使用されることができる。画像に基づいてユーザの識別を決定する実施例として、ウェアラブルデバイスは、種々の顔認識アルゴリズムを入手された画像に適用することによって、ユーザの顔特徴(例えば、顔形状、肌質、鼻、眼、頬の特性等)を分析することができる。いくつかの実施例顔認識アルゴリズムは、固有顔を使用した主成分分析、線形判別分析、Fisherfaceアルゴリズムを使用したエラスティックバンチグラフィックマッチング、隠れマルコフモデル、テンソル表現を使用した多重線形部分空間学習、およびニューロン動機ダイナミックリンクマッチング、または3D顔認識アルゴリズムを含む。デバイスはまた、画像を分析し、虹彩を識別し、各個人に一意のバイオメトリックシグネチャ(例えば、虹彩コード)を決定してもよい。
ウェアラブルデバイスはまた、デバイスがユーザの顔に着けられている、または外されている間、ウェアラブルデバイスによって入手された画像に基づいて、画像位置合わせを実施することができる。画像位置合わせから取得される結果として生じる画像は、ユーザの顔に加え、またはその代替として、ユーザの環境の一部(例えば、ユーザの部屋またはユーザの近傍の別の人物)を含むことができる。
(眼球周囲領域の画像の実施例)
図11を参照して説明されるように、結像システム1160によって入手された画像は、ユーザの眼球周囲領域の一部を含んでもよい。眼球周囲領域は、1つ以上の眼球周囲特徴もしくは眼球周囲特徴の一部を含むことができる。眼球周囲特徴は、例えば、眼、眼窩、眉毛、鼻、頬、または前額を含んでもよい。顔の他の特徴またはユーザ特有の詳細もまた、眼球周囲特徴と見なされ得る。
図12Aは、ユーザの眼球周囲領域1270を結像するHMDカメラから取得され得るような片眼に関する眼球周囲領域1270の例示的画像1200aを図示する。本実施例では、眼球周囲領域1270は、眼1210a、眼窩、眉毛1220a、鼻1230aの一部、頬1240a、および前額1250a等の眼球周囲特徴を含む。各眼球周囲特徴は、眼球周囲特徴と関連付けられた種々の特性を有し得る。特性は、各異なる眼球周囲特徴に特有であり得る。例えば、眼球周囲特徴眉毛1220aは、眉毛の形状、眉毛の色、眉毛の可能性が高い移動または移動方向等を含む、特性を有してもよい。眼球周囲特徴眼1210aは、例えば、眼角の形状、サイズ、場所、視線方向、瞳孔場所、眼球中心の場所、眼瞼の形状およびしわ、眼球周囲の皮膚のテクスチャ等の特性を有してもよい。多くの他の特性もまた、各眼球周囲特徴を識別および追跡するために使用されてもよい。1つ以上の眼球周囲特徴の1つ以上の特性は、特徴点、点群、または他のタイプの数学的表現によって表されてもよい。
ウェアラブルデバイスは、スケール不変特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、配向FASTおよび回転BRIEF(ORB)、バイナリロバスト不変スケーラブルキーポイント(Bリスク)、高速網膜キーポイント(FREAK)等のニューラルネットワークまたは視覚的特徴点技法を使用して、眼球周囲特徴および関連付けられた特性を算出および追跡することができる。いくつかの実施形態では、特定の顔特徴は、その特定の眼球周囲特徴のために具体的に設計された検出器を使用して追跡されてもよい。例えば、眼角、鼻特徴、口角等の眼球周囲特徴特性は、種々のアルゴリズムを使用して、別個に識別および追跡されてもよい。これらの眼球周囲特徴特性のうちの1つ以上のものを別個に追跡することは、ユーザが表情を作っている、または発話しているとき、各眼球周囲特徴および/または特性が、実質的運動を受けやすくあり得るため、有利であり得る。これらの眼球周囲特徴および特性を追跡するために使用されるアルゴリズムは、運動の範囲を考慮し得る。実施例として、いくつかの眼球周囲特徴および/または関連付けられた特性は、ある方向に移動する可能性が高くあり得る、および/または他の方向においてより安定したままである可能性が高くあり得る(例えば、眉毛は、左右ではなく、上下に移動する傾向にある)。
ウェアラブルデバイスは、眼球周囲特徴の移動を統計的に分析することができる。これらの統計は、顔特徴がある方向に移動するであろう尤度を決定するために使用されてもよい。いくつかの実施形態では、1つ以上の眼球周囲特徴または特性は、除去され、または追跡されず、処理需要を低減させる、または信頼性を改良してもよい。信頼性を改良することが所望されるインスタンスでは、その他より誤差を受けやすい眼球周囲特徴または特性を無視またはマスクすることが有利であり得る。例えば、いくつかの実施形態では、図12Bを参照して説明されるように、ウェアラブルデバイスは、眼球周囲領域1270内の他方の眼球周囲特徴または特性を追跡するとき、眼移動がHMDによって認識されないように、眼1210bの中心エリア1212内のピクセルを無視してもよい。
ウェアラブルデバイスはまた、シーケンシャルベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタ等)、バンドル調整等の視覚的同時位置特定およびマッピング(vSLAM)技法を使用して、眼球周囲特徴および特性を識別および追跡することができる。いくつかの実施形態では、ウェアラブルデバイスは、ユーザの深度知覚およびマッピングを可能にするように構成されてもよい。例えば、ウェアラブルデバイスは、稠密マップを構築することができ、これは、1つ以上のカメラによって入手されたデータから顔の少なくとも一部をエンコードする。特徴点マップとは対照的に、稠密マップは、その3D形状が測定される顔のパッチまたは領域を備えてもよい。パッチまたは領域は、反復最近傍アルゴリズムまたは類似アルゴリズム等の技法を使用して、ユーザの顔に対するHMDの場所を算出するために使用されてもよい。
ウェアラブルデバイス上のカメラによって捕捉された眼球周囲領域内のサイズおよびコンテンツは、眼カメラのFOVに依存し得る。いくつかの実装では、眼カメラは、捕捉された眼球周囲領域内の全ての認識可能眼球周囲特徴に適合するための大FOVを有していなくてもよい。例えば、眼カメラによって捕捉された画像は、眼窩を含むが、眉毛を含まなくてもよい。カメラの技術的仕様は、眼球周囲領域の複数の捕捉されたフレーム内に存在したままである可能性が最も高い眼球周囲特徴および追跡するために最も信頼性のある眼球周囲特徴を決定してもよい。
図11を参照して説明されるように、いくつかの状況では、各眼カメラは、眼を結像するように構成されるが、2つの眼カメラ(左眼に1つおよび右眼に1つ)は、重複眼球周囲領域がカメラによって結像されるように、重複FOV1130を有してもよい。これは、2つのカメラのFOVが十分に広く、カメラがユーザの顔の中心に向かって内向きに角度付けられ、カメラが相互の近傍に位置付けられ、および/または2つのカメラがユーザから十分に遠く離れているためであり得る。その結果、ユーザの顔の一部、典型的には、中心部分(例えば、鼻)が、両方の眼カメラによって捕捉され得る。ウェアラブルデバイスは、2つのカメラから取得される画像を組み合わせ、組み合わせられた画像が眼球周囲特徴を含むかどうかを決定してもよく、眼球周囲特徴が画像内に存在すると決定される場合、ウェアラブルデバイスは、眼球周囲特徴を識別してもよい。
いくつかの実装では、眼カメラによって入手された画像は、眼カメラの焦点がずれ得るため、低分解能画像である場合がある。焦点がずれているまたは低分解能画像は、ウェアラブルデバイスのハードウェア内の物理的限界またはウェアラブルデバイスの不適切な位置付けもしくは移動から生じ得る。例えば、焦点がずれている画像は、眼カメラが、ユーザの顔に近すぎる、またはそこから離れすぎていることによって生じ得る。代替として、いくつかの実施形態では、より低い分解能画像を捕捉することが所望され得る。例えば、ウェアラブルデバイスは、眼球周囲特徴を追跡するために高品質画像を必要としない場合があり(例えば、ユーザの顔とウェアラブルデバイスとの間の相対的位置を決定するために)、高分解能画像の使用は、出力に有用な改良を提供せずに、ウェアラブルデバイスのソフトウェアおよびハードウェアシステムにより多くの需要を課し得る。処理時間の観点から、ウェアラブルデバイス上の需要、サンプリング周波数、電力消費、および他のメトリックを最小限にするために、眼結像機から取得される画像の分解能は、そのオリジナル分解能または他の用途で使用される分解能(例えば、眼追跡)に関して、眼球周囲特徴を検出および識別するために必要な最小分解能にダウンサンプリングされてもよい。例えば、眼カメラは、ユーザの視線方向を追跡する目的のために、ユーザの眼を結像してもよい。眼カメラによって取得される画像は、ユーザの顔とウェアラブルデバイスとの間の相対的位置の決定において使用するために、ウェアラブルデバイスによってダウンサイズされることができる。本実装は、ウェアラブルデバイスが、相対的位置を決定するために、眼球周囲領域の詳細な高分解能情報を必要としない場合があるため、有利であり得る。
いくつかの状況では、ウェアラブルデバイスは、眼カメラの分解能を動的に変化させることができる。眼カメラの分解能は、タイミング、ユーザの眼に対するデバイス位置、または捕捉された画像の意図される使用に基づいて選択されてもよい。例えば、ユーザの顔のより大きい部分がユーザの顔のモデルを構築する際の使用のために結像されるように、正常静止使用位置よりさらに離れた距離からユーザの顔の画像を捕捉することが有利であり得る。これらの画像は、ユーザがウェアラブルデバイスを着けるにつれて最良に捕捉されることが決定され得る。眼カメラの分解能は、ユーザの顔全体の高分解能写真がユーザの顔のモデルを生成する際に使用するために利用可能であるように、ユーザがウェアラブルデバイスを着けているとき、高分解能に設定されてもよい。ウェアラブルデバイスが、ユーザ上にある間、眼カメラの分解能は、眼カメラが、他の処理用途を減速させずに、ウェアラブルデバイスが定位置にあるかどうかを持続的に試験し得るように、低分解能に設定されてもよい。種々の実施形態では、低分解能は、高分解能よりある係数分だけ小さくてもよく、係数は、1未満、例えば、0.5、0.25、0.1、またはそれ未満である。
(眼球周囲領域の一部のマスクの実施例)
図12Bは、眼球周囲領域1270の例示的画像を図示し、画像内の眼球周囲領域の一部は、ウェアラブルデバイスによってマスクされる。本実施例では、眼カメラは、眼球周囲領域1270の画像1200bを入手する。画像1200bは、眼球周囲領域1270が、眉毛1220b、眼1210b、および鼻1230b、頬1240b、および前額1250bの部分を含み得ることを示す。
眼球周囲領域の画像1200bの一部は、マスクされ(例えば、画像分析から無視または別様に除外される等)、眼の生物学的状態から生じる変動(眼姿勢の変化、散瞳、瞬目等)を低減させてもよい。眼色、眼球の位置等の眼の特性もまた、異なる人々間で高度に変動し得るものであり得る。これらの変動は、眼の生物学的状態に関連する変数と組み合わせて、ウェアラブルデバイスが、ウェアラブルデバイスの位置がユーザの眼に対して変化したどうかを決定するにつれて、雑音および誤差を導入し得る。したがって、結像されている眼球周囲領域の高度に変動し得る部分をマスクすることは、誤差を低減させ得る、また、画像を分析するために必要とされる算出量を低減させ得る。例えば、図12に示されるように、眼球周囲領域1270に示される眼1210bの中心エリア1212は、画像分析の間、無視されるように、マスクされてもよい。いくつかの実施形態では、中心エリア1212は、眼の虹彩および/または強膜を含む。その結果、ウェアラブルデバイスは、眼球周囲領域の中心エリア1212における情報を分析しない一方、エリア1212内の無視されるピクセルを囲繞する眼球周囲領域の画像1200bを分析するであろう。中心エリア1212は、眼球周囲特徴または眼球周囲特徴の特性を使用して、自動的に画定および境界されてもよい。
眼球の暴露される部分上に生じる鏡面反射もまた、マスクされることができる。本実装は、特に、ユーザの顔とウェアラブルデバイスとの間の相対的位置を決定するとき、正確度を改良するために有利である。ユーザが、環境内で動き回るにつれて、ユーザの眼からの鏡面反射も、ユーザが見ている場所等の生物学的要因に基づいて、変化し得、また、ユーザに現在見えているもの、環境光源の変化、光源までの距離の変化等、外部要因に基づいても、変化し得る。しかしながら、鏡面反射の変化は、常時ではないが、時として、ユーザの顔とウェアラブルデバイスとの間の相対的位置の変化に起因し得る。したがって、ユーザの眼とウェアラブルデバイスとの間の相対的位置を決定する目的のために、信頼性がない場合があるため、本情報を無視する(または分析しない)ことが有利であり得る。
(眼球周囲特徴の識別の実施例)
ウェアラブルデバイスは、眼カメラによって入手された画像を使用して、機械学習モデルを訓練し、眼球周囲領域内の眼球周囲特徴を識別することができる。ウェアラブルデバイスはまた、オブジェクト認識装置708(図7に説明される)を使用して、識別を実施してもよい。オブジェクト認識装置708は、眼カメラによって入手された画像から訓練された機械学習モデルを実装してもよい。眼球周囲領域は、片眼または両眼と関連付けられてもよい。機械学習モデルは、あるグループの人々に一般的または個人に特有の眼球周囲特徴または眼球周囲特徴と関連付けられた特性を使用して訓練されてもよい。例えば、ウェアラブルデバイスは、ユーザの眉毛および眼窩等の眼球周囲特徴の特性に基づいて、機械学習モデルを訓練することができる。別の実施例として、ウェアラブルデバイスは、ユーザと同一または類似民族性および性別を有する他の人々の眼球周囲特徴および/または眼球周囲特徴の関連付けられた特性を使用して、機械学習モデルを訓練することができる。
眼球周囲特徴の検出および識別は、ニューラルネットワーク技法(疎密オートエンコーダまたは類似クラスタ化技法もしくは多くの隠れ層を使用した深層ニューラルネットワーク等)または他の機械学習アルゴリズムを使用して、自動的に実施されてもよい。いくつかの実装では、機械学習モデルは、その用途に基づいてカスタマイズされてもよい。例えば、機械学習モデルが、ウェアラブルデバイスがユーザの顔にフィットしているかどうかを決定するために使用される場合、機械学習モデルは、眉毛および眼球の場所等の眼球周囲特徴の詳細な特性を識別するように訓練されてもよい。別の実施例として、機械学習モデルが、ユーザがウェアラブルデバイスを除去したかどうか検出するために使用される場合、機械学習モデルは、ユーザの顔の眼球周囲特徴の詳細な特性を学習する必要がない場合がある。むしろ、ユーザの眼窩および鼻等の眼球周囲特徴の最小セットを識別することで十分であり得る。
(HMDとユーザの顔との間の相対的位置の決定の実施例)
ウェアラブルデバイスは、ウェアラブルデバイス上のカメラによって捕捉された画像内の眼球周囲領域内の眼球周囲特徴を識別することができ、識別された眼球周囲特徴およびその特性を使用して、ウェアラブルデバイスとユーザの顔との間の相対的位置を決定してもよい。ある実施形態では、ウェアラブルデバイスは、ウェアラブルデバイスとユーザとの間の相対的位置を眼毎に別個に計算することができる。例えば、ウェアラブルデバイスが、それぞれ、ユーザの片方の眼球周囲領域を結像するように構成される、2つの眼カメラを有するとき、ウェアラブルデバイスは、左眼と左眼カメラとの間の1つの相対的位置と、右眼と右眼カメラとの間の別の相対的位置とを計算してもよい。左眼とウェアラブルデバイスとの間および右眼とウェアラブルデバイスとの間の相対的位置が、次いで、計算されてもよい。いくつかの実施形態では、眼とウェアラブルデバイスとの間の距離の計算はまた、視野、焦点距離等のカメラ自体についての既知の技術的詳細に加え、ウェアラブルデバイス上の眼カメラの位置についての既知の幾何学的情報に依存し得る。
ウェアラブルデバイスが、個別の眼に関する相対的位置を別個に追跡し得る間、ウェアラブルデバイスはまた、両眼とウェアラブルデバイスとの間の相対的位置情報を組み合わせるように構成されてもよい。代替として、ウェアラブルデバイスは、ユーザの左および右眼の両方を同時に結像可能な1つの眼カメラを含んでもよい。他の実施形態では、ウェアラブルデバイス上の1つの眼カメラは、片眼のみの眼球周囲領域を結像してもよく、そこから、ユーザに対するHMDの相対的位置データが外挿され得る。2つより多いまたはより少ないカメラが、ユーザの1つ以上の眼球周囲領域を結像するために使用されてもよく、使用されるカメラの数は、カメラの技術的仕様と、特定の用途または追跡アルゴリズムのために必要とされる画像の所望のタイプおよび数に依存し得る。
本明細書にさらに説明されるように、ユーザの顔とウェアラブルデバイスとの間の相対的位置は、位置偏移がウェアラブルデバイスとユーザとの間に生じたかどうかを決定するために使用されることができる。いくつかの実施形態では、位置偏移の検出は、レンダリングされた仮想コンテンツがユーザの眼と正しく整合し得るように、ウェアラブルデバイスのディスプレイに、仮想オブジェクトのレンダリング場所を調節させ得る。左眼とウェアラブルデバイスとの間の相対的位置は、右眼とウェアラブルデバイスとの間の相対的位置と異なり得る(ウェアラブルデバイスが片側に傾斜するとき等)ため、仮想オブジェクトのレンダリング場所に対する調節は、左眼ディスプレイおよび右眼ディスプレイに関して異なり得る。
図13A-13Cは、ユーザの顔に対して種々の例示的相対的位置を有する、ウェアラブルデバイスからの眼球周囲領域の実施例を図示する。ウェアラブルデバイスは、HMDであってもよい。図13Aは、左および右瞳孔中心1318a、1318bと整合しているHMDの基準線1314によって示されるように、HMD(図示せず)がユーザの顔に対してその正常静止位置にある、実施例を図示する。図13Bは、HMDが図13Aの正常静止位置と比較して片側に傾斜された実施例を図示する。図13Cは、HMDが図13Aの正常静止位置と比較して前方に傾斜または偏移された(例えば、HMDがユーザの鼻の下方に滑動している)実施例を図示する。これらの例示的図では、ユーザ1310は、HMDを装着しており、これは、眼球周囲領域1312a、1312bを結像するための少なくとも2つの眼カメラを有する。図13Aに示されるように、一方の眼カメラは、眼球周囲領域1312aを結像するように構成される一方、他方の眼カメラは、眼球周囲領域1312bを結像するように構成される。しかしながら、より多いまたはより少ない眼カメラも、ユーザの1つ以上の眼球周囲領域を捕捉するために使用されてもよい。例えば、十分な視野を有する、1つの眼カメラは、両眼球周囲領域1312a、1312bを結像してもよい。これらの実施例では、正常静止位置は、HMDと関連付けられる。いくつかの実装では、正常静止位置は、ユーザの眼と関連付けられてもよい。
ウェアラブルデバイスは、HMDとユーザとの間の相対的位置を決定するために、一方または両方の眼カメラによって取得される画像を分析することができる。HMDは、HMDの正常静止位置を決定し、正常静止位置からの位置逸脱に基づいて、ユーザに対するHMDの相対的の位置を決定することができる。HMDの正常静止位置は、ウェアラブルデバイスの初期化位相の間、決定および較正されてもよい。例えば、ユーザが、最初に、ウェアラブルデバイスを使用するとき、ウェアラブルデバイスは、顔モデル(例えば、ユーザの顔のマップ)を構築し、顔モデルに基づいて、HMDの正常静止位置を決定してもよい。図14Aおよび14Bを参照してさらに説明されるように、HMDが正常静止位置にあるとき、HMDは、仮想オブジェクトのレンダリング場所を調節する必要がない場合がある。さらに、HMDは、HMDが正常静止位置(例えば、図13A参照)にあるとき、それがユーザの顔にフィットしていることを決定することができる。HMDは、ユーザの顔上へのHMDのフィット感を自動的に査定するために使用され得る、1つ以上のフィット感の良好度パラメータ(下記にさらに説明される)を決定することができる。フィット感の良好度パラメータは、例えば、HMDとユーザの眼との間の相対的距離、ユーザの顔上のHMDの傾斜または偏移量、瞳孔間距離(IPD)、ディスプレイに対する瞳孔の中心の場所、瞳孔に対するHMDの基準線の位置等のうちの1つ以上のものを含むことができる。
ユーザが、ウェアラブルデバイスを使用している間、ウェアラブルデバイスは、種々の技法を使用して、HMDとユーザとの間の相対的位置を追跡することができる。例えば、ウェアラブルデバイスは、眼球周囲特徴と関連付けられた視覚的特徴点を識別および追跡することができる。眼球周囲特徴と関連付けられた視覚的特徴点の移動は、ユーザの眼および顔に対するHMDの相対的運動を示し得る。いくつかの実施形態では、ウェアラブルデバイスはまた、ユーザの顔の稠密マップに対して入手された画像内で識別されるような顔の領域を合致させ、顔に対するHMDの場所を算出することができる。別の実施例として、HMDは、HMD(または眼カメラ等のHMDのコンポーネント)からユーザ1310の眼までの距離を検出または計算してもよい。HMDの距離が、ある距離閾値を超える場合(例えば、HMDが近すぎないまたは遠すぎないとき)、HMDは、HMDがユーザ1310にあまり良好にフィットしていないことを決定し得、ピクセルのレンダリング場所が調節される必要があることを決定し得る。他方では、HMDとユーザの眼との間の検出または計算される距離が、閾値範囲内にある場合、ウェアラブルデバイスは、HMDがユーザに容認可能にフィットしており、ピクセルが調節される必要がないであろうことを決定し得る。
HMDは、ユーザの眼に対して非対称的に偏移する場合がある。例えば、HMDは、図13Bに示されるように、片側に傾斜し得る。そのような位置では、HMDと左眼との間で検出または計算される距離は、HMDと右眼との間で検出または計算される距離と異なり得る。例えば、図13Bに示されるように、ユーザの右眼1324bとHMDとの間の距離は、ユーザの左眼1324aとHMDとの間の距離より小さくあり得る。HMDは、HMDが傾斜されている方向を計算し、および/または傾斜の程度を計算するためのキューとして、本差異を使用してもよい。傾斜の方向および程度は、ユーザの眼に対するHMDの傾斜に適応するために必要であるレンダリング場所調節の方向および大きさを決定するために使用されてもよい。
別の実施例として、HMDは、HMDのフィット感および/またはユーザの眼に対するHMDの場所を決定するためのパラメータのうちの1つとして、IPDを使用してもよい。HMDは、眼カメラから取得される画像に基づいて、ユーザのIPDを検出および/または計算可能であり得る。いくつかの実施形態では、HMD上の眼カメラの幾何学的場所の知識、眼カメラの配向についての詳細、ならびにカメラ視野、焦点距離、および他の技術的詳細についての情報もまた、ユーザIPDを計算する際に使用されてもよい。
HMDは、ユーザ1310のために容認可能なIPD範囲を取得してもよい(例えば、瞳孔間距離の容認可能値を記憶するデータベースにアクセスすることによって)。容認可能瞳孔間距離は、ユーザ1310のために具体的に決定された距離または距離の範囲であってもよい、またはあるグループの人々からのデータに基づいて決定されてもよい。HMDは、ユーザのIPDと容認可能IPD範囲を比較することができる。ユーザのIPD1316と容認可能瞳孔間距離との間の相違が、閾値を超える場合、HMDは、HMDがユーザにあまり良好にフィットしていないことを決定し得る。他方では、相違が容認可能範囲内である場合、HMDは、HMDがユーザに適正にフィットしていることを決定し得る。HMDフィット感が容認可能であると決定された場合、レンダリング調節は、不必要である。しかしながら、HMDフィット感が不適正である場合、HMDは、レンダリングを調節し、準最適フィット感に適応してもよい。
例えば、典型的成人男性に関する瞳孔間距離は、約65mmであり得る。容認可能IPD値は、特定の年齢、性別、および/または人種のユーザのための平均値に基づいてもよい。例えば、HMDは、ユーザが成人男性であることを示すユーザ情報を取得してもよい。本情報は、65mm等の成人男性ユーザに関する容認可能IPD値を取得するために使用されてもよい。いくつかの実施形態では、HMDは、所与のユーザに関する容認可能IPD値に基づいて、容認可能IPD範囲を計算してもよい。上記の実施例を継続すると、容認可能IPD範囲は、容認可能IPD値(65mm)±容認可能IPD値の選択された距離またはパーセンテージであってもよい。選択された距離は、例えば、±5mmまたは±10mmであって、それぞれ、容認可能IPDの範囲60mm~70mmおよび55mm~75mmを与えてもよい。IPDのパーセンテージは、例えば、±5%または±10%であって、それぞれ、容認可能IPDの範囲61.75mm~68.25mmおよび58.5mm~71.5mmを与えてもよい。任意の距離またはパーセンテージ値が、容認可能IPD範囲を決定するために選択されてもよい。
いくつかの実装では、瞳孔間距離は、サンプルグループの人々から計算されてもよい。例えば、HMDは、容認可能IPD値または範囲を決定するために使用されるためのあるグループの人々に関する瞳孔間距離の平均値、期待値、または中央値(または他の統計的値)を計算することができる。サンプルは、ユーザの性別、人種、年齢等のユーザの特性を考慮し得る。例えば、HMDのユーザが、十代の女性である場合、HMDは、十代の女性のグループからのデータに基づいて、ユーザのための閾値瞳孔間距離を計算してもよい。瞳孔間距離に加え、またはその代替として、HMDはまた、眼球周囲分離等の他のパラメータに基づいて、閾値を計算することができる。
ウェアラブルデバイスはまた、HMDと顔との間の相対的位置を決定するために、ディスプレイに対する瞳孔(1318aおよび1318b)の相対的中心の検出された場所を使用することができる。図13Aでは、ディスプレイの中心が、線1314を参照することによって示される。図13Aに示されるように、ディスプレイの基準線1314は、瞳孔1318aおよび1318bの中心と整合する。本実施例では、HMDは、ディスプレイの中心が瞳孔1318aおよび1318bの中心と整合する場合、HMDがユーザにフィットしていることを決定し得る。HMDはさらに、瞳孔1318a、1318bとHMDの基準線1314との間の整合が正しく、仮想オブジェクトのレンダリング場所に対する調節が必要とされないことを決定することができる。しかしながら、図13Bでは、HMDは、片側に傾斜され、ディスプレイの中心1314は、瞳孔1318a、1318bの両方と整合しない。別の実施例として、図13Cでは、HMDは、前方に傾斜され、または下向きに偏移され、その結果、ディスプレイの基準線1314は、瞳孔1318aおよび1318bの中心に合致しない。いずれかまたは両方の状況では、HMDは、HMDとユーザとの間の相対的位置を示す信号を送信してもよい。信号は、HMDに、仮想オブジェクトのレンダリング場所を調節させることができる。いくつかの実施形態では、HMDは、アラートを提供し、フィット感の良好度のインジケーションをユーザに表示してもよい。ユーザに表示されるフィット感の良好度のインジケーションは、基準線1314と瞳孔1318a、1318bとの間の整合が改良されるように、ユーザに、瞳孔1318a、1318bに対してHMDを調節する方法を知らせてもよい。
別の実施例では、眼カメラは、具体的には、HMDとユーザとの間の相対的位置のインジケータとして眼球中心を追跡してもよい。眼球中心場所は、ウェアラブルデバイスが、最大3次元(例えば、x-、y-、およびz-次元またはヨー、ピッチ、およびロール角度寸法)で生じる相対的傾斜、回転、および平行移動を決定することを可能にし得る。鏡面反射と関連付けられた誤差を低減させるために、具体的コンポーネントを伴う眼追跡カメラが、使用されてもよい。例えば、眼カメラは、赤外線(IR)発光ダイオード(LED)光を含んでもよい。眼カメラの動作パラメータおよび/またはIR LED光はまた、鏡面反射によって生じる追跡誤差を低減または最小限にするように最適化されてもよい。例えば、IR LED光は、比較的に高パワーを伴う特定の波長の光をバーストするように動作されてもよい。最適化されたIR波長は、約800nm~900nmであってもよく、最適化されたパワーレベルは、約2.5mA~50mAの動作電流に対応してもよい。眼カメラの露光時間も、加えて、または代替として、誤差を低減させるように調節されてもよい。最適露光時間は、約400マイクロ秒~8msであってもよい。眼カメラの動作パラメータを調節することに加えて、またはその代替として、フィルタリングステップが、反射によって生じる誤差を低減させるために実施されてもよい。これらの改良のうちの1つ以上のものの使用は、ウェアラブルデバイスが、他方の眼球周囲特徴に基づいて相対的位置を追跡するシステムより安定性かつ信頼性を伴って、眼球中心に対してウェアラブルデバイス場所を追跡することを可能にし得る。これは、特に、化粧が、眼瞼、眼角、睫毛長等の眼球周囲特徴を被覆するとき等、他方の眼球周囲特徴がウェアラブルデバイスにとって識別および追跡することが困難であるときに関連し得る。
いくつかの実施形態では、HMDは、ユーザの眼とウェアラブルデバイスとの間の相対的位置を決定するために、眼球周囲領域の画像内で観察される非対称性を使用することができる。例えば、図13Aでは、HMDは、眼球周囲領域の画像から、ユーザの眼が対称であることを決定し、故に、HMDが正常静止位置にあることを決定し得る。いくつかの実施形態では、他方の眼球周囲特徴は、2つの眼球周囲領域間の対称性を決定するために使用されてもよい。しかしながら、図13Bでは、画像内で観察される眼球周囲領域1322bおよび1322aは、同一眼球周囲特徴を有していない場合がある。いくつかの実施形態では、同一眼球周囲特徴が、眼球周囲領域1322a、1322bのそれぞれ内に存在し得るが、捕捉された画像内のその場所またはサイズは、変動し得る。例えば、眼球周囲領域1322bは、眼球周囲領域1322aより大きい前額の部分を含み得る一方、眼球周囲領域1322aは、眼球周囲領域1322bより大きい頬の部分を含み得る。その結果、HMDは、HMDがその正常静止位置に対して傾斜されていることを決定し得る。
眼球周囲領域1312aおよび1312bを結像するための2つの眼カメラは、図13A-13Cに示される実施例では、重複FOVを有していないが、いくつかの実施形態では、2つの眼カメラは、重複FOVを有してもよい。その結果、領域1312aの一部は、領域1312bの一部と重複してもよい。本重複FOVは、HMDと顔との間の相対的位置を決定するために有用であり得る。例えば、HMDが、ユーザに対してその正常静止位置にある場合、重複FOVは、鼻の上部部分を含んでもよい。しかしながら、重複FOV内の画像が、片眼の一部(鼻の上部部分の代わりに)を含む場合、HMDは、HMDが傾斜されていることを決定し得る。別の実施例として、画像が、鼻の大部分を含む場合、HMDは、それがユーザの鼻の下方に滑動していることを決定している。したがって、各眼球周囲領域または重複された眼球周囲領域内の眼球周囲特徴の存在または不在は、ユーザの眼および顔に対するHMDの相対的位置のインジケーションを提供し得る。
これらの例示的要因は、HMDとユーザの顔との間の相対的位置を決定するために、単独で、または組み合わせて、使用されてもよい。例えば、HMDは、画像内の装着者の眼における非対称性を検出するが、HMDは、それにもかかわらず、瞳孔の相対的中心が傾斜を示さないため、正常静止位置にあると決定し得る。したがって、HMDは、1回を上回るチェックを実施し、HMD/ユーザ不整合の誤ったインジケーションが、正しくなくかつ不必要に、レンダリング場所における調節をトリガしないように、HMDの位置を決定可能であり得る。
HMDは、種々のアルゴリズムを使用して、相対的位置を決定することができる。例えば、ウェアラブルシステムは、SIFT、SURF、ORB、FREAK、BRISKを使用して、視覚的特徴点および相対的位置を追跡することができる。シーケンシャルベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタ等)またはバンドル調整の使用等のV-SLAM技法もまた、採用されてもよい。カメラが、深度知覚(立体視、構造化された光投影、飛行時間測定、または任意の他の手段のいずれかによって)が可能である(単独で、またはデータを複数のカメラから統合することによってのいずれかで)場合、稠密マップが、顔の全体または一部から構築されてもよい。そのような稠密マップは、その3次元形状が測定される、パッチまたは領域を備えることができる。そのような領域は、マッチング(例えば、反復最近傍点アルゴリズムまたは類似物を用いて)によって、顔に対するHMDの場所を算出するために使用されてもよい。HMDは、HMDとユーザの顔との間の相対的位置を決定するために、顔のモデル(例えば、HMDの初期化位相の間に構築される)を使用することができる。
HMDとユーザの顔との間の相対的位置を決定することに加え、またはその代替として、ウェアラブルデバイスはまた、HMDの姿勢を決定することができる。姿勢は、ある程度または距離の片側または前方への傾斜、もしくはユーザの頭部を中心とした時計回りまたは反時計回り方向における回転等、ユーザの顔に対するものであってもよい。ウェアラブルデバイスは、HMDとユーザの顔との間の相対的位置に関する情報を使用して、HMDの姿勢を決定することができる。ウェアラブルデバイスはまた、HMDの姿勢を、直接、ウェアラブルデバイスの1つ以上のカメラによって入手された画像から決定することができる。
(仮想オブジェクトのレンダリング場所の調節)
HMDとユーザの顔との間の相対的位置またはHMDの姿勢は、仮想オブジェクトのレンダリング場所に対する調節を算出するために使用されてもよい。
図14Aおよび14Bは、HMD内の仮想オブジェクトのレンダリング場所の調節の実施例を図示する。これらの実施例では、HMDは、SARディスプレイであることができる。図14Aでは、眼1410は、眼座標系1412と関連付けられ、HMD1420は、レンダリング座標系1422と関連付けられる。本実施例では、眼座標系1412内のu-軸は、レンダリング座標系1422内のx-軸に対応し、眼座標系1412内のv-軸は、レンダリング座標系1422内のy-軸に対応し、眼座標系1412内のw-軸は、レンダリング座標系1422内のw-軸に対応する。レンダリング座標系のx-y-z座標の別の実施例は、図6に示される。これらの実施例では、座標系は、デカルト座標系を使用して図示されるが、例えば、極座標系等の他のタイプの座標系もまた、本明細書に説明される技法と併用されてもよい。
図14Aでは、眼が、位置1414aにあるとき、ユーザは、仮想オブジェクト1430をレンダリング座標系1422内の位置1424aにおいて知覚することができる(文字「p」によって表される)。位置1414aは、(HMD1420に対する)眼1410またはHMD1420の正常静止位置を表し得る。いくつかの実装では、ウェアラブルデバイス1420に関する対応する位置1424aは、仮想オブジェクトの正常レンダリング位置とも称され得る。図14Bでは、眼は、眼座標系1412内のu-軸に沿って位置1414aから位置1414bに移動することによって、その正常静止位置から逸脱する。本逸脱は、HMDの移動の結果であり得る。例えば、HMDが、前方に傾斜する、または片側に移動し得るとき、HMDとユーザの眼との間の相対的位置は、変化し得る。ウェアラブルデバイスは、同様に、HMDの傾斜に基づいて、仮想オブジェクトのレンダリング場所を動的に更新することができる。実施例として、HMD1420は、仮想オブジェクト1430のレンダリング場所をレンダリング座標系1422内のx-軸に沿って位置p1424aから位置p1424bに偏移させ得る。偏移は、図14Aおよび14Bでは、眼1410の移動前および後、仮想オブジェクト1430をユーザの環境内の同一場所に現れさせ得る。故に、ユーザは、仮想オブジェクトのレンダリングが動的に調節され、HMD移動を補正し、それによって、改良されたユーザ体験を提供するため、HMDがユーザの頭部上で若干偏移または移動したことを知覚しないであろう。
図2を参照して説明されるように、SARシステムは、仮想オブジェクトをユーザの眼の視点からレンダリングすることができる。ユーザの眼と関連付けられたレンダリング視点は、OpenGLまたはDirectX内の仮想カメラ等、レンダリングシステム内の仮想カメラによって表されてもよい。仮想オブジェクトのレンダリング場所を調節するために、仮想カメラは、(HMDに対する)ユーザの眼またはHMDの正常静止位置の変位に基づいて、変位または回転されてもよい。調節量は、ユーザの顔とHMDとの間の相対的位置の変化の割合であってもよい。例えば、仮想カメラの変位は、HMDまたはユーザの眼の移動の比率(等0.2、0.4、0.6等)であり得る。
実施例として、図14Aおよび14Bに示されるように、ウェアラブルデバイスは、仮想カメラの位置を位置p1424aから位置p1424bに更新し、位置1414aから位置1414bへの眼移動に対応することができる。別の実施例として、HMDは、ユーザの鼻の下方への摺動に起因して、前方に傾斜し得る。その結果、HMDは、傾斜に対応する仮想カメラに関する調節を計算してもよい。本実施例では、HMDは、眼1410とHMD1420との間の相対的位置がw-軸およびv-軸の両方に沿って変化し得るため、レンダリング座標系1422内のz値ならびにy値を調節してもよい。さらに別の実施例として、HMDは、HMDに対する眼の位置がv-軸およびu-軸に沿って変化し得るように、片側に傾斜し得る(右または左等)。故に、ウェアラブルデバイスは、y-軸および/またはx-軸に沿って仮想カメラを調節することができる。
仮想カメラの位置は、調節されるため、ユーザのFOV内の仮想オブジェクトのレンダリング場所もまた、適宜、調節され得る。加えて、または代替として、ウェアラブルデバイスは、ユーザの顔とHMDとの間の相対的位置変化を調節するために、レンダリング座標系を偏移させる(例えば、図14AおよびBに示されるx-y-z座標を偏移させる)ことができる。例えば、図14Bでは、レンダリング座標系1422の偏移は、HMDに対するような眼1410の移動に対応してもよい。座標偏移の結果、仮想オブジェクト1430は、依然として、レンダリング座標系1422内の同一位置にあり得る。仮想オブジェクト1430はまた、環境内の物理的オブジェクトに対して同一場所に現れ得る。座標系の変位は、x-y平面、y-z平面、またはx-z平面等の平面座標系の変位であってもよい、または3D空間内の変位であってもよい。
レンダリング座標系の偏移は、仮想カメラまたは仮想オブジェクトの偏移の近似であってもよい。いくつかの状況では(特に、微調節のために)、本近似は、仮想カメラを変位させることによって生成された調節に十分に近接し得る。加えて、座標偏移は、仮想オブジェクトの位置を計算するコストを低減させ、それによって、ウェアラブルデバイスの性能を増加させるために有利であり得る。また、遅延を低減させるために有利であり得る。例えば、座標偏移は、未補正座標のためのレンダリングパイプラインが完了後に行われてもよく、HMDは、仮想画像がレンダリング座標系にマッピングされる直前に、座標偏移を適用することができる。
いくつかの状況では、相対的位置の変化が、閾値レベルを超えると、ウェアラブルデバイスは、仮想オブジェクトのレンダリング場所を調節する代わりに、相対的位置変化を示すアラートを生成してもよい。他の状況では、相対的位置の変化が、閾値レベル未満であるとき、ウェアラブルデバイスは、相対的位置のそのようなわずかな変化がユーザの視覚的体験に影響を及ぼし得ないため、仮想オブジェクトのレンダリング場所を調節しないように構成されてもよい。本明細書に説明される動的レンダリング調節は、周期的に(例えば、全ての0.5秒、1秒、5秒、10秒、30秒等)、または必要に応じて(例えば、HMD相対的位置偏移が閾値量を上回るとき)、実施されることができる。
(仮想オブジェクトのレンダリング場所を調節する例示的プロセス)
図16は、仮想オブジェクトのレンダリング場所を調節するための例示的プロセスを図示する。図16におけるプロセス1600は、ウェアラブルデバイスによって実施されてもよく、これは、仮想オブジェクトを物理的オブジェクトの中にユーザの眼の視点から提示し、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムを含み得る、HMDを含んでもよい。
ブロック1610では、ウェアラブルデバイスは、内向きに面した結像システムによって取得される画像を受信することができる。例えば、ウェアラブルデバイスは、画像を内向きに面した結像システムの両方の眼カメラから受信することができる。いくつかの実装では、内向きに面した結像システムは、1つのみの眼カメラを含んでもよい。眼カメラは、片眼の眼球周囲領域または両眼に関する眼球周囲領域を結像するように構成されてもよい。画像は、ビデオからの静止画像またはフレームであることができる(例えば、典型的には、内向きに面した結像システムは、ビデオカメラを備える)。
ブロック1620では、ウェアラブルデバイスは、画像を分析し、眼球周囲特徴を識別することができる。例えば、ウェアラブルデバイスは、1つのみの画像または一連の画像(そのような分析を行うためのビデオ等)を使用してもよい。図11、12A、および12Bを参照して説明されるように、ウェアラブルデバイスは、眼球周囲特徴を一連の3D特徴点または稠密マップ内に表してもよい。ウェアラブルデバイスは、深層ニューラルネットワーク等の機械学習モデルを使用して、関連眼球周囲特徴を識別することができる。
ブロック1630では、ウェアラブルデバイスは、HMDとユーザの頭部との間の相対的位置を決定することができる。例えば、ウェアラブルデバイスは、ウェアラブルデバイスによって入手された一連の画像内の眼球周囲特徴と関連付けられた特徴点を追跡することができる。ウェアラブルデバイスはまた、HMDとユーザの顔との間の相対的位置を決定するために、眼球周囲の領域と稠密マップ内の領域を合致させることができる。別の実施例として、ウェアラブルデバイスは、ユーザと内向きに面した結像システムとの間の距離を使用して、HMDが傾斜している(側方または前方に)かどうかを決定してもよい。左眼に関して計算される距離が、右眼に関して計算される距離と異なる場合、ウェアラブルデバイスは、HMDが片側に傾斜されていることを決定し得る。左眼および右眼と関連付けられた距離が、ほぼ同一であるが、その距離が、閾値距離を超える場合、ウェアラブルデバイスは、それがユーザの眼から離れているため、前方に傾斜していることを決定し得る。
ユーザの眼とHMDとの間の距離に加え、またはその代替として、ウェアラブルデバイスはまた、ユーザとHMDとの間の相対的位置を決定するために、単独で、または組み合わせて、他の要因を使用することができる。これらの要因は、瞳孔とディスプレイの中心との間の整合、ユーザの眼の非対称性等を含んでもよい。
ブロック1640では、ウェアラブルデバイスは、少なくとも部分的に、HMDとユーザの顔との間の相対的位置に基づいて、仮想オブジェクトのレンダリング場所を調節することができる。例えば、ウェアラブルデバイスは、眼の現在の位置を決定し、眼とHMDとの間の相対的位置に基づいて、調節を計算することができる。調節は、眼またはHMDの正常静止位置に対するものであってもよい。調節は、水平偏移、垂直偏移、深度偏移、または側方傾斜等の1つ以上の方向におけるものであってもよい。ウェアラブルデバイスは、仮想カメラがユーザの眼の視点に対応し得る場合、レンダリングシステムの仮想カメラの場所を更新し、調節を反映させることができる。ウェアラブルデバイスはまた、HMDのレンダリング座標系を偏移させ、調節を反映させることができる。
ブロック1650では、HMDは、仮想オブジェクトを調節されたレンダリング場所にレンダリングする。仮想オブジェクトは、仮想オブジェクトと関連付けられた照明されたピクセルがHMD上で偏移され得る場合でも、調節に起因して、ユーザの環境内の同一場所で知覚され得る。
いくつかの状況では、ウェアラブルデバイスは、ユーザが動き回るにつれて、HMDの位置が変化し得る(例えば、HMDがユーザの鼻の下方に摺動し得る)ため、ユーザがHMDを装着している間、持続的にまたは周期的に(例えば、0.5秒、1秒、10秒、1分毎等)、ユーザの頭部に対するHMDの位置を監視することができる。ウェアラブルデバイスは、周期的または持続的に、もしくは必要に応じて、ARまたはVRディスプレイを変化させ(仮想オブジェクトと関連付けられたピクセルまたは場所を調節する等)、HMDとユーザの頭部との間の相対的位置の変化を補償してもよい。本実装は、特に、3Dディスプレイがユーザの頭部上の特定の場所に常に位置することを要求せずに、3Dビューを維持するために有利であり得る。故に、ウェアラブルデバイスは、ARまたはVRディスプレイからの光(例えば、ライトフィールド)の投影を動的に調節し、HMDがユーザの頭部上に位置付けられる場所を補償することができる。
(眼鏡のフィット感)
HMDは、種々の要因を使用して、HMDがユーザにフィットしている程度を決定することができる。一実施例として、HMDは、機械学習技法を介して学習されたマッピングを適用することによって、眼カメラによって取得される画像を分析することができる。眼カメラによって入手された画像は、機械学習モデルを使用して訓練され、眼球周囲特徴を識別することができる。機械学習モデルは、HMDに関するフィット感空間に対する画像空間のマッピングを含むことができる。マッピングは、眼画像に適用され、眼球周囲領域が眼画像内に存在するかどうか(例えば、HMDがユーザの顔上にあるかどうかを決定するために)またはユーザの顔上のHMDのフィット感の品質を決定することができる。いくつかの実装では、1つのマッピングは、ウェアラブルデバイスのフィット感を分類するためと、眼球周囲領域が提示するかどうかを決定するための両方に使用されてもよい、または異なるマッピングが、フィット感およびHMDがユーザの顔上にあるかどうかのために使用されてもよい。
マッピングは、例えば、画像内の眼球周囲特徴の出現(例えば、両眼に関する眼球周囲特徴が非対称に現れるかどうか)、片眼または両眼からHMDまでの距離、瞳孔間距離(例えば、ユーザのための適切な瞳孔間距離を伴う画像に基づいて計算される瞳孔間距離を比較する)、または瞳孔の相対的中心(例えば、HMDのディスプレイの中心が瞳孔の中心と整合するかどうか)等のフィット感を決定するために、種々のパラメータを組み込んでもよい。
画像空間は、眼球周囲領域の画像または眼球周囲領域内の特徴の画像を含んでもよい。HMDに関するフィット感空間は、瞳孔間距離、瞳孔とディスプレイの中心との間の整合、ユーザの眼の非対称性、HMDの傾斜等を含んでもよい。機械学習モデルは、マッピングが、眼画像に適用され、フィット感の品質(例えば、良好、容認可能、不良、または等級、例えば、A-F、または数値によるフィット感スコア)を決定し得るように、フィット感の良好度の予測因子である、特徴を識別することができる。HMDが、ユーザの顔に着けられている、またはそこから外されているかどうかを決定するためのマッピングは、ブール値(例えば、オンまたはオフ)であってもよい。
種々の機械学習アルゴリズムが、本プロセスのために使用されてもよい。モデルを生成および更新するために使用され得る、機械学習アルゴリズムのいくつかの実施例は、教師ありまたは教師なし機械学習アルゴリズムを含むことができ、回帰アルゴリズム(例えば、通常の最小2乗回帰等)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化等)、決定ツリーアルゴリズム(例えば、分類および回帰ツリー等)、ベイズアルゴリズム(例えば、単純ベイズ等)、クラスタリングアルゴリズム(等例えば、k-平均クラスタリング)、関連付けルール学習アルゴリズム(例えば、アプリオリアルゴリズム等)、人工ニューラルネットワークアルゴリズム(例えば、Perceptron等)、深層学習アルゴリズム(例えば、Deep Boltzmann Machine等)、次元低減アルゴリズム(例えば、主成分分析等)、アンサンブルアルゴリズム(例えば、Stacked Gneralization等)、および/または他の機械学習アルゴリズムを含む。
いくつかの実施形態では、個々のモデルは、個々のデータセットのためにカスタマイズされることができる。例えば、ウェアラブルデバイスは、基本モデルを生成することができる。基本モデルは、開始点として使用され、データタイプ(例えば、特定のユーザ)、データセット(例えば、取得される付加的画像のセット)、条件付き状況(例えば、ゲームプレーの間のフィット感は、インターネットブラウジングの間のフィット感と異なり得る)、または他の変数に特有の付加的モデルを生成してもよい。いくつかの実施形態では、ウェアラブルデバイスは、複数の技法を利用して、集約されたデータの分析のためのモデルを生成するように構成されることができる。他の技法は、事前に定義された閾値またはデータ値の使用を含んでもよい。経時的に、ウェアラブルデバイスは、モデルを更新し続けることができる。
HMDは、定量的および/または定質的測定値を使用して、フィット感を決定することができる。例えば、HMDは、HMDとユーザとの間の相対的位置に基づいて、またはHMDの姿勢に基づいて、フィット感を示すスコアを生成することができる。スコアは、機械学習技法を介して学習されたマッピングの出力であってもよい。いくつかの実装では、高スコアは、HMDがユーザに良好にフィットしていることを示し得る一方、低スコアは、HMDがあまり良好にフィットしていないことを示し得る。他の実装では、高スコアは、HMDがユーザに良好にフィットしていないことを示し得る一方、低スコアは、HMDが良好にフィットしていることを示し得る。別の実施例として、HMDは、それがユーザにフィットしている程度をカテゴリ化する。カテゴリは、「良好フィット感」、「不良フィット感」、または「全くフィットしていない」を含んでもよい。カテゴリはまた、「A」、「B」、「C」、「D」等の文字等級であってもよい。カテゴリはまた、機械学習技法から学習されたマッピングの出力であってもよい。例えば、マッピングは、眼球周囲特徴の出現とフィット感のカテゴリとの間の相関を含んでもよい。ウェアラブルデバイスは、眼カメラによって入手された画像から決定されるような眼球周囲特徴の出現に基づいて、フィット感のあるカテゴリを出力することができる。
(ウェアラブルデバイスのフィット感を決定するための例示的プロセス)
図15Aは、ウェアラブルデバイスのフィット感を決定するための例示的方法を図示する。プロセス1500aは、図2および4を参照して説明されるHMD等のウェアラブルデバイスによって実施されてもよい。HMDは、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムを有してもよい。
ブロック1502では、HMDは、内向きに面した結像システムによって取得される画像を受信することができる。例えば、HMDは、内向きに面した結像システムの両方の眼カメラに関する画像を受信することができる。いくつかの実装では、内向きに面した結像システムは、1つのみの眼カメラを含んでもよい。眼カメラは、片眼の眼球周囲領域または両眼に関する眼球周囲領域を結像するように構成されてもよい。画像は、ビデオからの静止画像またはフレームであることができる(例えば、典型的には、内向きに面した結像システムは、ビデオカメラを備える)。
ブロック1504では、HMDは、画像を分析し、眼球周囲特徴を識別することができる。例えば、HMDは、1つのみの画像または一連の画像(そのような分析を行うためのビデオ等)を使用してもよい。図11および12A-Bを参照して説明されるように、HMDは、眼球周囲特徴を一連の3D点内に表してもよい。HMDは、深層ニューラルネットワーク等の機械学習モデルを使用して、関連眼球周囲特徴を識別することができる。
ブロック1506では、HMDは、HMDとユーザの頭部との間の相対的位置を決定することができる。例えば、HMDは、画像を分析し、1つ以上の眼球周囲特徴が画像内に現れるかどうかを決定することができる。眼球周囲特徴が画像内に現れていない場合、HMDは、ユーザが現在HMDを装着していないことを決定し得る。眼球周囲特徴が、画像内に現れる場合、HMDは、HMDがユーザの顔に適切にフィットしているかどうかを分析することができる。例えば、HMDは、ユーザと内向きに面した結像システムとの間の距離を使用して、HMDが傾斜している(側方または前方に)かどうかを決定してもよい。実施例として、左眼に関して計算される距離が、右眼に関して計算される距離と異なる場合、HMDは、HMDが片側に傾斜されていることを決定し得る。別の実施例として、左眼および右眼と関連付けられた距離が、ほぼ同一であるが、その距離が、閾値距離を超える場合、HMDは、ユーザの眼から離れているため、それが前方に傾斜していることを決定し得る。
ユーザの眼とHMDとの間の距離に加え、またはその代替として、HMDはまた、ユーザとHMDとの間の相対的位置を決定するために、単独で、または組み合わせて、他の要因を使用することができる。これらの要因は、瞳孔間距離、瞳孔とディスプレイの中心との間の整合、ユーザの眼の非対称性等を含んでもよい。
ブロック1508では、HMDは、相対的位置に基づいて、フィット感カテゴリを決定することができる。本明細書に説明されるように、機械学習されたマッピングが、眼画像に適用され、フィット感の良好度を決定することができる。HMDは、フィット感を「良好フィット感」、「不良フィット感」、および「全くフィットしていない」等の異なるカテゴリに分類することができる。HMDはまた、ユーザインターフェースを通して、フィット感カテゴリを示すことができる。例えば、HMDは、HMDが不良にフィットしているとき、警告サインを提供してもよい。別の実施例として、HMDは、HMDが良好にフィットしている場合、インジケータをユーザインターフェース内に提供してもよい。いくつかの実装では、HMDは、フィット感と関連付けられたスコアを提供してもよい。HMDは、ユーザインターフェースを介して、スコアをユーザに表示することができる。いくつかの実施形態では、フィット感カテゴリはそれぞれ、スコアの範囲と関連付けられてもよい。HMDは、故に、スコアが所与の範囲内にあるかどうかかどうかに基づいて、ユーザにフィット感カテゴリを知らせることができる。
いくつかの状況では、HMDは、ユーザが動き回るにつれて、HMDの位置が変化し得る(例えば、HMDがユーザの鼻の下方に摺動し得る)ため、ユーザがHMDを装着している間、持続的にまたは周期的に(例えば、1秒、10秒、1分毎等)、ユーザの頭部に対するHMDの位置を監視することができる。HMDは、ARまたはVRディスプレイを変化させ(仮想オブジェクトと関連付けられたピクセルまたは場所を調節する等)、HMDとユーザの頭部との間の相対的位置の変化を補償してもよい。本実装は、特に、3Dディスプレイがユーザの頭部上の特定の場所に常に位置することを要求せずに、3Dビューを維持するために有利であり得る。故に、HMDは、AR/VR/MRディスプレイからの光(例えば、ライトフィールド)の投影を動的に調節し、HMDがユーザの頭部上に位置付けられる場所を補償することができる。
(眼鏡の除去)
図13A、13B、および13Cを参照して説明されるように、ウェアラブルデバイスは、内向きに面した結像システムによって入手された画像を分析し、種々の要因を使用して、ウェアラブルデバイスが側方または前方に傾斜しているかどうか等、ユーザとウェアラブルデバイスとの間の相対的位置を決定することができる。
相対的位置に関する情報はまた、ユーザが現在ウェアラブルデバイスを装着しているかどうかを決定するために使用されることができる。例えば、ウェアラブルデバイスは、内向きに面した結像システムによって入手された画像内の眼球周囲特徴を識別することができる。ウェアラブルデバイスが、任意の眼球周囲特徴を識別しない場合、ウェアラブルデバイスは、ユーザがウェアラブルデバイスを装着していないことを決定し得る。他の状況では、ウェアラブルデバイスは、ユーザの眼球周囲特徴の存在度に基づいて、ユーザがウェアラブルデバイスを除去している尤度を計算してもよい。例えば、ウェアラブルデバイスは、画像内の眼球周囲特徴が十分に小さく(例えば、閾値サイズを下回る)、デバイスがユーザの頭部から除去されていることを決定してもよい。別の実施例として、ウェアラブルデバイスは、ユーザがウェアラブルデバイスを除去しているパーセンテージ尤度を計算し、パーセンテージ尤度と閾値を比較してもよい。パーセンテージ尤度が、閾値を上回る場合、ウェアラブルシステムは、ウェアラブルデバイスがユーザの頭部から除去されていることを示し得る。他方では、ウェアラブルシステムは、ユーザが依然としてウェアラブルデバイスを装着しているパーセンテージ尤度を計算し、その値をユーザがウェアラブルデバイスを装着している尤度に関する閾値に対して比較することができる。パーセンテージ尤度が閾値を下回る場合、ウェアラブルデバイスは、ユーザがウェアラブルデバイスを除去していることを決定し得る。
別の実施例として、ウェアラブルデバイスは、内向きに面した結像システムによって入手された一連の画像を分析することができる。例えば、眼球周囲特徴が一連の画像内の最初のいくつかの画像の中に現れていないが、内向きに面した結像システムは、後に入手された画像内で眼球周囲特徴を発見し得る。その結果、ウェアラブルデバイスは、ユーザがウェアラブルデバイスを着けたばかりであることを決定し得る。他方では、眼球周囲特徴は、最初に、画像内に現れ得るが、ウェアラブルデバイスは、後に、眼球周囲特徴がもはや本FOV内にない(または十分に小さい)ことを発見する。ウェアラブルデバイスは、次いで、ユーザがウェアラブルデバイスを外したことを決定し得る。
加えて、または代替として、ウェアラブルデバイスは、距離、眼球周囲特徴のサイズ、および/または他の要因を使用して、ウェアラブルデバイスが、定位置にある、または除去されているかどうかを決定してもよい。例えば、ウェアラブルデバイスは、眼球周囲特徴を画像内で検出し得るが、眼球周囲特徴は、あまりに小さく現れ得る。その結果、ウェアラブルデバイスは、ウェアラブルデバイスとユーザとの間の距離が、ユーザが現在ウェアラブルデバイスを装着していないほど十分に遠くあり得ることを決定し得る。
ウェアラブルデバイスは、ユーザとウェアラブルデバイスとの間の相対的位置を決定するために、内向きに面した結像システムとともに、他のセンサを使用することができる。例えば、ウェアラブルデバイスは、IMU(例えば、加速度計またはジャイロスコープ)等の本明細書に説明されるセンサを使用して、ウェアラブルデバイスの移動を検出してもよい。本移動の情報は、画像分析とともに使用され、ユーザが、ウェアラブルデバイスを外している、または着けているかどうかを決定してもよい。実施例として、ウェアラブルデバイスは、内向きに面した結像システムを使用して、一連の画像を入手しながら、ウェアラブルデバイスの加速を検出してもよい。ウェアラブルデバイスが、眼球周囲領域を一連の画像の初期画像内に検出しない場合、ウェアラブルデバイスは、ユーザがデバイスを着けていることを決定し得る。他方では、眼球周囲領域が、内向きに面した結像システムによって入手された画像内にあって、ウェアラブルデバイスが、ウェアラブルデバイスの加速を検出する場合、ウェアラブルデバイスは、ユーザがウェアラブルデバイスを除去していることを決定し得る。
別の実施例として、ウェアラブルデバイスは、圧力センサを有してもよい。圧力センサは、眼鏡のこめかみ(イヤホン等)またはウェアラブルデバイスの鼻パッドに位置してもよい。ウェアラブルデバイスが、ユーザの顔に着けられているとき、圧力センサは、ウェアラブルデバイスがユーザに触れていることを示す信号を送信してもよい。他方では、ユーザがウェアラブルデバイスを外しているとき、圧力センサは、もはやユーザに圧接していないことを示唆する、データを入手し得る。本情報は、内向きに面した結像システムによって入手された画像と組み合わせられ、ユーザが、ウェアラブルデバイスを外している、または着けているかどうかを決定してもよい。
いったんウェアラブルデバイスが、ユーザの頭部から除去されたことを決定すると、ウェアラブルデバイスは、適宜、ウェアラブルデバイスがユーザから除去されると、ウェアラブルデバイスの1つ以上の機能をオフにする、または電力節約モードに入らせる、信号を送信してもよい。他方では、ウェアラブルデバイスが、ユーザがデバイスを着けていることを決定すると、ウェアラブルデバイスは、ウェアラブルデバイスの機能(AR/VR/MRディスプレイのアクティブ化等)をオンにする、信号を送信してもよい。
ウェアラブルデバイスはまた、ウェアラブルデバイスおよびユーザの眼の相対的位置に基づいて、3Dディスプレイを調節することができる。例えば、ウェアラブルデバイスが、デバイスがユーザの鼻の下方に滑動していることを検出すると、ウェアラブルデバイスは、ピクセルの場所を偏移させる、または3Dユーザインターフェース内の仮想オブジェクトの位置を変化させ、本位置変化に適応してもよい。本実装は、ユーザがその環境内で動き回る間、現実的かつ安定した3Dディスプレイを提供し得る。
ウェアラブルデバイスは、眼球周囲領域が画像内に現れるかどうかを持続的に監視することができる。ウェアラブルデバイスはまた、内向きに面した結像システムによって入手された一連の画像間の画像を選択し、眼球周囲領域がその画像内に現れるかどうかを決定することができる。連続監視は、緊密に離間される時間インターバルで生じることができ、これは、周期的(例えば、毎秒、10秒毎、毎分、15分毎等)であってもよい。
いくつかの実施形態では、内向きに面した結像システムは、そのFOV内の画像を持続的に取得してもよい。しかしながら、内向きに面した結像システムはまた、トリガに応答して、結像を開始または停止してもよい。例えば、ウェアラブルデバイスは、ユーザがウェアラブルデバイスを着けていることを検出すると、ユーザの顔の画像を開始するように構成されてもよい。ウェアラブルデバイスは、検出のために、加速度計および/またはジャイロスコープ等の図2および7を参照して説明される、種々のセンサを使用することができる。センサによって入手されたデータは、閾値レベルに対して分析されてもよい。データが、閾値レベルに達する場合、ウェアラブルデバイスは、結像プロセスを開始または停止してもよい。実施例として、ユーザが、ウェアラブルデバイスを持ち上げると、ウェアラブルデバイスの加速度計は、ウェアラブルデバイスの加速に関するデータを入手してもよい。ウェアラブルデバイスが、加速がある閾値加速を超えることを決定する場合、ウェアラブルデバイスは、ユーザの顔の画像を開始してもよい。いったんユーザが、ウェアラブルデバイスを、例えば、その頭部上に着けると、加速は、減少し得る。ウェアラブルデバイスが、加速がある閾値まで低減したことを決定する場合、ウェアラブルデバイスは、ユーザの顔の画像の取得を停止してもよい。
別のトリガは、ウェアラブルデバイスとユーザとの間の距離であってもよい。例えば、センサは、音響または光学信号等の信号を放出および受信し、信号または信号のフィードバックを使用して、距離を測定してもよい。ウェアラブルデバイスはまた、内向きに面した結像システムによって入手された画像を分析することによって、距離を決定してもよい。例えば、ウェアラブルデバイスは、画像内の顔のサイズに基づいて、距離を計算してもよく、大サイズは、短距離を示し得る一方、小サイズは、長距離を示し得る。ウェアラブルデバイスは、距離が閾値を超える、またはある範囲内にあるとき、ユーザを結像してもよい。例えば、ウェアラブルデバイスは、ウェアラブルデバイスがユーザまでのある距離内にあるときのみ、ユーザを結像してもよい。
(ウェアラブルデバイスの除去を決定するための例示的プロセス)
図15Bは、ウェアラブルデバイスの除去を決定するための例示的方法を図示する。図15Bにおけるプロセス1500bは、図2および4を参照して説明されるHMD等のウェアラブルデバイスによって実施されてもよい。HMDは、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムを有してもよい。
ブロック1510では、内向きに面した結像システムは、一連の画像を入手することができる。HMDは、内向きに面した結像システムによって入手された画像を受信することができる。一連の画像は、シーケンスで撮影されてもよい。例えば、一連の画像は、ビデオの異なるタイムスタンプにおける画像のフレームを含んでもよい。
ブロック1520では、HMDは、ブロック1510において入手された1つ以上の画像を分析し、眼球周囲特徴を識別することができる。図11および12A-Bを参照して説明されるように、眼球周囲特徴は、顔特徴の数学的表現(3D空間毎の点等)であってもよい。HMDは、深層ニューラルネットワーク等の機械学習技法を使用して、眼球周囲特徴を識別することができる。
いくつかの実装では、HMDは、入射画像の分解能を低減させ、または画像の一部(虹彩および強膜を含む、眼球周囲領域の中心部分等)を無視し、それによって、画像処理速度を増加させてもよい。これらの実装は、眼球周囲領域の中心部分が、HMDがユーザ上にあるかどうかの決定に有意に影響を及ぼし得ない、詳細な特性を有し得るため、有利であり得る。さらに、強膜は、環境内のオブジェクトの鏡面反射を作成し得る。これらの鏡面反射および眼球周囲領域の詳細な特性は、雑音を機械学習モデルに導入し、分析の正確度を低減させ得る。
ブロック1530では、HMDは、眼球周囲特徴が入手された画像内に現れていないかどうかを決定することができる。HMDが、1つ以上の眼球周囲特徴が入手された画像内に現れていないことを決定する場合、HMDは、ブロック1532において、HMDがユーザの頭部から除去されていることを示す信号を発することができる。信号は、HMDに、電源をオフにさせ、またはスリープモードに入らせ、バッテリ電力消費を低減させてもよい。信号はまた、HMDに、ある機能の実施を停止させてもよい。例えば、信号は、HMDに、VRまたはARモードをオフにさせてもよい。発せられる信号は、電子信号であり得るが、加えて、または代替として、ユーザへの警告として、可聴または可視信号を含んでもよい。
HMDが、ブロック1540において、眼球周囲領域が画像のサブセット内のみに現れることを決定する場合、HMDは、ブロック1542において、HMDに関する状態の変化を示し得る。例えば、HMDは、眼球周囲特徴が、初期画像内に現れるが、後の画像には現れないことを決定し得る。本決定に基づいて、HMDは、ユーザがHMDを外したことを示し得る。いくつかの実装では、HMDは、ユーザがHMDを外したことを示す信号を送信してもよく、これは、ブロック1532に示されるものと同一アクションを実施させ得る。
他方では、HMDは、眼球周囲特徴が後の画像のみに現れることを検出し得る。故に、HMDは、ユーザがデバイスを着けていることを決定し得る。本決定に応答して、HMDは、HMDの仮想現実または拡張現実機能をオンにする、ユーザログインシーケンスを開始する、内向きに面した結像システムの分解能を変化させる(例えば、眼追跡または虹彩認識のためにより好適な分解能に)、または他のアクションを実施し、本状態変化を反映させてもよい。
しかしながら、HMDが、眼球周囲特徴を最初に入手された画像と後に入手された画像の両方において検出する場合、HMDは、ブロック1544において、ユーザが現在HMDを装着していることを決定し得る。故に、HMDは、随意に、ブロック1510を実施してもよい。
実施例は、眼球周囲領域の検出を参照して説明されるが、本明細書に説明されるこれらの技法は、眼球周囲領域に限定されない。例えば、本明細書に説明される技法はまた、他の顔特徴またはユーザの身体の一部を検出するためにも使用されることができる。加えて、図15Bに示されるブロックは、いくつかのブロックが、別のブロックの前、後、またはそれと同時に実施されてもよいため、シーケンスにおいて実施されることを要求されない。例えば、決定ブロック1540は、決定ブロック1530の後に実施されることを要求されない。さらに、方法1500bは、図15Bに示される全てのブロックを含むことを要求されず、方法1500は、より多いまたはより少ないブロックを含んでもよい。例えば、図15Bにおける1つ以上のブロック(ブロック1530および1540等)は、単一ブロックにおいて組み合わせられてもよい。
(眼球周囲画像からウェアラブルデバイスとユーザの顔との間の相対的位置へのマッピングを生成する例示的プロセス)
図15Cは、機械学習技法を適用し、フィット感の良好度に関するマッピングまたはHMDがユーザ上にあるかどうかを提供するための方法1500cの実施例である。ブロック1552では、眼画像が、アクセスされ、これは、教師ありまたは教師なし学習において訓練画像として使用され、マッピングを生成するために使用され得る。ブロック1554では、機械学習技法(例えば、深層ニューラルネットワーク)が、眼画像を分析し、ユーザ上のHMDのフィット感の品質またはHMD除去カテゴリ化(例えば、ユーザの頭部上にあるまたはない)のために使用され得る、マッピングを展開するために使用される。ブロック1556では、マッピングが、出力され(例えば、訓練されたニューラルネットワークから出力される)、特定のHMD(例えば、ローカルデータモジュール260または遠隔データリポジトリ280)と関連付けられたメモリ内に記憶されることができる。ブロック1562では、付加的眼画像が、アクセスされることができ、これは、ユーザに特定のものであってもよい。例えば、ユーザは、鏡の正面に立ち、HMDをユーザの顔上で移動させ、結果として生じるフィット感の品質のユーザの主観的印象を注釈することができる。ブロック1564では、機械学習技法は、例えば、ニューラルネットワークをさらに訓練することによって、マッピングを更新し、ユーザの個々の選好を反映させる。
ブロック1566では、HMDは、ユーザに、ユーザの頭部上のHMDの測定されたフィット感の品質についての情報を提供することができる。例えば、HMDは、品質等級をユーザに表示する、またはフィット感の品質を示す可聴信号を発してもよい。HMDは、ユーザの頭部上のHMDのフィット感を改良する方法に関する命令をユーザに表示(または可聴命令を提供)し、付加的眼画像を入手し(ブロック1562)、更新されたフィット感の品質を決定してもよい(ブロック1564)。HMDは、ユーザの頭部上のHMDのフィット感の品質が容認可能または最適レベルになるまで、これを繰り返してもよい。故に、HMDは、ユーザを品質適合プロシージャを通して誘導し、特定のユーザの頭部を上のHMDのフィット感が好適であることを確実にし得る。HMDは、特定のユーザがHMDを初めて着けたときに、周期的に、または測定されたフィット感の品質が閾値を下回る(例えば、A-F等級スケールに基づいて、品質等級がCを下回る)ときに、本品質適合プロシージャを実施してもよい。
ブロック1562、1564、1566は、随意であるが、有利なレベルのユーザのカスタマイズを提供する。さらに、マッピングは、HMDの数人のユーザ毎に、カスタマイズされることができる(例えば、家族は、単一HMDの使用を共有し得、家族の1人ずつにマッピングをカスタマイズすることができる)。
(付加的側面)
第1の側面では、ユーザの頭部からの頭部搭載型ディスプレイの除去を検出するための方法であって、コンピュータプロセッサと、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムとを備える、頭部搭載型ディスプレイの制御下で、画像を内向きに面した結像システムから受信するステップと、画像を分析し、画像内の眼球周囲領域の眼球周囲特徴の存在度を識別するステップと、少なくとも部分的に、眼球周囲特徴の存在度に基づいて、頭部搭載型ディスプレイがユーザの頭部から除去された尤度を決定するステップと、尤度が閾値を超えたことの決定に応答して、頭部搭載型ディスプレイがユーザの頭部から除去されたことのインジケーションを提供するステップとを含む、方法。
第2の側面では、内向きに面した結像システムは、2つの眼カメラを備え、各眼カメラは、ユーザの個別の眼を結像するように構成される、側面1に記載の方法。
第3の側面では、眼球周囲領域は、ユーザの眼窩、鼻の一部、頬の一部、眉毛の一部、または前額の一部のうちの1つ以上のものを含む、側面1-2のいずれか1項に記載の方法。
第4の側面では、画像を分析するステップは、疎密オートエンコーダアルゴリズム、クラスタリングアルゴリズム、深層ニューラルネットワーク、または任意のタイプのニューラルネットワークによって実施される、側面1-3のいずれか1項に記載の方法。
第5の側面では、少なくとも部分的に、眼球周囲特徴の存在度に基づいて、頭部搭載型ディスプレイがユーザの頭部から除去された尤度を決定するステップは、頭部搭載型ディスプレイのユーザに特有の眼球周囲特徴の存在を決定するステップを含む、側面1-4のいずれか1項に記載の方法。
第6の側面では、画像を分析するステップは、画像の分解能を低減させるステップを含む、側面1-5のいずれか1項に記載の方法。
第7の側面では、画像を分析するステップは、眼球周囲領域の一部をマスクするステップを含み、一部は、虹彩、眼の強膜、または眼球上の鏡面反射のうちの少なくとも1つを含む、側面1-6のいずれか1項に記載の方法。
第8の側面では、インジケーションを提供するステップは、頭部搭載型ディスプレイに、電源をオフにさせる、またはバッテリ節約モードに入らせる、信号を提供するステップを含む、側面1-7のいずれか1項に記載の方法。
第9の側面では、ユーザの頭部からの頭部搭載型ディスプレイの除去を検出するためのシステムであって、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムと、側面1-8のいずれか1項に記載の方法を実施するように構成される、コンピュータプロセッサとを備える、システム。
第10の側面では、ユーザの頭部に対する頭部搭載型ディスプレイの場所を決定するための方法であって、コンピュータプロセッサと、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムとを備える、頭部搭載型ディスプレイの制御下で、第1の画像および第2の画像を内向きに面した結像システムから受信するステップであって、第1の画像および第2の画像は、シーケンスで入手される、ステップと、第1の画像および第2の画像を分析し、第1の画像および第2の画像内の眼球周囲領域の眼球周囲特徴を識別するステップと、少なくとも部分的に、眼球周囲特徴に基づいて、眼球周囲領域が第1の画像または第2の画像内にあるかどうかを決定するステップと、眼球周囲領域が第1の画像または第2の画像のいずれにも存在しないことの決定に応答して、頭部搭載型ディスプレイがユーザの頭部から除去されたことのインジケーションを提供するステップと、眼球周囲領域が第1の画像または第2の画像のいずれか内にあることの決定に応答して、頭部搭載型ディスプレイに関する状態の変化を示すステップとを含む、方法。
第11の側面では、第1の画像は、第2の画像の前に入手される、側面10に記載の方法。
第12の側面では、内向きに面した結像システムは、2つの眼カメラを備え、それぞれ、ユーザの眼を結像するように構成される、側面10-11のいずれか1項に記載の方法。
第13の側面では、眼球周囲領域は、ユーザの眼窩、鼻の一部、頬の一部、眉毛の一部、または前額の一部のうちの1つ以上のものを含む、側面10-12のいずれか1項に記載の方法。
第14の側面では、眼球周囲特徴を識別するステップは、深層ニューラルネットワーク、疎密オートエンコーダアルゴリズム、クラスタリングアルゴリズム、または任意のタイプのニューラルネットワークによって実施される、側面10-13のいずれか1項に記載の方法。
第15の側面では、眼球周囲特徴は、頭部搭載型ディスプレイのユーザに特有である、側面10-14のいずれか1項に記載の方法。
第16の側面では、第1の画像および第2の画像を分析するステップは、第1の画像および第2の画像の分解能を低減させるステップを含む、側面10-15のいずれか1項に記載の方法。
第17の側面では、第1の画像および第2の画像を分析するステップは、第1の画像および第2の画像内において、眼球周囲領域の一部をマスクするステップを含み、一部は、虹彩、眼の強膜、または眼球上の鏡面反射のうちの少なくとも1つを含む、側面10-16のいずれか1項に記載の方法。
第18の側面では、頭部搭載型ディスプレイに関する状態の変化を示すステップは、電源をオフにするステップまたはバッテリ節約モードに入るステップを含む、側面10-17のいずれか1項に記載の方法。
第19の側面では、頭部搭載型ディスプレイの状態は、頭部搭載型ディスプレイがユーザの頭部上にあること、または頭部搭載型ディスプレイがユーザの頭部から除去されていることを含む、側面10-18のいずれか1項に記載の方法。
第20の側面では、眼球周囲特徴が、第1の画像内で識別されるが、第2の画像では識別されないことの決定に応答して、頭部搭載型ディスプレイの状態をユーザの頭部上にある状態からユーザの頭部から除去されている状態に変化させ、眼球周囲特徴が、第2の画像内で識別されるが、第1の画像では識別されないことの決定に応答して、頭部搭載型ディスプレイの状態をユーザの頭部から除去されている状態からユーザの頭部上にある状態に変化させる、側面19に記載の方法。
第21の側面では、ユーザの頭部に対する頭部搭載型ディスプレイの場所を決定するためのシステムであって、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムと、側面10-20のいずれか1項に記載の方法を実施するように構成される、コンピュータプロセッサとを備える、システム。
第22の側面では、ユーザの頭部上の頭部搭載型ディスプレイのフィット感を決定するための方法であって、コンピュータプロセッサと、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムとを備える、頭部搭載型ディスプレイの制御下で、画像を内向きに面した結像システムから受信するステップと、画像を分析し、眼球周囲領域の眼球周囲特徴を識別するステップと、少なくとも部分的に、画像の分析に基づいて、頭部搭載型ディスプレイとユーザの頭部との間の相対的位置を決定するステップと、少なくとも部分的に、頭部搭載型ディスプレイとユーザの頭部との間の相対的位置に基づいて、頭部搭載型ディスプレイのフィット感カテゴリを決定するステップとを含む、方法。
第23の側面では、内向きに面した結像システムは、2つの眼カメラを備え、各眼カメラは、ユーザの個別の眼を結像するように構成される、側面22に記載の方法。
第24の側面では、眼球周囲領域は、ユーザの眼窩、鼻の一部、頬の一部、眉毛の一部、または前額の一部のうちの1つ以上のものを含む、側面22-23のいずれか1項に記載の方法。
第25の側面では、眼球周囲特徴は、頭部搭載型ディスプレイのユーザに特有である、側面22-24のいずれか1項に記載の方法。
第26の側面では、眼球周囲特徴は、クラスタリングアルゴリズムまたはニューラルネットワークアルゴリズムのうちの少なくとも1つを使用して識別される、側面22-25のいずれか1項に記載の方法。
第27の側面では、相対的位置を決定するステップは、頭部搭載型ディスプレイからユーザの眼までの距離を計算するステップ、ユーザの眼間の瞳孔間距離を計算するステップ、頭部搭載型ディスプレイとユーザの眼との間の相対的位置を決定するステップ、ユーザの眼の非対称性を決定するステップ、または頭部搭載型ディスプレイの傾斜を決定するステップであって、傾斜は、前方傾斜または側方傾斜のうちの少なくとも1つを含む、ステップのうちの1つ以上のものを含む、側面22-26のいずれか1項に記載の方法。
第28の側面では、フィット感カテゴリを決定するステップは、HMDとユーザの頭部との間の相対的位置と閾値条件を比較するステップと、少なくとも部分的に、相対的位置と閾値条件との間の比較に基づいて、フィット感カテゴリとHMDを関連付けるステップとを含む、側面22-27のいずれか1項に記載の方法。
第29の側面では、フィット感カテゴリは、良好フィット感、適正フィット感、または不良フィット感のうちの少なくとも1つを含む、側面22-28のいずれか1項に記載の方法。
第30の側面では、フィット感カテゴリのインジケーションを提供するステップをさらに含み、インジケーションは、頭部搭載型ディスプレイに、頭部搭載型ディスプレイのディスプレイを調節し、相対的位置を補償すること、またはユーザにフィット感カテゴリと関連付けられたアラートを提供することのうちの少なくとも1つを実施させる、側面22-29のいずれか1項に記載の方法。
第31の側面では、ユーザ上の頭部搭載型ディスプレイのフィット感を決定するためのシステムであって、ユーザの眼球周囲領域の画像にアクセスし、眼球周囲領域の画像とユーザ上の頭部搭載型ディスプレイのフィット感の良好度との間のマッピングにアクセスし、マッピングを適用し、頭部搭載型ディスプレイのフィット感の良好度を決定するようにプログラムされる、ハードウェアコンピュータプロセッサを備える、システム。
第32の側面では、マッピングは、ニューラルネットワークによって生成される、側面31に記載のシステム。
第33の側面では、フィット感の良好度は、定質的格付け、数値格付け、または文字等級のうちの少なくとも1つを含む、側面31-32のいずれか1項に記載のシステム。
第34の側面では、コンピュータプロセッサはさらに、フィット感の良好度が閾値レベルに達したことに応答して、補正アクションを実施するようにプログラムされる、側面31-33のいずれか1項に記載のシステム。
第35の側面では、補正アクションを実施するために、コンピュータプロセッサは、インジケーションをユーザに提供する、または頭部搭載型ディスプレイのディスプレイを調節し、フィット感を補償するようにプログラムされる、側面34に記載のシステム。
第36の側面では、インジケーションをユーザに提供するために、コンピュータプロセッサは、フィット感の良好度の改良に関する命令をユーザに提供するようにプログラムされる、側面35に記載のシステム。
第37の側面では、インジケーションをユーザに提供するために、コンピュータプロセッサは、付加的眼画像にアクセスし、マッピングを付加的眼画像に適用し、更新されたフィット感の良好度を決定するようにプログラムされる、側面34-35のいずれか1項に記載のシステム。
第38の側面では、コンピュータプロセッサは、更新されたフィット感の良好度が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感の良好度を決定し続けるようにプログラムされる、側面37に記載のシステム。
第39の側面では、仮想オブジェクトのレンダリング場所を調節するための拡張現実(AR)システムであって、仮想オブジェクトを3次元空間(3D)上にレンダリングするように構成されるARディスプレイシステムと、ユーザの顔の眼球周囲部分を結像するように構成される、結像システムと、画像を結像システムから受信し、画像を分析し、ユーザの眼球周囲特徴を識別し、少なくとも部分的に、眼球周囲特徴に基づいて、ARディスプレイシステムとユーザの頭部との間の相対的位置を決定し、少なくとも部分的に、ARディスプレイシステムとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトのレンダリング場所を調節し、拡張現実ディスプレイシステムに、仮想オブジェクトをレンダリング場所にレンダリングするように命令するようにプログラムされる、ハードウェアプロセッサと、を備える、ARシステム。
第40の側面では、レンダリング場所を調節するために、ハードウェアプロセッサは、ユーザの眼の正常静止位置と、ユーザの眼の正常静止位置に対応する、仮想オブジェクトの正常レンダリング位置とを決定し、少なくとも部分的に、ARディスプレイシステムとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトの正常レンダリング位置に対する補正を計算し、正常レンダリング位置に対する補正に基づいて、仮想オブジェクトのレンダリング場所を決定するようにプログラムされる、側面39に記載のARシステム。
第41の側面では、ユーザの眼の正常レンダリング位置および仮想オブジェクトの正常レンダリング位置は、ARシステムの開始位相の間に決定される、側面40に記載のARシステム。
第42の側面では、ハードウェアプロセッサはさらに、画像を分析し、眼姿勢を決定するようにプログラムされ、ユーザの眼の位置は、ARディスプレイシステム内のレンダリング視点に対応し、レンダリング場所を調節することは、ユーザの眼姿勢に基づいて、レンダリング視点の位置を更新することを含む、側面39-41のいずれか1項に記載のARシステム。
第43の側面では、レンダリング視点の位置を更新することは、ARディスプレイシステムと関連付けられた座標を偏移させることを含む、側面42に記載のARシステム。
第44の側面では、ARディスプレイシステムは、仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される、空間ARディスプレイシステムを備える、側面39-43のいずれか1項に記載のARシステム。
第45の側面では、結像システムは、ユーザの環境を結像するように構成される、外向きに面した結像システムを備え、結像システムからの画像は、ユーザの顔の反射された結像を含む、側面39-44のいずれか1項に記載のARシステム。
第46の側面では、ARディスプレイシステムとユーザの頭部との間の相対的位置は、水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、側面39-45のいずれか1項に記載のARシステム。
第47の側面では、ARディスプレイシステムとユーザの頭部との間の相対的位置は、ユーザの第1の眼に関する第1の相対的位置と、ユーザの第2の眼に関する第2の相対的位置とを含む、側面39-46のいずれか1項に記載のARシステム。
第48の側面では、相対的位置は、視覚的特徴点を使用して眼球周囲特徴を追跡すること、または顔の領域とユーザの頭部の少なくとも一部をエンコードする稠密マップを合致させることのうちの少なくとも1つによって決定される、側面39-47のいずれか1項に記載のARシステム。
第49の側面では、視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または稠密マップは、反復最近傍点アルゴリズムを使用して計算される、側面48に記載のARシステム。
第50の側面では、拡張現実デバイス(ARD)内の仮想オブジェクトのレンダリング場所を調節するための方法であって、ハードウェアプロセッサと、仮想オブジェクトを3次元空間(3D)上にレンダリングするように構成される拡張現実ディスプレイシステムと、ユーザの顔の眼球周囲部分を結像するように構成される、結像システムとを備える、ARDの制御下で、画像を結像システムから受信するステップと、画像を分析し、ユーザの眼球周囲特徴を識別するステップと、少なくとも部分的に、眼球周囲特徴に基づいて、ARDとユーザの頭部との間の相対的位置を決定するステップと、少なくとも部分的に、ARDとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトのレンダリング場所を調節するステップと、拡張現実ディスプレイシステムによって、仮想オブジェクトをレンダリング場所にレンダリングするステップとを含む、方法。
第51の側面では、レンダリング場所を調節するステップは、ユーザの眼の正常静止位置と、ユーザの眼の正常静止位置に対応する、仮想オブジェクトの正常レンダリング位置とを決定するステップと、少なくとも部分的に、ARDとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトの正常レンダリング位置に対する補正を計算するステップと、正常レンダリング位置に対する補正に基づいて、仮想オブジェクトのレンダリング場所を決定するステップとを含む、側面50に記載の方法。
第52の側面では、ユーザの眼の正常レンダリング位置および仮想オブジェクトの正常レンダリング位置は、ARDの開始位相の間に決定される、側面51に記載の方法。
第53の側面では、本方法はさらに、画像を分析し、眼姿勢を決定するステップを含み、ユーザの眼の位置は、拡張現実ディスプレイシステム内のレンダリング視点に対応し、レンダリング場所を調節するステップは、ユーザの眼姿勢に基づいて、レンダリング視点の位置を更新するステップを含む、側面50-52のいずれか1項に記載の方法。
第54の側面では、レンダリング視点の位置を更新するステップは、拡張現実ディスプレイシステムと関連付けられた座標を偏移させるステップを含む、側面53に記載の方法。
第55の側面では、拡張現実ディスプレイシステムは、仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される、空間拡張現実ディスプレイを備える、側面52-54のいずれか1項に記載の方法。
第56の側面では、結像システムは、ユーザの環境を結像するように構成される外向きに面した結像システムを備え、結像システムからの画像は、ユーザの顔の反射された結像を含む、側面50-55のいずれか1項に記載の方法。
第57の側面では、ARDとユーザの頭部との間の相対的位置は、水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、側面50-56のいずれか1項に記載の方法。
第58の側面では、ARDとユーザの頭部との間の相対的位置は、ユーザの第1の眼に関する第1の相対的位置と、ユーザの第2の眼に関する第2の相対的位置とを含む、側面50-57のいずれか1項に記載の方法。
第59の側面では、相対的位置は、視覚的特徴点を使用して眼球周囲特徴を追跡すること、または顔の領域とユーザの頭部の少なくとも一部をエンコードする稠密マップを合致させることのうちの少なくとも1つによって決定される、側面50-58のいずれか1項に記載の方法。
第60の側面では、視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または稠密マップは、反復最近傍点アルゴリズムを使用して計算される、側面59に記載の方法。
第61の側面では、仮想オブジェクトのレンダリング場所を調節するための拡張現実デバイス(ARD)であって、ARDは、仮想オブジェクトを3次元空間(3D)上にレンダリングするように構成される拡張現実ディスプレイシステムと、ユーザの画像を入手するように構成される、結像システムと、画像を結像システムから受信し、画像を分析し、ユーザの特徴を識別し、少なくとも部分的に、識別された特徴に基づいて、ユーザの頭部に対するARDに関する姿勢を算出し、拡張現実ディスプレイシステムに、少なくとも部分的に、ARDに関する姿勢に基づいて、仮想オブジェクトをレンダリング場所にレンダリングするように命令するようにプログラムされる、ハードウェアプロセッサとを備える。
第62の側面では、画像は、眼球周囲画像を含み、特徴は、眼球周囲特徴を含む、側面61に記載のARD。
第63の側面では、特徴は、視覚的特徴点またはユーザの顔モデルと関連付けられた稠密マップのうちの少なくとも1つによってエンコードされる、側面61-62のいずれか1項に記載のARD。
第64の側面では、ARDに関する姿勢を算出するために、ハードウェアプロセッサは、視覚的特徴点を追跡する、またはユーザの顔の領域と顔モデルを合致させるようにプログラムされる、側面63に記載のARD。
第65の側面では、視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または稠密マップは、反復最近傍点アルゴリズムを使用して計算される、側面63-65のいずれか1項に記載のARD。
第66の側面では、ARDに関する姿勢は、水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、側面61-65のいずれか1項に記載のARD。
第67の側面では、拡張現実ディスプレイシステムに、少なくとも部分的に、ARDに関する姿勢に基づいて、仮想オブジェクトをレンダリング場所にレンダリングするように命令するために、ハードウェアプロセッサは、拡張現実ディスプレイシステム内の仮想カメラを変位させること、または拡張現実ディスプレイシステムと関連付けられたレンダリング座標系を偏移させ、ARDの姿勢に対応することのうちの少なくとも1つを実施するようにプログラムされる、側面61-66のいずれか1項に記載のARD。
第68の側面では、拡張現実ディスプレイシステムは、仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される、空間拡張現実ディスプレイを備える、側面61-67のいずれか1項に記載のARD。
第69の側面では、拡張現実デバイス(ARD)内の仮想オブジェクトのレンダリング場所を調節するための方法であって、ハードウェアプロセッサと、仮想オブジェクトを3次元空間(3D)上にレンダリングするように構成される拡張現実ディスプレイシステムと、結像システムとを備える、ARDの制御下で、画像を結像システムから受信するステップと、画像を分析し、ユーザの特徴を識別するステップと、少なくとも部分的に、識別された特徴に基づいて、ユーザの頭部に対するARDに関する姿勢を算出するステップと、少なくとも部分的に、ARDに関する姿勢に基づいて、拡張現実ディスプレイシステムによって、仮想オブジェクトをレンダリング場所にレンダリングするステップとを含む、方法。
第70の側面では、画像は、眼球周囲画像を含み、特徴は、眼球周囲特徴を含む、側面69に記載の方法。
第71の側面では、特徴は、視覚的特徴点またはユーザの顔モデルと関連付けられた稠密マップのうちの少なくとも1つによってエンコードされる、側面69-30のいずれか1項に記載の方法。
第72の側面では、ARDに関する姿勢を算出するステップは、視覚的特徴点を追跡するステップまたはユーザの顔の領域と顔モデルを合致させるステップを含む、側面31に記載の方法。
第73の側面では、視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または稠密マップは、反復最近傍点アルゴリズムを使用して計算される、側面31-32のいずれか1項に記載の方法。
第74の側面では、ARDに関する姿勢は、水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、側面69-73のいずれか1項に記載の方法。
第75の側面では、拡張現実ディスプレイシステムによって、少なくとも部分的に、ARDに関する姿勢に基づいて、仮想オブジェクトをレンダリング場所にレンダリングするステップは、拡張現実ディスプレイシステム内の仮想カメラを変位させるステップ、または拡張現実ディスプレイシステムと関連付けられたレンダリング座標系を偏移させ、ARDの姿勢に対応するステップのうちの少なくとも1つを含む、側面69-74のいずれか1項に記載の方法。
第76の側面では、拡張現実ディスプレイシステムは、仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される、空間拡張現実ディスプレイを備える、側面69-75のいずれか1項に記載の方法。
第77の側面では、頭部搭載型デバイス(HMD)であって、仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される、空間拡張現実(AR)ディスプレイシステムと、ユーザの顔の眼球周囲領域を結像するように構成される、内向きに面した結像システムであって、眼球周囲領域の少なくとも第1の画像を入手するように構成され、さらに、第1の画像内で捕捉された眼球周囲領域の一部をマスクするように構成される、内向きに面した結像システムと、画像を内向きに面した結像システムから受信し、オブジェクト認識装置によって、画像を分析し、ユーザの眼球周囲特徴を識別し、ユーザの眼の正常静止位置と、ユーザの眼の正常静止位置に対応する、仮想オブジェクトの正常レンダリング位置とを決定し、少なくとも部分的に、眼球周囲特徴に基づいて、HMDとユーザの頭部との間の相対的位置を決定し、少なくとも部分的に、HMDとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトの正常レンダリング位置に対する調節を計算し、正常レンダリング位置に対する調節に基づいて、仮想オブジェクトのレンダリング場所を決定し、HMDに、仮想オブジェクトをレンダリング場所にレンダリングするように命令するようにプログラムされる、ハードウェアプロセッサとを備える、HMD。ある実装では、内向きに面した結像システムはまた、第1の画像を低減された分解能で入手するように構成されることができる。
第78の側面では、プロセッサは、HMDの初期化位相の間、ユーザの眼の正常静止位置と、仮想オブジェクトの正常レンダリング位置とを決定するように構成される、側面77に記載のHMD。
第79の側面では、HMDとユーザの頭部との間の相対的位置を決定するために、プロセッサは、視覚的特徴点を使用して眼球周囲特徴を追跡すること、または顔の領域とユーザの頭部の少なくとも一部をエンコードする稠密マップを合致させることのうちの少なくとも1つを実施するように構成される、側面77-78のいずれか1項に記載のHMD。
第80の側面では、視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または稠密マップは、反復最近傍点アルゴリズムを使用して計算される、側面79に記載のHMD。
第81の側面では、ユーザの眼の正常静止位置は、HMDのレンダリング視点に対応し、正常レンダリング位置を調節するために、ハードウェアプロセッサは、HMDと関連付けられた座標を偏移させ、レンダリング視点の位置を更新するようにプログラムされる、側面77-80のいずれか1項に記載のHMD。
第82の側面では、HMDとユーザの頭部との間の相対的位置は、ユーザの第1の眼に関する第1の相対的位置と、ユーザの第2の眼に関する第2の相対的位置とを含む、側面77-81のいずれか1項に記載のHMD。
第83の側面では、正常静止位置に対して、HMDとユーザの頭部との間の相対的位置は、水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、側面77-82のいずれか1項に記載のHMD。
第84の側面では、方法であって、ハードウェアプロセッサと、コンピュータプロセッサと、仮想オブジェクトをレンダリングするように構成されるディスプレイシステムと、ユーザの顔の眼球周囲部分を結像するように構成される内向きに面した結像システムとを備える、頭部搭載型デバイス(HMD)の制御下で、画像を内向きに面した結像システムから受信するステップと、オブジェクト認識装置によって、画像を分析し、ユーザの眼球周囲特徴を識別するステップと、少なくとも部分的に、眼球周囲特徴に基づいて、HMDとユーザの頭部との間の相対的位置を決定するステップと、相対的位置と閾値条件を比較することによって、フィット感を決定するステップと、HMDに、HMDのディスプレイを調節し、相対的位置を補償するステップと、ユーザにフィット感と関連付けられたインジケーションを提供するステップとのうちの少なくとも1つを実施させるステップとを含む、方法。
第85の側面では、オブジェクト認識装置は、疎密オートエンコーダアルゴリズム、クラスタリングアルゴリズム、深層ニューラルネットワーク、および任意のタイプのニューラルネットワークのうちの少なくとも1つを使用して画像を分析する、側面84に記載の方法。
第86の側面では、相対的位置を決定するステップは、HMDからユーザの眼までの距離を計算するステップ、ユーザの眼間の瞳孔間距離を計算するステップ、HMDとユーザの眼との間の相対的位置を決定するステップ、ユーザの眼の非対称性を決定するステップ、またはHMDの傾斜を決定するステップであって、傾斜は、前方傾斜または側方傾斜のうちの少なくとも1つを含む、ステップのうちの少なくとも1つを含む、側面84-85のいずれか1項に記載の方法。
第87の側面では、本方法はさらに、少なくとも部分的に、HMDとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトのレンダリング場所を調節するステップと、ARディスプレイシステムによって、仮想オブジェクトをレンダリング場所にレンダリングするステップとを含む、側面84-86のいずれか1項に記載の方法。
第88の側面では、仮想オブジェクトのレンダリング場所を調節するステップは、ユーザの眼の正常静止位置と、ユーザの眼の正常静止位置に対応する、仮想オブジェクトの正常レンダリング位置とを決定するステップと、少なくとも部分的に、HMDとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトの正常レンダリング位置に対する調節を計算するステップと、正常レンダリング位置に対する調節に基づいて、仮想オブジェクトのレンダリング場所を決定するステップとを含む、側面87に記載の方法。
第89の側面では、本方法はさらに、画像を分析し、眼姿勢を決定するステップを含み、ユーザの眼の位置は、ディスプレイシステム内のレンダリング視点に対応し、レンダリング場所を調節するステップは、ユーザの眼姿勢に基づいて、レンダリング視点の位置を更新するステップを含む、側面87-88のいずれか1項に記載の方法。
第90の側面では、レンダリング視点の位置を更新するステップは、ディスプレイシステムと関連付けられた座標を偏移させるステップを含む、側面89に記載の方法。
第91の側面では、フィット感を決定するステップは、ユーザの眼球周囲領域の画像にアクセスするステップと、眼球周囲領域の画像とユーザ上のHMDのフィット感との間のマッピングにアクセスするステップと、マッピングを適用し、HMDのフィット感を決定するステップとを含む、側面84-90のいずれか1項に記載の方法。
第92の側面では、フィット感は、良好フィット感、適正フィット感、または不良フィット感のうちの少なくとも1つを含む、側面84-91のいずれか1項に記載の方法。
第93の側面では、フィット感と関連付けられたユーザへのインジケーションは、フィット感の改良に関する命令をユーザに提供するステップと、付加的眼画像にアクセスするステップと、マッピングを付加的眼画像に適用し、更新されたフィット感を決定するステップと、更新されたフィット感が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感を決定するステップとを含む、側面84-92のいずれか1項に記載の方法。
第94の側面では、相対的位置を決定するステップは、第1の画像および第2の画像を内向きに面した結像システムから受信するステップであって、第1の画像および第2の画像は、シーケンスで入手される、ステップと、第1の画像および第2の画像を分析し、第1の画像および第2の画像内の眼球周囲領域のユーザに特有の眼球周囲特徴を識別するステップと、少なくとも部分的に、眼球周囲特徴に基づいて、眼球周囲領域が第1の画像または第2の画像内にあるかどうかを決定するステップと、少なくとも部分的に、第1および第2の画像内の眼球周囲特徴の出現に基づいて、相対的位置を決定するステップとを含み、本方法はさらに、眼球周囲領域が第1の画像または第2の画像のいずれにも存在しないことの決定に応答して、HMDがユーザの頭部から除去されたことのインジケーションを提供するステップと、眼球周囲特徴が第1の画像または第2の画像のいずれかに存在することの決定に応答して、HMDに関する状態の変化を示すステップとを含む、側面84-93のいずれか1項に記載の方法。
第95の側面では、状態の変化を示すステップは、HMDに、電源をオフにさせる、またはバッテリ節約モードに入らせる、側面94に記載の方法。
第96の側面では、眼球周囲特徴が、第1の画像内で識別されるが、第2の画像では識別されないことの決定に応答して、HMDの状態をユーザの頭部上にある状態からユーザの頭部から除去されている状態に変化させ、眼球周囲特徴が、第2の画像内で識別されるが、第1の画像では識別されないことの決定に応答して、HMDの状態をユーザの頭部から除去されている状態からユーザの頭部上にある状態に変化させる、側面94-95のいずれか1項に記載の方法。
第97の側面では、HMDであって、仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される、空間拡張現実(AR)ディスプレイシステムと、HMDとユーザの頭部との間の相対的位置の測定値を記憶するように構成される、非一過性メモリと、非一過性メモリおよび空間ARディスプレイシステムと通信する、ハードウェアプロセッサであって、HMDとユーザの頭部との間の相対的位置の測定値にアクセスし、少なくとも部分的に、HMDとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトの正常レンダリング位置に対する調節を計算し、正常レンダリング位置に対する調節に基づいて、仮想オブジェクトのレンダリング場所を決定し、空間ARディスプレイシステムに、仮想オブジェクトをレンダリング場所にレンダリングするように命令するようにプログラムされる、ハードウェアプロセッサとを備える、HMD。
第98の側面では、HMDとユーザの頭部との間の相対的位置の測定値は、視覚的特徴点を使用して眼球周囲特徴を追跡すること、または顔の領域とユーザの頭部の少なくとも一部をエンコードする稠密マップを合致させることのうちの少なくとも1つを実施することによって計算される、側面97に記載のHMD。
第99の側面では、視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または稠密マップは、反復最近傍点アルゴリズムを使用して計算される、側面98に記載のHMD。
第100の側面では、ハードウェアプロセッサはさらに、HMDのレンダリング視点と関連付けられたユーザの眼の正常静止位置を決定するようにプログラムされ、仮想オブジェクトの正常レンダリング位置は、ユーザの眼の正常静止位置に対応する、側面97-99のいずれか1項に記載のHMD。
第101の側面では、仮想オブジェクトの正常レンダリング位置に対する調節を計算するために、ハードウェアプロセッサは、少なくとも部分的に、HMDとユーザの頭部との間の相対的位置に基づいて、正常静止位置に対する偏移を決定し、少なくとも部分的に、正常静止位置に対する偏移に基づいて、HMDのレンダリング視点と関連付けられた座標を偏移させるようにプログラムされる、側面100に記載のHMD。
第102の側面では、HMDとユーザの頭部との間の相対的位置は、正常静止位置に対する水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、側面101に記載のHMD。
第103の側面では、HMDとユーザの頭部との間の相対的位置は、ユーザの第1の眼に関するHMDとの間の第1の相対的位置と、ユーザの第2の眼に関する第2の相対的位置とを含む、側面97-102のいずれか1項に記載のHMD。
第104の側面では、方法であって、ハードウェアプロセッサと、コンピュータプロセッサと、仮想オブジェクトをレンダリングするように構成されるディスプレイシステムと、ユーザの顔の眼球周囲部分を結像するように構成される内向きに面した結像システムとを備える、HMDの制御下で、画像を内向きに面した結像システムから受信するステップと、オブジェクト認識装置によって、画像を分析し、ユーザの眼球周囲特徴を識別するステップと、少なくとも部分的に、眼球周囲特徴に基づいて、HMDとユーザの頭部との間の相対的位置を決定するステップと、相対的位置と閾値条件を比較することによって、フィット感を決定するステップと、HMDに、HMDのディスプレイを調節し、相対的位置を補償するステップ、またはユーザにフィット感と関連付けられたインジケーションを提供するステップのうちの少なくとも1つを実施させるステップとを含む、方法。
第105の側面では、相対的位置を決定するステップは、HMDからユーザの眼までの距離を計算するステップ、ユーザの眼間の瞳孔間距離を計算するステップ、HMDとユーザの眼との間の相対的位置を決定するステップ、ユーザの眼の非対称性を決定するステップ、またはHMDの傾斜を決定するステップであって、傾斜は、前方傾斜または側方傾斜のうちの少なくとも1つを含む、ステップのうちの少なくとも1つを含む、側面104に記載の方法。
第106の側面では、HMDのディスプレイを調節し、相対的位置を補償するステップは、ユーザの眼の正常静止位置と、ユーザの眼の正常静止位置に対応する、仮想オブジェクトの正常レンダリング位置とを決定するステップと、少なくとも部分的に、HMDとユーザの頭部との間の相対的位置に基づいて、仮想オブジェクトの正常レンダリング位置に対する調節を計算するステップと、正常レンダリング位置に対する調節に基づいて、仮想オブジェクトのレンダリング場所を決定するステップとを含む、側面104-105のいずれか1項に記載の方法。
第107の側面では、フィット感を決定するステップは、ユーザの眼球周囲領域の画像にアクセスするステップと、眼球周囲領域の画像とユーザ上のHMDのフィット感との間のマッピングにアクセスするステップと、マッピングを適用し、HMDのフィット感を決定するステップとを含む、側面104-106のいずれか1項に記載の方法。
第108の側面では、フィット感と関連付けられたユーザへのインジケーションは、フィット感の改良に関する命令をユーザに提供するステップと、付加的眼画像にアクセスするステップと、マッピングを付加的眼画像に適用し、更新されたフィット感を決定するステップと、更新されたフィット感が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感を決定するステップとを含む、側面104-107のいずれか1項に記載の方法。
第109の側面では、相対的位置を決定するステップは、第1の画像および第2の画像を内向きに面した結像システムから受信するステップであって、第1の画像および第2の画像は、シーケンスで入手される、ステップと、第1の画像および第2の画像を分析し、第1の画像および第2の画像内の眼球周囲領域のユーザに特有の眼球周囲特徴を識別するステップと、少なくとも部分的に、眼球周囲特徴に基づいて、眼球周囲領域が第1の画像または第2の画像内にあるかどうかを決定するステップと、少なくとも部分的に、第1および第2の画像内の眼球周囲特徴の出現に基づいて、相対的位置を決定するステップとを含み、本方法はさらに、眼球周囲領域が第1の画像または第2の画像のいずれにも存在しないことの決定に応答して、HMDがユーザの頭部から除去されたことのインジケーションを提供するステップと、眼球周囲特徴が第1の画像または第2の画像のいずれかに存在することの決定に応答して、HMDに関する状態の変化を示すステップとを含む、側面104-109のいずれか1項に記載の方法。
第110の側面では、HMDであって、ユーザの顔の眼球周囲領域を結像するように構成される、内向きに面した結像システムであって、眼球周囲領域の少なくとも第1の画像を入手するように構成され、さらに、第1の画像内で捕捉された眼球周囲領域の一部をマスクするように構成される、内向きに面した結像システムと、画像を内向きに面した結像システムから受信し、オブジェクト認識装置によって、画像を分析し、ユーザの眼球周囲特徴を識別し、少なくとも部分的に、眼球周囲特徴に基づいて、HMDとユーザの頭部との間の相対的位置を決定し、相対的位置と閾値条件を比較することによって、フィット感を決定するようにプログラムされる、ハードウェアプロセッサとを備える、HMD。
第111の側面では、フィット感を決定するために、ハードウェアプロセッサは、ユーザの眼球周囲領域の画像にアクセスし、眼球周囲領域の画像とユーザ上のHMDのフィット感との間のマッピングにアクセスし、マッピングは、機械学習モデルを使用して訓練され、マッピングを適用し、HMDのフィット感を決定するようにプログラムされる、側面110に記載のHMD。
第112の側面では、フィット感は、良好フィット感、適正フィット感、または不良フィット感のうちの少なくとも1つを含む、側面110-111のいずれか1項に記載のHMD。
第113の側面では、ハードウェアプロセッサはさらに、フィット感に基づいて、仮想オブジェクトのレンダリング場所を調節するようにプログラムされる、側面110-112のいずれか1項に記載のHMD。
第114の側面では、ハードウェアプロセッサはさらに、HMDの初期化位相において、ユーザにフィット感に関するインジケーションを提供するようにプログラムされる、側面110-113のいずれか1項に記載のHMD。
第115の側面では、ハードウェアプロセッサはさらに、フィット感の改良に関する命令をユーザに提供し、付加的眼画像にアクセスし、マッピングを付加的眼画像に適用し、更新されたフィット感を決定し、更新されたフィット感が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感を決定するようにプログラムされる、側面114に記載のHMD。
第116の側面では、相対的位置を決定するために、ハードウェアプロセッサは、第1の画像および第2の画像を内向きに面した結像システムから受信し、第1の画像および第2の画像は、シーケンスで入手され、第1の画像および第2の画像を分析し、第1の画像および第2の画像内の眼球周囲領域のユーザに特有の眼球周囲特徴を識別し、少なくとも部分的に、眼球周囲特徴に基づいて、眼球周囲領域が第1の画像または第2の画像内にあるかどうかを決定し、少なくとも部分的に、第1および第2の画像内の眼球周囲特徴の出現に基づいて、相対的位置を決定するようにプログラムされる、側面110-115のいずれか1項に記載のHMD。
(他の考慮点)
本明細書に説明される、ならびに/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/もしくは電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全もしくは部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量もしくは複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、動画またはビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性もしくは不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログもしくはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一もしくは多重化アナログ信号の一部として、または複数の離散デジタルパケットもしくはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的もしくは別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、もしくは機能性は、プロセスにおいて具体的機能(例えば、論理もしくは算術)またはステップを実装するための1つ以上の実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムもしくはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線もしくは無線ネットワーク、または任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装または実施形態に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要もしくは必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/もしくはステップが、1つ以上の実施形態に対していかようにも要求されること、または1つ以上の実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/もしくはステップが任意の特定の実施形態において含まれる、もしくは実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「~を備える」、「~を含む」、「~を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」もしくは「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、ならびにA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、もしくは連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (11)

  1. 方法であって、
    ハードウェアプロセッサと、コンピュータプロセッサと、仮想オブジェクトをレンダリングするように構成されるディスプレイシステムと、ユーザの顔の眼球周囲領域を結像するように構成される内向きに面した結像システムとを備える頭部搭載型デバイス(HMD)の制御下で、
    画像を前記内向きに面した結像システムから受信することと、
    オブジェクト認識装置によって、前記画像を分析し、前記ユーザの眼球周囲特徴を識別することと、
    前記眼球周囲特徴に少なくとも部分的に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置の第1の測定値を決定するように、第1の計算を実施することと、
    前記眼球周囲特徴に少なくとも部分的に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置の第2の測定値を決定するように、前記第1の計算と異なる第2の計算を実施することであって、前記第1の計算を実施することまたは前記第2の計算を実施することは、
    第1の画像および第2の画像を前記内向きに面した結像システムから受信することであって、前記第1の画像および前記第2の画像は、シーケンスで入手される、ことと、
    前記第1または第2の画像の少なくとも1つの部分をマスクして、マスクされた画像を生成することであって、前記少なくとも1つの部分は前記ユーザの顔の眼球周囲部分を含み、前記眼球周囲部分は、前記HMDと前記ユーザの頭部との間のフィット感を決定する際に誤差を導入する可能性のある高度に変動し得る部分である、ことと、
    前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内における前記ユーザの眼球周囲領域に特有の眼球周囲特徴を識別することと、
    前記眼球周囲特徴に少なくとも部分的に基づいて、前記眼球周囲領域が前記第1の画像または前記第2の画像内にあるかどうかを決定することと、
    前記第1および第2の画像内の前記眼球周囲特徴の出現に少なくとも部分的に基づいて、前記相対的位置の前記第1の測定値または前記第2の測定値を決定することと
    を含む、ことと、
    前記第1および第2の測定値に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置を決定することと、
    前記相対的位置と閾値条件を比較することによって、前記フィット感を決定することと、
    前記HMDに、
    前記HMDのディスプレイを調節し、前記相対的位置を補償すること、または
    前記ユーザに前記フィット感と関連付けられたインジケーションを提供すること
    のうちの少なくとも1つを実施させることと、
    前記眼球周囲領域が前記第1の画像または前記第2の画像のいずれにも存在しないことの決定に応答して、前記HMDが前記ユーザの頭部から除去されたことのインジケーションを提供することと、
    前記眼球周囲領域が前記第1の画像または前記第2の画像のいずれかに存在することの決定に応答して、前記HMDに関する状態の変化を示すことと
    を実行することを含む、方法。
  2. 前記第1の計算を実施することまたは前記第2の計算を実施することは、
    前記HMDから前記ユーザの眼までの距離を計算すること、
    前記ユーザの眼間の瞳孔間距離を計算すること、
    前記HMDと前記ユーザの眼との間の相対的位置を決定すること、
    前記ユーザの眼の非対称性を決定すること、または
    前記HMDの傾斜を決定することであって、前記傾斜は、前方傾斜または側方傾斜のうちの少なくとも1つを含む、こと
    のうちの少なくとも1つを含む、請求項1に記載の方法。
  3. 前記HMDのディスプレイを調節し、前記相対的位置を補償することは、
    前記ユーザの眼の正常静止位置と、前記ユーザの眼の正常静止位置に対応する前記仮想オブジェクトの正常レンダリング位置とを決定することと、
    前記HMDと前記ユーザの頭部との間の相対的位置に少なくとも部分的に基づいて、前記仮想オブジェクトの正常レンダリング位置に対する調節を計算することと、
    前記正常レンダリング位置に対する調節に基づいて、前記仮想オブジェクトのレンダリング場所を決定することと
    を含む、請求項1に記載の方法。
  4. 前記フィット感を決定することは、
    前記ユーザの前記眼球周囲領域の画像にアクセスすることと、
    前記眼球周囲領域の画像と前記ユーザ上の前記HMDのフィット感との間のマッピングにアクセスすることと、
    前記マッピングを適用し、前記HMDのフィット感を決定することと
    を含む、請求項1に記載の方法。
  5. 前記フィット感と関連付けられた前記ユーザへのインジケーションは、
    前記フィット感の改良に関する命令を前記ユーザに提供することと、
    前記内向きに面した結像システムからの前記ユーザの前記眼球周囲領域の付加的画像にアクセスすることと、
    前記マッピングを前記付加的画像に適用し、更新されたフィット感を決定することと、
    更新されたフィット感が閾値を超えるまで、前記内向きに面した結像システムからの前記ユーザの前記眼球周囲領域の付加的画像にアクセスし、更新されたフィット感を決定することと
    を含む、請求項に記載の方法。
  6. 頭部搭載型デバイス(HMD)であって、
    ユーザの顔の眼球周囲領域を結像するように構成される内向きに面した結像システムであって、前記内向きに面した結像システムは、前記眼球周囲領域の少なくとも第1の画像を入手するように構成され、前記HMDと前記ユーザの頭部との間のフィット感を決定する際に誤差を導入する可能性のある、前記第1の画像内で捕捉された前記眼球周囲領域の一部をマスクするようにさらに構成される、内向きに面した結像システムと、
    ハードウェアプロセッサであって、
    画像を前記内向きに面した結像システムから受信することと、
    オブジェクト認識装置によって、前記画像を分析し、前記ユーザの眼球周囲特徴を識別することと、
    前記眼球周囲特徴に少なくとも部分的に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置の第1の測定値を決定するように、第1の計算を実施することと、
    前記眼球周囲特徴に少なくとも部分的に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置の第2の測定値を決定するように、前記第1の計算と異なる第2の計算を実施することであって、前記第1の計算を実施するためにまたは前記第2の計算を実施するために、前記ハードウェアプロセッサは、
    第1の画像および第2の画像を前記内向きに面した結像システムから受信することであって、前記第1の画像および前記第2の画像は、シーケンスで入手される、ことと、
    前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内における前記ユーザの前記眼球周囲領域に特有の眼球周囲特徴を識別することと、
    前記眼球周囲特徴に少なくとも部分的に基づいて、前記眼球周囲領域が前記第1の画像または前記第2の画像内にあるかどうかを決定することと、
    前記第1および第2の画像内の前記眼球周囲特徴の出現に少なくとも部分的に基づいて、前記相対的位置の前記第1の測定値または前記第2の測定値を決定することと
    を行うようにプログラムされる、ことと、
    前記眼球周囲特徴に少なくとも部分的に基づいて、前記第1および第2の測定値に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置を決定することと、
    前記相対的位置と閾値条件を比較することによって、前記フィット感を決定することと、
    前記眼球周囲領域が前記第1の画像または前記第2の画像のいずれにも存在しないことの決定に応答して、前記HMDが前記ユーザの頭部から除去されたことのインジケーションを提供することと、
    前記眼球周囲領域が前記第1の画像または前記第2の画像のいずれかに存在することの決定に応答して、前記HMDに関する状態の変化を示すことと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、HMD。
  7. 前記フィット感を決定するために、前記ハードウェアプロセッサは、
    前記ユーザの前記眼球周囲領域の画像にアクセスすることと、
    前記眼球周囲領域の画像と前記ユーザ上の前記HMDのフィット感との間のマッピングにアクセスすることであって、前記マッピングは、機械学習モデルを使用して訓練されたものである、ことと、
    前記マッピングを適用し、前記HMDのフィット感を決定することと
    を行うようにプログラムされる、請求項6に記載のHMD。
  8. 前記フィット感は、良好フィット感、適正フィット感、または不良フィット感のうちの少なくとも1つを含む、請求項6に記載のHMD。
  9. 前記ハードウェアプロセッサは、前記フィット感に基づいて、仮想オブジェクトのレンダリング場所を調節するようにさらにプログラムされる、請求項6に記載のHMD。
  10. 前記ハードウェアプロセッサは、前記HMDの初期化位相において、前記ユーザに前記フィット感に関するインジケーションを提供するようにさらにプログラムされる、請求項6に記載のHMD。
  11. 前記ハードウェアプロセッサは、
    前記フィット感の改良に関する命令を前記ユーザに提供することと、
    前記内向きに面した結像システムからの前記ユーザの前記眼球周囲領域の付加的画像にアクセスすることと、
    前記マッピングを前記付加的画像に適用し、更新されたフィット感を決定することと、
    更新されたフィット感が閾値を超えるまで、前記内向きに面した結像システムからの前記ユーザの前記眼球周囲領域の付加的画像にアクセスし、更新されたフィット感を決定することと
    を行うようにさらにプログラムされる、請求項に記載のHMD。
JP2019517930A 2016-10-05 2017-09-27 複合現実較正のための眼球周囲試験 Active JP7090601B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022034301A JP2022069522A (ja) 2016-10-05 2022-03-07 複合現実較正のための眼球周囲試験

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662404493P 2016-10-05 2016-10-05
US201662404419P 2016-10-05 2016-10-05
US62/404,493 2016-10-05
US62/404,419 2016-10-05
US201662416341P 2016-11-02 2016-11-02
US62/416,341 2016-11-02
PCT/US2017/053753 WO2018067357A2 (en) 2016-10-05 2017-09-27 Periocular test for mixed reality calibration

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022034301A Division JP2022069522A (ja) 2016-10-05 2022-03-07 複合現実較正のための眼球周囲試験

Publications (3)

Publication Number Publication Date
JP2020502849A JP2020502849A (ja) 2020-01-23
JP2020502849A5 JP2020502849A5 (ja) 2021-10-21
JP7090601B2 true JP7090601B2 (ja) 2022-06-24

Family

ID=61757231

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019517930A Active JP7090601B2 (ja) 2016-10-05 2017-09-27 複合現実較正のための眼球周囲試験
JP2022034301A Pending JP2022069522A (ja) 2016-10-05 2022-03-07 複合現実較正のための眼球周囲試験

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022034301A Pending JP2022069522A (ja) 2016-10-05 2022-03-07 複合現実較正のための眼球周囲試験

Country Status (6)

Country Link
US (4) US10573042B2 (ja)
EP (1) EP3523782A4 (ja)
JP (2) JP7090601B2 (ja)
KR (4) KR102402467B1 (ja)
IL (2) IL295059A (ja)
WO (1) WO2018067357A2 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL298018B2 (en) * 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
EP2973532A4 (en) 2013-03-15 2017-01-18 Magic Leap, Inc. Display system and method
US10359806B2 (en) * 2016-03-28 2019-07-23 Sony Interactive Entertainment Inc. Pressure sensing to identify fitness and comfort of virtual reality headset
KR102402467B1 (ko) 2016-10-05 2022-05-25 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
CN106932904A (zh) 2017-02-27 2017-07-07 阿里巴巴集团控股有限公司 虚拟现实头戴设备
CN106873159A (zh) 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 虚拟现实头戴设备
KR102324468B1 (ko) * 2017-03-28 2021-11-10 삼성전자주식회사 얼굴 인증을 위한 장치 및 방법
US10488920B2 (en) * 2017-06-02 2019-11-26 Htc Corporation Immersive headset system and control method thereof
US11138301B1 (en) * 2017-11-20 2021-10-05 Snap Inc. Eye scanner for user identification and security in an eyewear device
EP3740847B1 (en) 2018-01-17 2024-03-13 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
KR20200110367A (ko) 2018-01-17 2020-09-23 매직 립, 인코포레이티드 디스플레이 시스템들에서의 눈 회전 중심 결정, 깊이 평면 선택, 및 렌더 카메라 포지셔닝
US10634913B2 (en) * 2018-01-22 2020-04-28 Symbol Technologies, Llc Systems and methods for task-based adjustable focal distance for heads-up displays
US20210056414A1 (en) * 2018-02-02 2021-02-25 National University Corporation Hokkaido University Learning apparatus, learning method, and program for learning apparatus, as well as information output apparatus, information ouput method, and information output program
US11093208B2 (en) 2018-02-16 2021-08-17 Valve Corporation Using detected pupil location to align optical components of a head-mounted display
US10586344B2 (en) * 2018-02-21 2020-03-10 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for feature screening in SLAM
US10948983B2 (en) * 2018-03-21 2021-03-16 Samsung Electronics Co., Ltd. System and method for utilizing gaze tracking and focal point tracking
US10491890B1 (en) * 2018-05-14 2019-11-26 Dell Products L.P. Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays
CN110488489B (zh) * 2018-05-15 2022-10-11 苹果公司 用于头戴式壳体的眼睛登记
US10846923B2 (en) * 2018-05-24 2020-11-24 Microsoft Technology Licensing, Llc Fusion of depth images into global volumes
CN108732764B (zh) * 2018-06-06 2024-05-31 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
WO2019246044A1 (en) 2018-06-18 2019-12-26 Magic Leap, Inc. Head-mounted display systems with power saving functionality
US10867164B2 (en) * 2018-06-29 2020-12-15 Intel Corporation Methods and apparatus for real-time interactive anamorphosis projection via face detection and tracking
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
CN112655204A (zh) * 2018-07-24 2021-04-13 奇跃公司 用于确定左显示器和右显示器与用户眼睛之间的垂直对准的显示系统和方法
US10823970B2 (en) 2018-08-23 2020-11-03 Apple Inc. Head-mounted electronic display device with lens position sensing
CN109344714B (zh) * 2018-08-31 2022-03-15 电子科技大学 一种基于关键点匹配的视线估计方法
JP7093418B2 (ja) * 2018-09-20 2022-06-29 富士フイルム株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
CN109558665B (zh) * 2018-11-22 2023-01-10 杭州美戴科技有限公司 一种个性化柔性鼻托的自动设计方法
CN109756723B (zh) * 2018-12-14 2021-06-11 深圳前海达闼云端智能科技有限公司 获取影像的方法和装置,存储介质和电子设备
CN113287083A (zh) 2019-01-21 2021-08-20 索尼高级视觉传感股份公司 透明智能手机
WO2020154524A1 (en) 2019-01-25 2020-07-30 Magic Leap, Inc. Eye-tracking using images having different exposure times
US11099394B2 (en) * 2019-02-26 2021-08-24 Google Llc Systems, devices, and methods for aligning a diffractive element in a wearable heads-up display
DE102019107001A1 (de) * 2019-03-19 2020-09-24 OSRAM CONTINENTAL GmbH Optische Vorrichtung, Anordnung, Fahrzeug und Verfahren
CN113785258A (zh) 2019-03-22 2021-12-10 惠普发展公司,有限责任合伙企业 检测眼睛测量
WO2020209491A1 (en) * 2019-04-11 2020-10-15 Samsung Electronics Co., Ltd. Head-mounted display device and operating method of the same
CN114127610A (zh) 2019-05-20 2022-03-01 奇跃公司 用于估计眼睛姿势的系统和技术
US11749018B1 (en) 2019-05-28 2023-09-05 Apple Inc. Eye enrollment for head-mounted enclosure
CN112233212A (zh) * 2019-06-28 2021-01-15 微软技术许可有限责任公司 人像编辑与合成
EP3786767B1 (en) * 2019-07-29 2023-11-08 HTC Corporation Eye tracking method, head-mounted display, and computer readable storage medium
CN110688002B (zh) * 2019-09-06 2023-12-19 广东虚拟现实科技有限公司 虚拟内容的调整方法、装置、终端设备及存储介质
SE1951103A1 (en) 2019-09-30 2020-12-15 Tobii Ab Methods and systems for a head-mounted device for updating an eye tracking model
US11228745B2 (en) * 2019-11-26 2022-01-18 Varjo Technologies Oy Display apparatus and method of correcting image distortion therefor
US11269181B2 (en) 2019-12-09 2022-03-08 Magic Leap, Inc. Systems and methods for operating a head-mounted display system based on user identity
US11127380B2 (en) 2019-12-13 2021-09-21 Qualcomm Incorporated Content stabilization for head-mounted displays
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US11580657B2 (en) 2020-03-30 2023-02-14 Snap Inc. Depth estimation using biometric data
IL299775A (en) 2020-07-15 2023-03-01 Magic Leap Inc Eye tracking using an aspheric cornea model
US11379957B1 (en) * 2021-02-23 2022-07-05 Qualcomm Incorporated Head wearable display device calibrated for distortion correction using inter-pupillary distance
US12008157B2 (en) * 2021-03-01 2024-06-11 Qualcomm Incorporated Movement detection of a head mounted device
GB2606346B (en) * 2021-04-28 2023-10-25 Sony Interactive Entertainment Inc System and method of head mounted display personalisation
US11868523B2 (en) 2021-07-01 2024-01-09 Google Llc Eye gaze classification
US11740322B2 (en) * 2021-09-10 2023-08-29 Htc Corporation Head mounted display device and position device thereof
KR102409188B1 (ko) * 2021-11-09 2022-06-15 주식회사 아진엑스텍 증강현실 영상 출력 제어 방법 및 장치
US11722655B2 (en) * 2021-11-30 2023-08-08 SoliDDD Corp. Low latency networking of plenoptic data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172719A1 (ja) 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US20140375542A1 (en) 2013-06-25 2014-12-25 Steve Robbins Adjusting a near-eye display device
JP2016526237A (ja) 2013-06-07 2016-09-01 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング

Family Cites Families (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
JPH09193803A (ja) * 1996-01-19 1997-07-29 Furukawa Electric Co Ltd:The プラットホーム付近の安全監視方法
US5844656A (en) 1996-11-07 1998-12-01 Xybernaut Corporation Head mounted display with adjustment components
EP1039417B1 (en) 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
US7312766B1 (en) 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
US7255437B2 (en) 2003-10-09 2007-08-14 Howell Thomas A Eyeglasses with activity monitoring
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
JP4379409B2 (ja) * 2005-11-08 2009-12-09 ソニー株式会社 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
US8066372B2 (en) 2007-10-23 2011-11-29 Mcgill University Binocular vision assessment and/or therapy
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
AU2011348122A1 (en) 2010-12-24 2013-07-11 Magic Leap Inc. An ergonomic head mounted display device and optical system
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CA3035118C (en) 2011-05-06 2022-01-04 Magic Leap, Inc. Massive simultaneous remote digital presence world
US8184067B1 (en) 2011-07-20 2012-05-22 Google Inc. Nose bridge sensor
JP6144681B2 (ja) 2011-08-30 2017-06-07 マイクロソフト テクノロジー ライセンシング,エルエルシー 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ
US9025252B2 (en) 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
WO2013049861A1 (en) 2011-09-29 2013-04-04 Magic Leap, Inc. Tactile glove for human-computer interaction
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
RU2621633C2 (ru) 2011-10-28 2017-06-06 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
KR102440195B1 (ko) 2011-11-23 2022-09-02 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
CN103339926A (zh) 2011-11-24 2013-10-02 株式会社Ntt都科摩 表情输出装置和表情输出方法
JP6028357B2 (ja) 2012-03-22 2016-11-16 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
KR102022719B1 (ko) 2012-04-05 2019-11-05 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US9001427B2 (en) 2012-05-30 2015-04-07 Microsoft Technology Licensing, Llc Customized head-mounted display device
AU2013274359B2 (en) 2012-06-11 2017-05-25 Magic Leap, Inc. Multiple depth plane three-dimensional display using a wave guide reflector array projector
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US20130339433A1 (en) * 2012-06-15 2013-12-19 Duke University Method and apparatus for content rating using reaction sensing
CN104813218A (zh) 2012-09-11 2015-07-29 奇跃公司 人机工程学的头戴显示设备和光学系统
JP2014064248A (ja) 2012-09-24 2014-04-10 Ntt Docomo Inc 画像投影装置及び画像投影方法
US8860634B2 (en) * 2012-10-11 2014-10-14 Sony Computer Entertainment Europe Limited Head mountable display
US9996150B2 (en) 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
KR102274413B1 (ko) 2013-01-15 2021-07-07 매직 립, 인코포레이티드 초고해상도 스캐닝 섬유 디스플레이
IL298018B2 (en) 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
EP2973532A4 (en) 2013-03-15 2017-01-18 Magic Leap, Inc. Display system and method
US9264803B1 (en) * 2013-06-05 2016-02-16 Google Inc. Using sounds for determining a worn state of a wearable computing device
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US20140375540A1 (en) 2013-06-24 2014-12-25 Nathan Ackerman System for optimal eye fit of headset display device
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
JP6286781B2 (ja) 2013-06-27 2018-03-07 シーワイ・ビジョン・インコーポレイテッドCy Vision Inc. 眼鏡型画像表示装置
US10345903B2 (en) 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
KR102270674B1 (ko) 2013-09-30 2021-07-01 삼성전자주식회사 생체인식 카메라
IL295157B2 (en) 2013-10-16 2023-10-01 Magic Leap Inc An augmented or virtual reality head device with intrapupillary distance adjustment
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
AU2014354673B2 (en) 2013-11-27 2019-04-11 Magic Leap, Inc. Virtual and augmented reality systems and methods
US8958158B1 (en) * 2013-12-03 2015-02-17 Google Inc. On-head detection for head-mounted display
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
CA3089749A1 (en) 2014-01-31 2015-08-06 Magic Leap, Inc. Multi-focal display system and method
JP6509883B2 (ja) 2014-01-31 2019-05-08 マジック リープ, インコーポレイテッドMagic Leap,Inc. 多焦点表示システムおよび方法
US10228562B2 (en) * 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
CN106133752B (zh) * 2014-02-25 2019-08-30 眼验股份有限公司 眼睛注视跟踪
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10430985B2 (en) 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US9754415B2 (en) 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
US9652893B2 (en) 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
US9672416B2 (en) 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
KR102173699B1 (ko) 2014-05-09 2020-11-03 아이플루언스, 인크. 안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들
WO2015184413A1 (en) 2014-05-30 2015-12-03 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
US9830739B2 (en) * 2014-06-17 2017-11-28 Google Inc. Automultiscopic display with viewpoint tracking and scalability for multiple views
KR102361025B1 (ko) * 2014-07-31 2022-02-08 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
US9719871B2 (en) * 2014-08-09 2017-08-01 Google Inc. Detecting a state of a wearable device
US9389733B2 (en) * 2014-08-18 2016-07-12 Sony Corporation Modal body touch using ultrasound
US9922236B2 (en) * 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
US9808185B2 (en) * 2014-09-23 2017-11-07 Fitbit, Inc. Movement measure generation in a wearable electronic device
GB2534580B (en) 2015-01-28 2020-06-17 Sony Interactive Entertainment Europe Ltd Image processing
JP2016149660A (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
CN108292040B (zh) * 2015-09-30 2020-11-06 索尼互动娱乐股份有限公司 优化头戴式显示器屏幕上的内容定位的方法
US9652896B1 (en) * 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
KR20170051013A (ko) 2015-11-02 2017-05-11 엘지전자 주식회사 테더링 형 hmd 및 그 hmd의 제어 방법
KR102592980B1 (ko) 2015-11-04 2023-10-20 매직 립, 인코포레이티드 광 필드 디스플레이 계측
KR20230134159A (ko) 2016-01-07 2023-09-20 매직 립, 인코포레이티드 깊이 평면들에 걸쳐 분포된 동일하지 않은 수의 컴포넌트 컬러 이미지들을 갖는 가상 및 증강 현실 시스템들 및 방법들
KR102567431B1 (ko) 2016-01-19 2023-08-14 매직 립, 인코포레이티드 눈 이미지 수집, 선택 및 결합
JP6775957B2 (ja) * 2016-01-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
NZ744822A (en) 2016-02-11 2020-01-31 Magic Leap Inc Multi-depth plane display system with reduced switching between depth planes
US10133358B1 (en) * 2016-06-01 2018-11-20 Google Llc Fitting detection for a bone conduction transducer (BCT) using an inertial measurement unit (IMU) sensor
US10139644B2 (en) 2016-07-01 2018-11-27 Tilt Five, Inc Head mounted projection display with multilayer beam splitter and color correction
KR102402467B1 (ko) 2016-10-05 2022-05-25 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
US11494986B2 (en) 2017-04-20 2022-11-08 Samsung Electronics Co., Ltd. System and method for two dimensional application usage in three dimensional virtual reality environment
EP3740847B1 (en) 2018-01-17 2024-03-13 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172719A1 (ja) 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
JP2016526237A (ja) 2013-06-07 2016-09-01 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング
US20140375542A1 (en) 2013-06-25 2014-12-25 Steve Robbins Adjusting a near-eye display device

Also Published As

Publication number Publication date
EP3523782A2 (en) 2019-08-14
KR20210077806A (ko) 2021-06-25
KR20190058581A (ko) 2019-05-29
US11100692B2 (en) 2021-08-24
IL265734B (en) 2022-09-01
US11906742B2 (en) 2024-02-20
WO2018067357A3 (en) 2019-05-23
IL295059A (en) 2022-09-01
US20220020192A1 (en) 2022-01-20
KR20220072879A (ko) 2022-06-02
US10573042B2 (en) 2020-02-25
JP2022069522A (ja) 2022-05-11
JP2020502849A (ja) 2020-01-23
IL265734A (en) 2019-05-30
US20200250872A1 (en) 2020-08-06
US20240134200A1 (en) 2024-04-25
KR102657100B1 (ko) 2024-04-12
KR102402467B1 (ko) 2022-05-25
WO2018067357A2 (en) 2018-04-12
KR20240052085A (ko) 2024-04-22
KR102269065B1 (ko) 2021-06-24
EP3523782A4 (en) 2020-06-24
US20180096503A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
JP7090601B2 (ja) 複合現実較正のための眼球周囲試験
JP7378431B2 (ja) フレーム変調機能性を伴う拡張現実ディスプレイ
JP7186844B2 (ja) ウェアラブルデバイスによる顔モデル捕捉
JP6913164B2 (ja) 完全な顔画像の眼球周囲およびオーディオ合成
US11906732B2 (en) Head-mounted display systems with power saving functionality
JP7502292B2 (ja) アバタ移動のためのマルチモードの手の場所および配向
JP2021532464A (ja) 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
US20240027794A1 (en) Virtual object movement speed curve for virtual and augmented reality display systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200924

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210408

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210707

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20210908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220307

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220316

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220614

R150 Certificate of patent or registration of utility model

Ref document number: 7090601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150