JP7483099B2 - ヘッドマウントディスプレイ及びその顔インタフェース - Google Patents

ヘッドマウントディスプレイ及びその顔インタフェース Download PDF

Info

Publication number
JP7483099B2
JP7483099B2 JP2023079233A JP2023079233A JP7483099B2 JP 7483099 B2 JP7483099 B2 JP 7483099B2 JP 2023079233 A JP2023079233 A JP 2023079233A JP 2023079233 A JP2023079233 A JP 2023079233A JP 7483099 B2 JP7483099 B2 JP 7483099B2
Authority
JP
Japan
Prior art keywords
user
display unit
facial interface
head mounted
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023079233A
Other languages
English (en)
Other versions
JP2023109859A (ja
Inventor
ダスティン エー ハットフィールド
ダニエル エム ストロングウォーター
クリスティ イー バウアーリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2023109859A publication Critical patent/JP2023109859A/ja
Priority to JP2024073735A priority Critical patent/JP2024109611A/ja
Application granted granted Critical
Publication of JP7483099B2 publication Critical patent/JP7483099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0152Head-up displays characterised by mechanical features involving arrangement aiming to get lighter or better balanced devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、ディスプレイシステム、具体的には、ヘッドマウントディスプレイユニット及びその顔インタフェースに関する。
(関連出願の相互参照)
本出願は、2019年1月17日に出願された米国仮出願第62/793,479号に対する優先権及びその利益を主張する。前述の出願の内容は、参照により、その全体があらゆる目的で本明細書に組み込まれる。
ヘッドマウントディスプレイは、ユーザの頭部に装着可能なディスプレイシステムである。ヘッドマウントディスプレイは、一般に、ディスプレイと、頭部支持体と、顔インタフェースとを含む。ディスプレイは、グラフィクスを表示するためのディスプレイスクリーンを含む。頭部支持体は、ディスプレイに結合され、ユーザの頭部に係合してディスプレイをその上に支持する。顔インタフェースは、ディスプレイに結合され、ユーザの顔に係合してディスプレイをその上に支持する。顔インタフェースは、特に長期間装着されたときのユーザの快適性、及びユーザの頭部上におけるヘッドマウントディスプレイの安定性に影響を及ぼし得る。
本明細書では、ヘッドマウントディスプレイ及びその顔インタフェースの実装形態が開示されている。
1つの実装形態では、ヘッドマウントディスプレイは、ディスプレイユニットと顔インタフェースとを含む。ディスプレイユニットは、ユーザにグラフィカルコンテンツを表示するためのディスプレイを含む。顔インタフェースは、ディスプレイユニットに結合され、ユーザの顔に係合してディスプレイユニットをその上に支持するように構成されている。顔インタフェースは、ユーザの額に係合する上部と、ユーザのこめかみ領域に係合する側部とを含む。顔インタフェースは、額によって上部に加えられる前方力を、側部によってこめかみ領域に加えられる内側力に変換する。
顔インタフェースは、上部を形成する上部セグメントと、側部を形成する2つの側部セグメントとを有する力分配器を含んでもよく、上部セグメントの前方動作が、側部セグメントの内側動作を引き起こす。ディスプレイユニット及び顔インタフェースは、ユーザの眼から環境光を遮断するように協働的に構成されてもよい。顔インタフェースは、側部のうちの1つとディスプレイユニットとの間で選択的に力を伝送する横方向スタビライザを含んでもよい。
1つの実装形態では、ヘッドマウントディスプレイは、ディスプレイユニットと顔インタフェースとを含む。ディスプレイユニットは、ユーザにグラフィカルコンテンツを表示するためのディスプレイを含む。顔インタフェースは、ディスプレイユニットに結合され、ユーザの顔に係合してディスプレイユニットをその上に支持するように構成されている。顔インタフェースは、側部と横方向スタビライザとを含む。側部は、ユーザの顔の対向する両側に係合する。横方向スタビライザは、側部によってユーザの顔の両側に加えられる内側力を変更するために選択的に作動される。
横方向スタビライザは、ディスプレイユニットの動作状態を感知すると選択的に作動され得る。ディスプレイユニット及び顔インタフェースは、ユーザの眼から環境光を遮断するように協働的に構成されている。
1つの実装形態では、ヘッドマウントディスプレイは、ディスプレイユニットと顔インタフェースとを含む。ディスプレイユニットは、ユーザにグラフィカルコンテンツを表示するためのディスプレイを含む。顔インタフェースは、ディスプレイユニットに結合され、ユーザの顔に係合してディスプレイユニットをその上に支持するように構成されている。顔インタフェースは、上部係合構造体と下部係合構造体とを含む。ユーザの顔の額に係合するとき、上部係合構造体は、ディスプレイユニットに対して固定的に配置され、それらの間の動作が防止されている。ユーザの顔の下部顔構造に係合するとき、下部係合構造体は、ディスプレイユニットに対して動作可能に配置され、それらの間の動作が可能にされている。
図面において、破線は、一般に、異なる状態で示される隠れた構成要素(単数又は複数)を表す。一点鎖線は、一般に、ユーザを表す。
ユーザの頭部上に装着されたヘッドマウントディスプレイの側面図である。 図1Aのヘッドマウントディスプレイの部分上面図である。 図1Aのヘッドマウントディスプレイの背面図である。 顔インタフェースがそのディスプレイユニットから分離された、図1Aのヘッドマウントディスプレイの変形例の上面図である。 頭部支持体がその顔インタフェースに結合されている、図1Aのヘッドマウントディスプレイユニットの別の変形例の上面図である。 図1Aのヘッドマウントディスプレイの電子構成要素の概略図である。 図2のコントローラの例示的なハードウェア構成の概略図である。 図1Aのヘッドマウントディスプレイの第1の状態(実線)及び第2の状態(破線)における、その顔インタフェースの実施形態を示す上面図である。 ユーザの頭部が第2の状態の顔インタフェースに係合している、図4Aのヘッドマウントディスプレイの上面図である。 図4Aの顔インタフェースの力分配器の実施形態を備えたヘッドマウントディスプレイの背面図である。 第1の状態において図5Aの線5B-5Bに沿って切り取られたヘッドマウントディスプレイの断面図である。 第2の状態において図5Aの線5C-5Cに沿って切り取られたヘッドマウントディスプレイの断面図である。 図5Aの力分配器の変形例を有するヘッドマウントディスプレイの第2の状態における断面図である。 図4Aの顔インタフェースを作動させる方法のフローチャートである。 図4Aの顔インタフェースの力分配器の別の実施形態を備えたヘッドマウントディスプレイの第1の状態における断面図である。 図6Aの力分配器を備えたヘッドマウントディスプレイの第2の状態における断面図である。 顔インタフェースの別の実施形態を備えたヘッドマウントディスプレイの第1の状態における力分配器を示す断面図である。 図7Aの顔インタフェースを備えたヘッドマウントディスプレイの第2の状態における断面図である。 顔インタフェースの別の実施形態を備えたヘッドマウントディスプレイの背面図である。 力分配器の第1の実施例を備えた図8Aの顔インタフェースの背面図である。 図8の顔インタフェース用の力分配器の第2の実施例の上面図である。 図8の顔インタフェース用の力分配器の第3の実施例の上面図である。 図8の顔インタフェース用の力分配器の第4の実施例の上面図である。 図8の顔インタフェース用の力分配器の第5の実施例の上面図である。 顔インタフェースの別の実施形態を備えたヘッドマウントディスプレイの背面図である。 線9B-9Bに沿って切り取られた図9Aのヘッドマウントディスプレイの第1の構成における断面図である。 線9C-9Cに沿って切り取られた図9Aのヘッドマウントディスプレイの第2の構成における断面図である。
本明細書では、ヘッドマウントディスプレイ及びそのための顔インタフェースが開示されている。本明細書に開示される顔インタフェースは、ユーザに快適性を提供するため、かつ/又はユーザの顔の上でヘッドマウントディスプレイを安定させるために、様々に異なる方法で構成されている。顔インタフェースは、更に、ユーザの眼から周囲光を遮断するように構成されてもよい。
図1A及び図1Bを参照すると、ヘッドマウントディスプレイ100(HMD)は、ユーザの頭部Hに装着され、(以下で更に詳細に論じられる)コンピュータ生成現実環境のグラフィカルコンテンツなどのグラフィカルコンテンツをそれに表示するように構成されている。ヘッドマウントディスプレイ100は、一般に、ディスプレイユニット110と、頭部支持体120と、顔インタフェース130とを含む。ディスプレイユニット110は、ユーザにグラフィカルコンテンツを表示する。頭部支持体は、ディスプレイユニット110に結合され、ユーザの頭部Hに係合してディスプレイユニット110をその上に支持する。頭部支持体120は、一般に、ユーザの頭部Hを囲んで延び、ユーザの頭部Hの側面及び背面に係合する。顔インタフェース130は、ディスプレイユニット110に結合されており、ユーザの顔とディスプレイユニット110との間に配置され、ユーザの顔に係合してディスプレイユニット110をその上に支持する。ユーザの顔は、一般に、少なくともユーザの眉、眼、鼻、及び頬を含む頭部Hの前部と見なされる。
ディスプレイユニット110は、一般に、1つ以上のディスプレイ112とシャーシ114とを含む。図示されるように、ディスプレイユニット110は、シャーシ114に結合され、かつシャーシ114によって支持される2つのディスプレイ112(すなわち、各眼に対してディスプレイ112のうちの1つ)を含み、又は代わりに1つのディスプレイ112を含んでもよい。ディスプレイ112には、例えば、好適なタイプのディスプレイパネル(例えば、液晶ディスプレイ(LCD)、有機発光ダイオードディスプレイ(OLED)、又はマイクロOLEDディスプレイ)が含まれる。ディスプレイ112及びシャーシ114の他の構成は、例えば、シャーシ114に取り外し可能に結合可能な、スマートフォンである1つのディスプレイを含むものなどが想到される。
シャーシ114は、ディスプレイ112をユーザの眼Eに対して適切な位置に支持する一次構造体を形成する。シャーシ114は、例えば、内部フレーム114aと外側ハウジング114bとを含んでもよい。内部フレーム114aは、ディスプレイ112に結合され、かつディスプレイ112を支持する。外側ハウジング114bは、例えば、内部フレーム114a及びディスプレイ112を非ユーザ(すなわち、ヘッドマウントディスプレイ100を現在装着していない人)の視界から隠し得るハウジング(例えば、カバー)を形成する。シャーシ114(例えば、外側ハウジング114b)はまた、(例えば、環境からの)周囲光がユーザの眼Eに到達するのを遮断するように機能してもよい。シャーシ114はまた、ベース又はハウジングと呼ばれてもよい。
ディスプレイユニット110はまた、レンズ116又は他の光学構成要素、及び他の電子構成要素118を含んでもよい。1つ以上のレンズ116は、シャーシ114に結合され、かつディスプレイ112のそれぞれとユーザの眼Eとの間に配置されて、ディスプレイ112から放出された光をユーザの眼Eに屈折させる。ディスプレイ112は、レンズ116を通して見ることができるが、図1B及び図1Cに破線で示されているように、それ以外には、一般に視界から隠されてもよい。例えば、ディスプレイ112は、外側ハウジング114bによって覆われてもよく、レンズ116を取り囲む(図1Cではラベル付けされていない)カーテンの背後に隠されてもよい。他の電子構成要素118について、図2及び図3を参照して以下に説明する。
頭部支持体120は、ディスプレイユニット110に結合されて、ユーザの頭部H上にディスプレイユニット110を支持する。例えば、頭部支持体120は、シャーシ114の対向する両側(例えば、左側及び右側)に結合され、かつユーザの頭部Hの側面を囲んで延びる1つ以上のバンド(例えば、ストラップ)を含んでもよい。頭部支持体120は、ユーザの頭部Hの頂部を(例えば、前後にかつ/又は左右に)覆って延びる1つ以上のバンド(例えば、ストラップ)を更に含んでもよい。頭部支持体120は、サイズ調節可能であってもよく、それにより、例えば、バンド又は他の構造体を弾性により、かつ/又は機械的に拡張することを含め、ユーザの頭部Hの異なるサイズ及び/又は形状に対応する。
顔インタフェース130は、ヘッドマウントディスプレイ100がユーザによって装着されると、ディスプレイユニット110のシャーシ114とユーザの顔との間に概ね配置されるように構成されている。顔インタフェース130は、ユーザの顔に係合して、ディスプレイユニット110をその上に支持する。顔インタフェース130は、例えば、ユーザにグラフィカルコンテンツを表示するための好適な水平、垂直、及び長手方向の距離及び角度で、ユーザの顔の上にディスプレイユニット110を支持する。顔インタフェース130は、ユーザの眼Eから環境光を遮断し、ユーザの顔構造に快適に係合し、かつ/又はヘッドマウントディスプレイ100をユーザの顔の上に安定させ若しくは固定するように更に構成されてもよい。顔インタフェース130は、以下で更に詳細に論じられるように、ディスプレイユニット110及び/又は頭部支持体120によって形成されてもよく、さもなければそれらの一部と見なされてもよい。顔インタフェース130はまた、顔係合システム、顔係合機構、又は光シールと呼ばれてもよい。
図1Cに示されるように、顔インタフェース130は、ユーザの両眼Eを連続して囲んで延び、それによって実質的にユーザの顔を連続して囲んで係合し、環境光を遮断する。顔インタフェース130は、一般に、上部130a、側部130b、及び下部130cを含むと見なされ得る。顔インタフェース130の上部130aは、ユーザの眼Eの上に延び、ユーザの額に係合する。顔インタフェース130の側部130bは、ユーザの眼Eを囲んで上部130aから下向きに延び、ユーザの顔の対向する両側(例えば、こめかみ領域)に係合する。側部130bはまた、フランジと呼ばれてもよい。こめかみ領域は、一般に、眼Eからユーザの耳まで後方に延びる顔又は頭部の領域と見なされる。顔インタフェース130の下部130cは、ユーザの眼Eの下において側部130bの間を延びて、ユーザの顔の頬領域に係合し、ユーザの鼻と更に係合してもよい。他の実施形態では、130は、ユーザの眼Eを部分的に囲んで延びてもよく(例えば、ユーザの鼻において連続せずに)、他の変形例のうち、ユーザの眼Eの眼の上にのみ延び(例えば、上部130aのみを有し)、又は側部130bを省略してもよい。
図1Dに示されるように、顔インタフェース130は、例えば、クリップ、磁石、又はフックアンドループファスナなどの機械的ファスナ142を用いて、ディスプレイユニット110に取り外し可能に結合可能であってもよい。図1Eに示されるように、頭部支持体120は、ディスプレイユニット110のシャーシ114の対向する両側に結合する代わりに、又はそれに加えて、顔インタフェース130の対向する両側に結合することができる。例えば、図示されるように、頭部支持体120は、顔インタフェース130を介してディスプレイユニット110に結合される。
顔インタフェース130の様々な実施形態について、図4A~図4Bを最初に参照して以下で更に詳細に論じる。
図2を参照すると、ディスプレイ112及び他の電子構成要素118を含むディスプレイユニット110の例示的な電子構成要素の概略図が示されている。ディスプレイユニット110の他の電子構成要素118は、コントローラ218a、電力電子機器218b、センサ218c、出力デバイス218d、及び通信デバイス218eを含み得る。コントローラ218aは、命令(例えば、ソフトウェアプログラミング)を実行すること、様々な電子構成要素から信号を受信すること、及び/又はそれらに信号を送信することによって、ヘッドマウントディスプレイ100を作動させる。コントローラ218aのハードウェア概略の一例を図3に示し、これに関して以下に説明する。電源電子機器218bには、例えば、電力貯蔵デバイス(例えば、バッテリ)、電力伝送デバイス(例えば、プラグ、レセプタクル、若しくは無線充電コイル)、及び/又は(例えば、ディスプレイユニット110の様々な電子機器に電力を供給するのに好適な方法で電力を調整するための)電力調整デバイスを含み得る。センサ218cには、ヘッドマウントディスプレイ100の状態を測定するため(例えば、位置及び/又は動作(例えば、全地球測位システム(GPS)、ジャイロスコープ、加速度計、磁力計、慣性測定ユニット(IMU))、ユーザの状態を測定するため(例えば、力、圧力、顔の動作、眼の動作、温度、音、及び様々なバイオメトリクス(例えば、心拍数、血圧、脳波(EEG)、心電図(ECG))、並びに環境の状態(例えば、音、光、温度、気圧、湿度)のためのセンサを含み得る。出力デバイス218dには、例えば、音声出力デバイス(例えば、スピーカ)、及び/又は触知出力デバイス(例えば、触覚デバイス)を含み得る。通信デバイス218eには、例えば、(例えば、Bluetooth、Wi-Fi、又はセルラ通信用の)好適な無線通信プロトコルを介して他のデバイスと通信している無線通信デバイスを含み得る。他のデバイスには、ユーザに関連付けられた他の電子デバイス(例えば、スマートフォン及び/又はウェアラブルデバイス(例えば、スマートウォッチ))を含み得る。
(図1Bに概略的に示された)他の電子構成要素118がまた、シャーシ114(例えば、概略的に示されている内部シャーシ構造体114b)に結合されてもよく、視界から(例えば、外側ハウジング114bによって隠されて)隠されてもよい。他の電子構成要素118は、その他に、頭部支持体120及び/又は顔インタフェース130に結合されてもよい。
図3の概略図を参照すると、コントローラ218aの例示的なハードウェア構成が示されている。コントローラ218aは、本明細書に記載されるデバイス及び方法を実施するように構成されている。コントローラ218aは、プロセッサ320、メモリ322、記憶装置324、通信インタフェース326、及び/又はバス328を含み得る、任意の好適なコンピューティングデバイスであってもよい。プロセッサ320は、中央処理装置(CPU)などの任意の好適なプロセッサであってもよい。メモリ322は、揮発性メモリモジュール(例えば、ランダムアクセスメモリ(RAM))などの好適な短期記憶デバイスである。記憶装置324は、不揮発性メモリ記憶デバイス(例えば、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD))などの長期記憶デバイスである。記憶装置324は、本明細書に記載されるデバイス及び方法を実施するためにコントローラ218aによって実行される命令を有するソフトウェアプログラミングを記憶するコンピュータ可読媒体を形成し得る。通信インタフェース326は、コントローラ218aから信号を送信及び/又は受信するように構成されている。プロセッサ320、メモリ322、記憶装置324、及び通信インタフェース326は、バス328を介して互いに通信している。プロセッサ320は、通信インタフェース326を介して様々な電子構成要素に信号を送信することによって、かつ/又は様々な電子構成要素(例えば、センサ218c、通信デバイス218e)に従い、通信インタフェース326を介して信号を受信することによって、例えば、記憶装置324によって記憶されたソフトウェアプログラミング(例えば、コード)を実行して、様々な電子構成要素(例えば、ディスプレイ112、出力デバイス218d)の出力を制御することができる。
図4A~図9Cを参照して、顔インタフェース130の様々な実施形態(例えば、430、530、630、730、830、及び930)について、以下で更に詳細に論じる。共通の参照番号が、共通の要素を反映するために、顔インタフェースの異なる実施形態にわたって使用され得る。例えば、顔インタフェース130の様々な実施形態はそれぞれ、上部130a、側部130b、及び下部130cを含み得る。
図4A~図4Bに示されるように、顔インタフェース430は、頭部Hによってそこに加えられた前方力Fforwardを、そこから頭部Hの他の部分に加えられる内側力Finwardに変換するとともに、顔インタフェース430の前方動作を、頭部Hとの係合のために内側動作に変換するように構成されている。このようにして、顔インタフェース430は、非装着状態(図4A中の実線)から装着状態(図4Aの破線、図4Bの実線)に変化して、ユーザの顔の形状に適合するように追従する。
前方力Fforwardは、ユーザの額と顔インタフェース430の上部130aとの間で加えられる。前方力Fforwardは、その前方変位を引き起こし得る。前方力Fforward、又はその一部分はまた、ユーザの下部顔特徴部(例えば、頬及び/又は鼻)と、顔インタフェース430の下部130cとの間にも加えられ得て、その前方変位を引き起こし得る。前方力Fforwardは、例えば、ユーザの頭部Hを囲んで延びる頭部支持体120における張力Tsupportの結果であり得る。
顔インタフェース430の上部130a及び/又は下部130cに加えられる前方力Fforwardは、顔インタフェース430の側部130bに、ユーザの顔の対向する両側(例えば、左及び右のこめかみ領域)に対する、内側力Finward又はその一部の印加を生じさせる。同様に、顔インタフェース430の上部130a及び/又は下部130cの前方変位は、側部130bを内側に移動させ、ユーザの頭部Hの側部への係合を引き起こす。顔インタフェース430とユーザの顔との間のこの接触(すなわち、力伝送及び係合)は、力をユーザの顔にわたって分配し(例えば、ユーザの快適性のため)、ヘッドマウントディスプレイ100をその上に安定させ、またユーザの眼Eから環境光を遮断し得る。
顔インタフェース430は、外側カバー432を含んでもよい。外側カバー432は、ユーザの顔に係合し、また上述のやり方で力及び動作を伝送するとともに、ユーザの眼Eから環境光を遮断する、下にある機構(例えば、力分配器)を覆い得る。外側カバー432は、ユーザの顔の形状に追従し(例えば、可撓性があり、かつ/又は圧縮可能である)、かつその他の点でユーザの顔への係合に好適である1つ以上の材料(例えば、層)で形成される。外側カバー432は、織布、成形若しくは押出成形されたポリマー、発泡体、又はこれらの組み合わせなどの、1つ以上の材料層を含んでもよい。
外側カバー432は、ディスプレイユニット110などのヘッドマウントディスプレイ100の他の構成要素と共に、実質的に全ての光をユーザの眼Eから遮断するように構成されてもよい。例えば、外側カバー432は、不透明であってもよく、ユーザの顔に実質的に連続するように係合して、それらの間に環境光が入射するのを遮断することができる。ディスプレイユニット110(例えば、その外側ハウジング114b)は、不透明で、それを通る環境光の透過を防止することができてもよい。外側カバー432とディスプレイユニット110との間の任意の構成要素はまた、光がその間を透過するのを防止するために不透明であってもよい。例えば、外側カバー432は、下にある任意の機構又は力分配器(例えば、本明細書に開示される他の機構の中の534、634、734)を覆って延び、ディスプレイユニット110に結合してもよく、又はディスプレイユニット110に同様に次に結合される、中間構造体(例えば、顔インタフェース430の裏当てプレート又は構造体)に結合してもよい。
図5A~図5Cを参照すると、顔インタフェース530は、力を伝送し、かつ顔インタフェース430について上述したやり方で動作を引き起こすように機能する内部力分配器534を含む。顔インタフェース530の内部力分配器534は、周辺構造体536及び支持体538を含む。周辺構造体536は、(図示されるように)全体的に、又はユーザの眼Eの周りに部分的に延び、ユーザの顔構造(例えば、額、こめかみ領域、及び頬)にわたって力を分配する。支持体538は、周辺構造体536及びディスプレイユニット110に結合されて継手を形成し、それを中心として、内部力分配器534(例えば、周辺構造体536)が、前方力Fforwardを内側力Finwardに変換し、前方動作を内側動作に変換するように枢動可能である。内部力分配器534はまた、力分配器と呼ばれてもよい。
図示されるように、周辺構造体536は、一般に、(例えば、上部130aに対応する及び/又はそれを形成する)上部536aと、(例えば、側部130bに対応する及び/又はそれを形成する)2つの側部セグメント536bと、(例えば、下部130cに対応する及び/又はそれを形成する)下部セグメント536cと、を含む。支持体538は、一般に、横方向に離間した、2つの上部支持体538aと2つの下部支持体538bとを含む。周辺構造体536の上部セグメント536aは、概ね上部支持体538aの間に延び、側部セグメント536bはそれぞれ、概ね上部支持体538aのうちの1つと下部支持体538bのうちの1つとの間に延び、下部セグメント538cは、概ね下部支持体538bの間に延在する。前方力Fforwardが周辺構造体536の上部セグメント536a及び/又は下部セグメント536cに加えられると、トルクが上部支持体538a及び/又は下部支持体538bを中心に側部セグメント536bに伝送されて、顔インタフェース530の側部130bによってユーザのこめかみ領域に加えられる内側力Finwardを生成する。周辺構造体536の上部セグメント536a及び/又は下部セグメント536cの前方変位により、同様に、顔インタフェース530の側部130bのユーザのこめかみ領域との係合のための、側部セグメント536bの内側への変位を引き起こす。
周辺構造体536は、支持体538を中心に屈曲するように構成された単一構造体であってもよい。例えば、周辺構造体536は、金属、ポリマー、又はこれらの組み合わせ(例えば、エラストマー又はプラスチックによってオーバーモールドされた又はエラストマー又はプラスチックに結合された1つ以上の薄い金属構成要素)から形成されてもよい。
支持体538は、周辺構造体536がシャーシ114から離間されて、それに対して動作可能(例えば、枢動可能)となるように、周辺構造体536をディスプレイユニット110のシャーシ114に結合する。支持体538は、周辺構造体536及び/又はディスプレイユニット110のシャーシ114とのピボット継手、例えば、ピボットヒンジ、リビングヒンジ、ボール若しくはソケット継手、又は他の好適な枢動機構などを含んでもよく、又はそれを形成してもよい。支持体538は、ディスプレイユニット110のシャーシ114に直接結合されてもよく、又はそれに間接的に(例えば、顔インタフェース530のシャーシ又はバックプレートを介して)結合されてもよい。
上述したように、顔インタフェース530は、ユーザの顔の上のディスプレイユニット110に対する横方向の安定性を提供し得る。特に、顔インタフェース530の側部130bによってユーザの顔のこめかみ領域に加えられる内側力Finwardにより、ユーザの顔に対するディスプレイユニットの横方向動作を防止することができる。
更に図5A~図5Cを参照すると、顔インタフェース530は、ヘッドマウントディスプレイ100をユーザの頭部H上に更に安定させる、1つ以上の横方向スタビライザ540を更に含んでもよい。横方向スタビライザ540は、顔インタフェースの側部130bとユーザのこめかみ領域との間に加えられる内側力Finwardを増大させることができ、かつ/又はユーザの顔に対する側部130bの動作を制限することができる。横方向スタビライザ540は、位置、力伝送の性質、及び機構のタイプ、応答状態、並びに/又は受動的対能動的作動に従って構成されてもよい。
(概略的に示されている)横方向スタビライザ540は、周辺構造体536の側部セグメント536bとディスプレイユニット110との間で、直接的又は間接的に(例えば、顔インタフェース530の裏当てプレートなどの介在構造体を介して)力を伝送する。例えば、横方向スタビライザ540は、支持体538の外側に配置され、周辺構造体536の側部セグメント536bに結合されてもよい。あるいは、横方向スタビライザ540は、側部130bとディスプレイユニット110との間の角変位を制御するための支持体538と共に提供されるか、又は別の方法で支持体538に組み込まれてもよい。
横方向スタビライザ540は、側部130bによってこめかみ領域に加えられる力を増大させるように作動してもよく、かつ/又はそれらの間の動作に抵抗するように機能してもよい。1つの実施例では、横方向スタビライザ540は、側部130bをこめかみ領域に向かって更に動作させ、それに対してより緊密に(すなわち、より大きな力で)係合する。そのような場合、横方向スタビライザ540は、リニアアクチュエータ、又は他の好適な容積式変位デバイスであってもよい。別の実施例では、横方向スタビライザ540は、ユーザに向かって正の変位を引き起こすことなく、ディスプレイユニット110に対する側部130bの動作に抵抗する。そのような場合、横方向安定性アクチュエータ540は、動作を防止するダンパ(例えば、動作に抵抗する流体ダンパ)、ブレーキ(例えば、動作に抵抗する摩擦ブレーキ)、又はロックデバイスであってもよい。ブレーキ又はロックデバイスとして構成される場合、横方向スタビライザ540は、(例えば、好適な電気作動アクチュエータを有して)能動的に作動され、又は例えば遠心クラッチ若しくは重り振り子アクチュエータを有して受動的に作動されてもよい。
1つ以上の横方向スタビライザ540は、ディスプレイユニット110の動き又は他の状態に応じて作動し得る。1つの実施例では、横方向スタビライザ540は、ディスプレイユニット110の、現実空間における動作(例えば、変位、向き、速度、及び/又は加速度)、並びに/又は側部130b若しくはユーザの顔に対する動作に応答する。別の実施例では、横方向スタビライザ540は、高レベルのユーザ動作(例えば、アクションビデオゲーム)に関連するグラフィカルコンテンツなど、ユーザに提供されるグラフィカルコンテンツ(例えば、それに対応する信号)などの、別の状態に応答してもよい。横方向スタビライザ540を動き又は他の状態に応じて作動させることによって、所望の環境では、ユーザの顔により小さな力が加えられて、ユーザの快適性を維持することができ、一方、他の環境では、増大した力が条件付きで加えられて、ユーザの顔の上のディスプレイユニット110の安定性を増大させることができる。
横方向スタビライザ540は、能動的でも受動的でもよい。能動的横方向スタビライザとして構成される場合、ディスプレイユニット110の動き又は他の状態が、1つ以上のセンサで検出される、又は他の方法でコントローラ218aを用いて判定され、横方向スタビライザ540は、感知された動き又は他の状態に応じて制御される。受動的横方向スタビライザを用いると、出力又は状態は、横方向スタビライザ540の電子感知又は電子制御を必要としない、動き又は他の状態の直接的な物理的応答である。
更に図5Dを参照すると、顔インタフェース130の側部130bの動作及び/又は作動は、ヘッドマウントディスプレイ100の左側と右側との間でリンクされてもよい。例えば、ヘッドマウントディスプレイ100の左側の側部130bの(例えば、外側左への)変位は、ヘッドマウントディスプレイ100の右側の側部130bの(例えば、外側右への)対称的な動作をもたらし得る。図示される実施例では、周辺構造体536の上部セグメント536aは、側部セグメント536bに結合されている左及び右のサブセグメントに分岐されている(例えば、それをもって連続的かつ/又は堅固に形成されている)。上部セグメント536aの左及び右のサブセグメントは、中央ヒンジ536dによって互いに結合されている。力が一方のサブセグメント、他方、又は両方に加えられると、上部セグメント536aのサブセグメントは、支持体538の周りを概ね等しく枢動し、それによって側部セグメント536bの概ね等しい内側への変位を引き起こす。同様の効果により、左側及び右側の横方向スタビライザ540のうちの1つ以上が(例えば、左側及び右側の側部セグメント536bに対して等しい変位及び/又は力を出力して)対称的に作動してもよい。
図5Eを参照すると、ヘッドマウントディスプレイ100の横方向安定性をユーザの頭部H上で能動的に制御するための方法500が提供されている。方法500は、一般に、ヘッドマウントディスプレイ100の状態を検出する第1の作動510と、第1の作動が状態を検出したことに応じて、横方向スタビライザ540を作動させる第2の作動520とを含む。
状態を検出する第1の作動510は、コントローラ218aなどのコンピューティングデバイスと併せて、センサ218cのうちの1つなどの1つ以上のセンサを用いて実行される。センサは、ディスプレイユニット110の加速度を感知することができ、この場合、センサ218cは、ディスプレイユニット110に結合された加速度計、ジャイロスコープ、又は慣性測定ユニットである。センサ218cは出力信号を送信し、出力信号はコントローラ218aによって受信される。
加速度の代わりに、又はそれに加えて、センサは、ディスプレイユニット110と側部130bとの間の動作、並びに/又はユーザの顔の動作(例えば、変位、速度、及び/若しくは加速度)を検出してもよい。例えば、センサ218cは、横方向スタビライザ540、頭部支持体120に組み込まれ、又は別の方法でそれらの間の動作を測定するように構成されてもよい。
ディスプレイユニット110の加速度、又はユーザの頭部に対する動作を検出する代わりに、又はそれに加えて、状態は、ユーザに提供されるグラフィカルコンテンツに関連付けられてもよい。例えば、グラフィカルコンテンツ(例えば、ゲーム)に関連付けられたソフトウェアプログラミングは、横方向スタビライザ540の作動のための命令を含んでもよく、又はコントローラ218aは、ソフトウェアプログラミングに基づいて(例えば、タイトル、カテゴリ、又は他のインジケータに基づいて)横方向スタビライザ540の作動を別の方法で決定することができる。
横方向スタビライザ540を作動させる第2の作動520は、第1の作動510からの状態に基づいて、コントローラ218aなどのコントローラによって実行される。例えば、コントローラ218aは、(例えば、現実空間における動作が閾値を超え、相対動作が閾値を超える)動作状態を検出すると、かつ/又はグラフィカルコンテンツに関連付けられた状態を検出すると、横方向スタビライザ540を作動させることができる。横方向スタビライザ540は、例えば、側部130bの位置を(例えば、リニアアクチュエータなどを用いてディスプレイユニットから更に離れるように)変更させ、側部130bがユーザの顔に係合する力を(例えば、リニアアクチュエータを用いて)増大させ、及び/又は側部130b間の相対動作に対する抵抗を(例えば、ダンパ、ブレーキ、又はロックを用いて)増大させるように作動されてもよい。対向する両側(例えば、左側及び右側)上の横方向スタビライザ540は、概ね対称な出力、例えば、等しい力、等しい位置、及び/又は等しい抵抗を提供するように作動されてもよい。
図1D及び図1Eに関連して説明されたように、顔インタフェース530は、ディスプレイユニット110から取り外し可能であってもよく、及び/又は頭部支持体120がそれに結合されてもよい。
図6A~図6Bを参照すると、顔インタフェース630は、力を伝送し、かつ顔インタフェース430について上述した方法で動作を引き起こすように機能する流体伝送デバイス634を含む。流体伝送デバイス634は、上部130aの前方力Fforward及び前方変位を、顔インタフェース630の側部130bの内側力Finward及び内側への変位に変換する。流体伝送デバイス634は、外側カバー432によってカバー又は形成されてもよい。
顔インタフェース630の流体伝送デバイス634は、流体638を収容するブラダ636を含む。力が顔インタフェース630に加えられると、流体638は、ブラダ636内を流れてその中の圧力を均一化する。したがって、前方力Fforwardが顔インタフェース630の上部130aに加えられ、その前方変位を引き起こすと、流体638は、ブラダ636を通って流れて、内側力Finwardを側部130bに加え、その内側への変位(例えば、拡張)をユーザのこめかみ領域に対して引き起こす(例えば、拡張させる)。ブラダ636は、例えば、エラストマー材料(例えば、ゴム)で形成されてもよい。
図1D及び図1Eに関連してそれぞれ説明されたように、顔インタフェース630はまた、ディスプレイユニット110から取り外し可能であってもよく、かつ/又は頭部支持体120はそれに結合されていてもよい。
図7A~図7Bを参照すると、顔インタフェース730は、拡張してユーザの顔を受け入れるように構成されている。側部130bは、通常は内向きに偏り、ユーザの顔によって係合されると外向きに偏る。図示されるように、顔インタフェース130は、外側カバー432と、ユーザの顔に適合するために側部130bを形成するアーム736を有する内側力分配器734とを含む。静止状態又は非装着状態(図7Aを参照)では、側部130bは、側部130bがユーザの顔に係合する対応する位置において、ユーザの顔の幅よりも狭い横方向距離で離間している。偏った状態又は装着状態(図7Bを参照)では、側部130bは、ユーザの顔に係合し、ユーザの顔の幅に概ね等しい横方向距離で離間している。
アーム736は、ユーザの顔の形状に適合するために互いから離れるように偏らせることが可能である。1つの実施例では、アーム736は、ばねヒンジ738を用いてディスプレイユニット110に結合され、ばねヒンジ738は通常、アーム736を内側に偏らせて非装着状態にする。ばねヒンジ738は、装着状態においてはアーム736をユーザの顔に向けて押圧する。
あるいは、アーム736は、非装着状態と装着状態との間で移動できるように、弾性屈曲し得る。例えば、アーム736は、ディスプレイユニット110に(顔インタフェース730の裏当てプレートなどと共に、直接的又は間接的に)堅固に結合されてもよい。そのような場合、アーム736は、ポリマー、金属、又はこれらの組み合わせ(例えば、エラストマー又はプラスチックによってオーバーモールドされた又はエラストマー又はプラスチックに結合された1つ以上の薄い金属構成要素)などのばね入り部材で形成される。
顔インタフェース730はまた、アーム736に結合され、アーム736に力を加える(例えば、アーム736からディスプレイユニット110に力を伝送する)、1つ以上の(前述した)横方向スタビライザ540を含み得る。図1D及び図1Eにそれぞれ図示されるように、顔インタフェース730は、ディスプレイユニット110から取り外し可能であってもよく、頭部支持体120がそれに結合されてもよい。
図8~図8Eを参照すると、顔インタフェース830は、ユーザの顔の異なる顔領域に異なる量の力又は圧力を加えるように構成された別個の係合領域832を含む。図示されるように、別個の係合領域832は、短い点線(例えば、ドットドット線)間に例示されている。異なる量の力又は圧力を加える異なる係合領域を有することによって、顔インタフェース130は、ユーザの顔の異なる感度特徴及び/又は構造的特徴を考慮することができる。例えば、顔インタフェース130は、ユーザの軟組織領域(例えば、こめかみ、頬、又は副鼻腔領域)よりも大きな力及び/又は圧力を用いて、ユーザの骨構造(例えば、額)に係合するように構成されてもよい。
別個の係合領域832によって加えられる異なる力は、外側カバー432によってカバーされ得る異なる力分配器によって加えられる。図8Aに示される第1の実施例では、力分配器は、異なる力及び/又は圧力をユーザの顔に加えるために異なる硬度測定計(durometer)及び/又は厚さを有し得るエラストマー構造体834a(例えば、発泡体ブロック又は構造体)によって形成される。エラストマー構造体834aは、(例えば、接着剤を用いて)互いに結合されてもよく、(例えば、成形作業中に)協働的に形成されてもよく、又はそれを通って延びる(図示された)ばね入りリング834bなどを用いて機械的に相互接続されてもよい。
図8Bに示される第2の実施例では、力分配器は、弾性が異なるブラダ材料及び/又は圧縮率が異なる流体836bを有することに基づいて、異なる圧力を加える流体充填ブラダ836aである。力が加えられると、流体充填ブラダ836aは、(破線で示される)形状に変形し得る。流体充填ブラダ836aは、(例えば、接着剤を用いて)直接的に又は(例えば、裏当てプレートを介して、若しくは外側カバー432を介して)間接的に、互いに結合され得る。
図8Cに示される第3の実施例では、力分配器は、ユーザの顔構造に同様に次に力を加える支持構造体838b(例えば、プレート)を押圧する、ばね838a(例えば、コイルばね、又は他の弾性部材)を有するリニアばね機構838である。リニアばね機構838は、ばね838aに対する支持構造体838bの適切な位置合わせ及び/又は向きを確実にする、1つ以上のガイド構造体838cを更に含んでもよい。ガイド構造体838cは、例えば、キーボードで使用されるものなどの、はさみ機構(図示されるような)又はバタフライ機構であってもよい。
図8Dに示される第4の実施例では、力分配器は、アクチュエータ840a(例えば、電気モータ)及び支持構造体840bを有するアクチュエータ機構840である。アクチュエータ840aは、変位を制御し、所望の出力(すなわち、独立した力)を用いてなど、所望の方法で支持構造体840bを用いて力を加える、コントローラ218aなどのコントローラによって制御可能である。アクチュエータ840aは、リニアアクチュエータ、リニアモータ、空気圧アクチュエータ、又は油圧アクチュエータなどの、任意の好適なタイプのアクチュエータであってもよい。
更に図8Eを参照すると、1つ以上の力分配器の作動が、他の力分配器の1つ以上にリンクされてもよい。例えば、図8Eに示されるように、内側の機械的力分配器842a同士は、内側枢動結合機構842a’を用いて互いに結合されてもよく、外側の機械力分配器842b同士は、外側枢動結合機構842b’によって互いに結合されてもよい。枢動結合機構842a’、842b’は、中心枢動軸842cを中心に枢動し、2つの機械的力分配器842の実質的に等しく反対方向の(例えば、前方及び後方の)動作と、それによってユーザに対する実質的に等しい力の印加とをもたらす結合機構であってもよい。例えば、図8Eに破線で示されるように、左側における外側機械的力分配器842bの前方変位は、右側における外側機械的力分配器842bの後方変位を引き起こす。
図9A~図9Cを参照すると、ヘッドマウントディスプレイ100は、上部130aによって、ユーザの眼Eからレンズ116などのディスプレイユニット110の光学構成要素までの距離であるアイレリーフ距離Dが、概ね固定された距離に設定されている顔インタフェース930を含む。例えば、異なる年齢及び/又は民族の間の顔構造の異なる形状を考慮すると、アイレリーフ距離を異なるユーザにわたって適切な又は最適化された値に設定するためには、異なる幾何学的形状の顔インタフェース130が必要とされ得る。したがって、顔インタフェース130の上部130aは、所与のユーザ及びヘッドマウントディスプレイ100のためのアイレリーフ距離Dを適切に確立するために、調節可能又は異なるサイズのものと互換可能であるように構成されてもよい。例えば、顔インタフェース930のうちの異なるものが、異なるサイズ(例えば、以下で論じられるような異なるサイズの上部係合構造932)で構成され、ディスプレイユニット110に互換可能に結合できてもよい。
顔インタフェース930は、上部係合構造体932と、1つ以上のカバー936によって覆われ得る1つ以上(例えば、図示のように2つ)の下部係合構造体934とを含む。
上部係合構造体932は、ユーザの額に係合して、ディスプレイユニット110をその上に支持し、アイレリーフ距離Dを確実に確立するように構成されている。顔インタフェース930がディスプレイユニット110に結合されると、(例えば、ユーザの頭部Hによる通常の負荷の下で、例えば、上部係合構造体932が額に係合するプロセスにあるとき)上部係合構造体932は、ディスプレイユニット110に固定的に配置され、概ね、前後、左右、及び上下方向に不動となる。上部係合構造体932は更に、(例えば、ユーザの頭部Hから垂直荷重下で圧縮されないように)概ね剛性であってもよく、一方、カバー936及び/又はそれらの間の中間の圧縮可能層は、ユーザの形状に適合し得る。概して剛性であるため、上部係合構造体932は、頭部支持体120における張力などのいくつかの他の状態に関係なく、所与のユーザに対するアイレリーフ距離Dを確実に確立することができる。
上部係合構造体932は、例えば、ディスプレイユニット110上の静止位置間で調節可能であってもよく、それに対して内側及び外側に移動して、異なるユーザに対するアイレリーフ距離Dを設定することができる。例えば、顔インタフェース930は、それによって上部係合構造体932が調節可能である、距離調整部938を含んでもよい。距離調整部938は、例えば、それによって顔インタフェース930が後退固定位置と拡張固定位置との間で動作可能である(図9B及び図9Cを比較)、親ねじであってもよい。各静止位置にあるとき、上部係合構造体932は、ディスプレイユニット110に固定的に位置付けられる。調節可能である代わりに、異なるサイズの上部係合構造体932が、上述したように互換可能な顔インタフェース930の一部であるように、顔インタフェース930及び/又はディスプレイユニット110に互換可能に結合できてもよい。
下部係合構造体934は、ディスプレイユニット110に動作可能に結合されている。下部係合構造体934のそれぞれは、例えば、矢印によって示されるように、垂直方向に移動し(例えば、それに対して枢動し)、左右方向(例えば、枢動)、及び前後方向に移動することができる。このようにして、下部係合構造体934は、例えば、その下部顔構造を係合するプロセスにおいて、ユーザの顔の形状に適合することができる。下部係合構造体934は、例えば、ユーザの顔に力を加える支持部材934aと、支持部材934aがそれによってディスプレイユニット110に枢動可能に結合される移動部材934b(図9B及び図9Cを比較)とを含んでもよい。
物理的環境とは、人々が電子システムの助けなしに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品が挙げられる。人々は、視覚、触覚、聴覚、味覚、及び臭覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。
対照的に、コンピュータ生成現実(computer-generated reality、CGR)環境は、人々が電子システムを介して感知及び/又は相互作用する、全体的又は部分的にシミュレーションされた環境を指す。CGRでは、人の身体運動のサブセット又はその表現が追跡され、それに応じて、CGR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則でふるまうように調整される。例えば、CGRシステムは、人の頭部の回転を検出し、それに応じて、そのようなビュー及び音が物理的環境において変化し得るのと同様に、人に提示されるグラフィカルコンテンツ及び音場を調整することができる。状況によっては(例えば、アクセス性の理由から)、CGR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調節は、身体運動の表現(例えば、音声コマンド)に応答して行われてもよい。
人は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、CGRオブジェクトを感知し、かつ/又はCGRオブジェクトと相互作用してもよい。例えば、人は、3D空間において点音源の知覚を提供する、3D又は空間的広がりを有するオーディオ環境を作り出すオーディオオブジェクトを感知し、かつ/又はそれと相互作用することができる。別の例では、オーディオオブジェクトは、コンピュータ生成オーディオを含め、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性を可能にすることができる。いくつかのCGR環境では、人は、オーディオオブジェクトのみを感知し、及び/又はそれと相互作用することができる。
CGRの例としては、仮想現実及び複合現実が挙げられる。
仮想現実(virtual reality、VR)環境とは、1つ以上の感覚について、コンピュータ生成感覚入力に全面的に基づくように設計されたシミュレーション環境を指す。VR環境は、人が感知及び/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人は、コンピュータ生成環境内に人が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人の身体運動のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。
コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、複合現実(mixed reality、MR)環境は、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計されたシミュレーション環境を指す。仮想の連続体上で、複合現実環境は、一端における完全に物理的な環境と、他端における仮想現実環境との間のどこかにあるが、両端は含まない。
いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変更に応答し得る。また、MR環境を提示するためのいくつかの電子システムは、仮想オブジェクトが現実のオブジェクト(すなわち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に対する位置及び/又は向きを追跡することができる。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるように、動きを考慮することができる。
複合現実の例としては、拡張現実及び拡張仮想が挙げられる。
拡張現実(augmented reality、AR)環境は、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ねられたシミュレーション環境を指す。例えば、AR環境を提示するための電子システムは、人が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイ上に仮想オブジェクトを提示するように構成されていてもよく、それによって、人はシステムを使用して、物理的環境上に重ねられた仮想オブジェクトを知覚する。或いは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又はビデオをキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又はビデオを仮想オブジェクトと合成し、その合成物を不透明ディスプレイ上に提示する。人は、システムを使用して、物理的環境の画像又は動画によって物理的環境を間接的に見て、物理的環境上に重ねられた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境の動画は、「パススルービデオ」と呼ばれ、システムが、1つ以上の撮像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムは、仮想オブジェクトを、物理的環境に、例えば、ホログラムとして又は物理的表面上に投影するプロジェクションシステムを有してもよく、それによって、人は、システムを使用して、物理的環境上に重ねられた仮想オブジェクトを知覚する。
拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換されるシミュレーション環境を指す。例えば、パススルービデオを提供する際に、システムは、1つ以上のセンサ画像を変換して、撮像センサによってキャプチャされた遠近法とは異なる選択された遠近法(例えば、視点)による面付けを行うことができる。別の例として、物理的環境の表現は、その一部分をグラフィカルに変更(例えば、拡大)することによって変換されてもよく、それにより、変更された部分を元のキャプチャ画像を表すが非写実的であるバージョンとすることができる。更なる例として、物理的環境の表現は、その一部分をグラフィカルに除去又は曖昧化することによって変換されてもよい。
拡張仮想(augmented virtuality、AV)環境は、物理的環境からの1つ以上の感覚入力を仮想環境又はコンピュータ生成環境が組み込むシミュレーション環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVの公園には仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々が撮られた画像から写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽の位置と一致する影を採用することができる。
多種多様の電子システムが存在することによって、人が様々なCGR環境を感知し、かつ/又はCGR環境と相互作用できるようになる。例としては、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(heads-up display、HUD)、統合表示機能を有する車両ウィンドシールド、統合表示機能を有する窓、(例えば、コンタクトレンズと同様に)人の眼の上に配置されるように設計されたレンズとして形成されたディスプレイ、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する又は有さない、装着型コントローラ又はハンドヘルドコントローラ)、スマートフォン、タブレット、及びデスクトップ/ラップトップコンピュータ、が挙げられる。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。或いは、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受け入れるように構成されていてもよい。ヘッドマウントシステムは、物理的環境の画像若しくは動画をキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境の音声をキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。不透明ディスプレイではなく、ヘッドマウントシステムは、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人の眼に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実施形態では、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィカル画像を人間の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、例えば、ホログラムとして、又は物理的表面上に、仮想オブジェクトを物理的環境内に投影するように構成されていてもよい。
上述のように、本技術の一態様は、様々なソースから入手可能なデータを収集及び使用することであり、ヘッドマウントディスプレイをユーザの上で安定させるために動作を感知することを含む。本開示は、いくつかの例において、この収集されたデータが、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを考察する。そのような個人情報データとしては、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康又はフィットネスのレベル(例えば、バイタルサイン測定値、服薬情報、運動情報)に関するデータ若しくは記録、誕生日、又は任意のその他の識別情報若しくは個人情報を挙げることができる。
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データ(例えば、その動作)を使用して、ヘッドマウントディスプレイを安定化させることができる。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用することができ、又は、ウェルネスの目標を追求する技術を使用している個人への、積極的なフィードバックとして使用することもできる。
本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国において、異なる個人データのタイプに関して異なるプライバシー慣行が保たれるべきである。
前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、ヘッドマウントディスプレイを安定化させるために動きを監視する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。
更には、本開示の意図は、個人情報データを、非意図的若しくは無許可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、かつ適用可能な場合、特定の健康関連アプリケーションにおいても、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって集約すること)及び/又は他の方法によって、容易にすることができる。
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものであるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することも可能であることを考察する。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、ヘッドマウントディスプレイの安定化は、ユーザに関連付けられたデバイスによって要求されているコンテンツ、他の入手可能な非個人情報、若しくは公的に入手可能な情報などの、非個人情報データ又は最小限の量の個人情報に基づいて嗜好を推測することによって、行うことができる。
前述した実施形態及び特許請求される実施形態に加えて、以下の実施形態もまた想到される。
実施形態1. ヘッドマウントディスプレイであって、
グラフィカルコンテンツをユーザに表示するためのディスプレイを有するディスプレイユニットと、
ディスプレイユニットに結合され、かつユーザの顔に係合してディスプレイユニットをその上に支持するように構成された顔インタフェースであって、
ユーザの顔の額に係合するとき、ディスプレイユニットに対して固定的に配置され、それらの間の動作が防止されている上部係合構造体と、
ユーザの顔の下部顔構造に係合するとき、ディスプレイユニットに対して動作可能に配置され、それらの間の動作が可能にされている下部係合構造体と、を含む、顔インタフェースと、を備える、ヘッドマウントディスプレイ。
実施形態2. 上部係合構造体が、異なるサイズを有する別の上部係合構造体を備えたディスプレイユニットに互換可能に結合できる、実施形態1に係るヘッドマウントディスプレイ。
実施形態3. 顔インタフェースが、他の上部係合構造体を有する別の顔インタフェースを備えたディスプレイユニットに互換可能に結合できる、実施形態1又は2のいずれかに係るヘッドマウントディスプレイ。
実施形態4. ディスプレイユニット及び顔インタフェースが、ユーザの眼から環境光を遮断するように協働的に構成されている、実施形態1~3のいずれかに係るヘッドマウントディスプレイ。

Claims (17)

  1. ヘッドマウントディスプレイであって、
    グラフィカルコンテンツをユーザに表示するためのディスプレイを有するディスプレイユニットと、
    前記ディスプレイユニットに結合され、かつ前記ユーザの顔に係合してその上に前記ディスプレイユニットを支持するように構成された顔インタフェースであって、前記ユーザの額に係合する上部と、前記ユーザのこめかみ領域に係合する側部とを有し、前記額によって前記上部に加えられる前方力を、前記側部によって前記こめかみ領域に加えられる内側力に伝送する、顔インタフェースと、を備え、
    前記顔インタフェースは、
    前記上部を形成する上部セグメントと、前記側部を形成する2つの側部セグメントとを有する力分配器であって、前記上部セグメントの前方動作が、前記側部セグメントの内側動作を引き起こすように構成される、力分配器と、
    前記力分配器を覆い、かつ前記ユーザの眼から環境光を遮断するカバーと、を含む、ヘッドマウントディスプレイ。
  2. 前記顔インタフェースが、前記上部を形成する上部セグメントと、前記側部を形成する2つの側部セグメントとを有する力分配器を含み、前記上部セグメントの前方動作が、前記側部セグメントの内側動作を引き起こし、
    前記ディスプレイユニット及び前記顔インタフェースが、前記ユーザの眼から環境光を遮断するように協働的に構成され、
    前記顔インタフェースが、前記側部のうちの1つと前記ディスプレイユニットとの間で選択的に力を伝送する横方向スタビライザを含む、請求項1に記載のヘッドマウントディスプレイ。
  3. 前記顔インタフェースが支持体を含み、前記力分配器が、前記上部セグメントが前方に動作し、かつ前記側部セグメントが内側に動作するように、前記支持体を中心に枢動可能である、請求項1に記載のヘッドマウントディスプレイ。
  4. 前記上部及び前記2つの側部セグメントが、前記支持体を中心に枢動可能な単一構造体を協働的に形成する、請求項3に記載のヘッドマウントディスプレイ。
  5. 前記顔インタフェースが、前記側部のうちの1つと前記ディスプレイユニットとの間で選択的に力を伝送する横方向スタビライザを含む、請求項1又は3~4のいずれか一項に記載のヘッドマウントディスプレイ。
  6. 前記横方向スタビライザが、閾値を上回る現実空間における前記ディスプレイユニットの動作、前記閾値を上回る前記ユーザの頭部に対する前記ディスプレイユニットの動作、又は前記グラフィカルコンテンツから選択される状態を感知すると、力を選択的に伝送する、請求項5に記載のヘッドマウントディスプレイ。
  7. 前記状態に従って前記横方向スタビライザを作動させるコントローラを更に備える、請求項6に記載のヘッドマウントディスプレイ。
  8. ヘッドマウントディスプレイであって、
    グラフィカルコンテンツをユーザに表示するためのディスプレイを有するディスプレイユニットと、
    前記ディスプレイユニットに結合され、かつ前記ユーザの顔に係合してその上に前記ディスプレイユニットを支持するように構成された顔インタフェースであって、前記ユーザの額に係合する上部と、前記ユーザのこめかみ領域に係合する側部とを有し、前記額によって前記上部に加えられる前方力を、前記側部によって前記こめかみ領域に加えられる内側力に伝送する、顔インタフェースと、を備え、
    前記顔インタフェースが流体充填ブラダを含み、前記上部に対する前方力が、前記流体充填ブラダ内の流体を前記側部に向かって変位させる、ヘッドマウントディスプレイ。
  9. 前記ディスプレイユニット及び前記顔インタフェースが、前記ユーザの眼から環境光を遮断するように協働的に構成されている、請求項1~8のいずれか一項に記載のヘッドマウントディスプレイ。
  10. 前記顔インタフェースが、別の顔インタフェースを備えた前記ディスプレイユニットに互換可能に結合可能である、請求項1~9のいずれか一項に記載のヘッドマウントディスプレイ。
  11. ヘッドマウントディスプレイであって、
    グラフィカルコンテンツをユーザに表示するためのディスプレイを有するディスプレイユニットと、
    前記ディスプレイユニットに結合され、かつ前記ユーザの顔に係合してその上に前記ディスプレイユニットを支持するように構成された顔インタフェース、とを備え、
    前記顔インタフェースは、
    前記ユーザの眼の周りを少なくとも部分的に延長し、前記ユーザの前記顔の対向する両側に係合する側部を含む力分配器と、
    前記力分配器に結合され、前記側部によって前記ユーザの前記顔の前記両側に加えられる内側力を変更するために選択的に作動される横方向スタビライザと、を含む、ヘッドマウントディスプレイ。
  12. 前記横方向スタビライザが、前記ディスプレイユニットの動作状態を感知すると選択的に作動され、
    前記ディスプレイユニット及び前記顔インタフェースは、前記ユーザの眼から環境光を遮断するように協働的に構成されている、請求項11に記載のヘッドマウントディスプレイ。
  13. 前記横方向スタビライザが、前記ディスプレイユニットの動作状態を感知すると選択的に作動される、請求項11に記載のヘッドマウントディスプレイ。
  14. 前記動作状態が、現実空間における前記ディスプレイユニットの動作、又は前記ユーザの頭部に対する前記ディスプレイユニットの動作のうちの1つである、請求項13に記載のヘッドマウントディスプレイ。
  15. 前記ヘッドマウントディスプレイが、前記動作状態を検知するためのセンサと、前記動作状態に従って前記横方向スタビライザを作動させるためのコントローラと、を更に備える、請求項14に記載のヘッドマウントディスプレイ。
  16. 前記顔インタフェースが、上部を含み、前記上部に対する前方力を、前記側部によって前記ユーザの前記顔の前記対向する両側に加えられる前記内側力に変換する、請求項11~14のいずれか一項に記載のヘッドマウントディスプレイ。
  17. 前記ディスプレイユニット及び前記顔インタフェースが、前記ユーザの眼から環境光を遮断するように協働的に構成されている、請求項12又は14~16のいずれか一項に記載のヘッドマウントディスプレイ。
JP2023079233A 2019-01-17 2023-05-12 ヘッドマウントディスプレイ及びその顔インタフェース Active JP7483099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024073735A JP2024109611A (ja) 2019-01-17 2024-04-30 ヘッドマウントディスプレイ及びその顔インタフェース

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962793479P 2019-01-17 2019-01-17
US62/793,479 2019-01-17
JP2021540845A JP2022518213A (ja) 2019-01-17 2020-01-14 ヘッドマウントディスプレイ及びその顔インタフェース
PCT/US2020/013439 WO2020150189A2 (en) 2019-01-17 2020-01-14 Head-mounted display and facial interface thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021540845A Division JP2022518213A (ja) 2019-01-17 2020-01-14 ヘッドマウントディスプレイ及びその顔インタフェース

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024073735A Division JP2024109611A (ja) 2019-01-17 2024-04-30 ヘッドマウントディスプレイ及びその顔インタフェース

Publications (2)

Publication Number Publication Date
JP2023109859A JP2023109859A (ja) 2023-08-08
JP7483099B2 true JP7483099B2 (ja) 2024-05-14

Family

ID=69591726

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021540845A Ceased JP2022518213A (ja) 2019-01-17 2020-01-14 ヘッドマウントディスプレイ及びその顔インタフェース
JP2023079233A Active JP7483099B2 (ja) 2019-01-17 2023-05-12 ヘッドマウントディスプレイ及びその顔インタフェース
JP2024073735A Pending JP2024109611A (ja) 2019-01-17 2024-04-30 ヘッドマウントディスプレイ及びその顔インタフェース

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021540845A Ceased JP2022518213A (ja) 2019-01-17 2020-01-14 ヘッドマウントディスプレイ及びその顔インタフェース

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024073735A Pending JP2024109611A (ja) 2019-01-17 2024-04-30 ヘッドマウントディスプレイ及びその顔インタフェース

Country Status (6)

Country Link
US (2) US11762421B2 (ja)
EP (3) EP4012483A1 (ja)
JP (3) JP2022518213A (ja)
KR (2) KR102707593B1 (ja)
CN (3) CN113330353B (ja)
WO (1) WO2020150189A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064188B2 (en) * 2019-07-29 2021-07-13 Htc Corporation Driving method for calculating interpupillary distance and related head-mounted device
US10699124B1 (en) 2019-09-09 2020-06-30 Ar, Llc Augmented reality content selection and display based on printed objects having security features
US11961294B2 (en) 2019-09-09 2024-04-16 Techinvest Company Limited Augmented, virtual and mixed-reality content selection and display
US10997418B2 (en) 2019-09-09 2021-05-04 Ar, Llc Augmented, virtual and mixed-reality content selection and display
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
US11243405B2 (en) * 2020-03-27 2022-02-08 ResMed Pty Ltd Positioning and stabilising structure and system incorporating same
US20230049355A1 (en) * 2019-12-31 2023-02-16 ResMed Asia Pte. Ltd. Positioning, stabilising, and interfacing structures and system incorporating same
US11686948B2 (en) 2020-03-27 2023-06-27 ResMed Pty Ltd Positioning, stabilising, and interfacing structures and system incorporating same
US11598967B2 (en) 2020-03-27 2023-03-07 ResMed Pty Ltd Positioning and stabilising structure and system incorporating same
WO2022060520A1 (en) * 2020-09-15 2022-03-24 Carnelian Laboratories Llc Fit detection for head-mountable devices
CN116615685A (zh) * 2020-09-23 2023-08-18 苹果公司 具有自适应配合的头戴式设备
US11789277B2 (en) * 2020-12-15 2023-10-17 Valve Corporation Adjustable head-mounted display
CN117280267A (zh) * 2021-05-10 2023-12-22 苹果公司 具有自适应配合的可头戴式设备
WO2023048969A1 (en) * 2021-09-21 2023-03-30 Kokanee Research Llc Wearable devices
WO2023048998A1 (en) * 2021-09-22 2023-03-30 Callisto Design Solutions Llc Pressure-controlled face engagement
US11850067B1 (en) * 2022-05-27 2023-12-26 OpenBCI, Inc. Multi-purpose ear apparatus for measuring electrical signal from an ear
US20240004206A1 (en) * 2022-06-30 2024-01-04 Apple Inc. Head-mountable electronic device spacer
US20240085949A1 (en) * 2022-09-06 2024-03-14 Apple Inc. Face engaging structure
US20240103284A1 (en) * 2022-09-22 2024-03-28 Apple Inc. Facial interface
WO2024182782A2 (en) * 2023-03-01 2024-09-06 Apple Inc. Face engaging structure

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074798A (ja) 2005-09-05 2006-03-16 Olympus Corp 頭部装着型表示装置

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784210A (ja) * 1993-09-17 1995-03-31 Olympus Optical Co Ltd 頭部装着型ディスプレイ装置
US7310072B2 (en) 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
CA2190941C (en) 1995-05-15 2001-01-02 Chungte W. Chen Low-cost light-weight head-mounted virtual-image projection display with low moments of inertia and low center of gravity
US5954642A (en) 1997-12-23 1999-09-21 Honeywell Inc. Adjustable head mounted display and system
JPH11202796A (ja) 1998-01-09 1999-07-30 Canon Inc 頭部装着型表示装置
AUPP949999A0 (en) 1999-03-29 1999-04-22 Resmed Limited Forehead support for facial mask II
US6542721B2 (en) * 1999-10-11 2003-04-01 Peter V. Boesen Cellular telephone, personal digital assistant and pager unit
US6436285B1 (en) 1999-12-22 2002-08-20 William B. Kerfoot Laminated microporous diffuser
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
US6931668B2 (en) 2001-12-21 2005-08-23 Itt Manufacturing Enterprises, Inc. Headmount apparatus for attaching and supporting devices
EP3009159B1 (en) 2002-09-06 2020-02-19 ResMed Pty Ltd Forehead pad for respiratory mask
US20040061663A1 (en) * 2002-09-27 2004-04-01 Cybereyes, Inc. Virtual reality display apparatus and associated display mounting system
US8605008B1 (en) * 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
DE102007051959A1 (de) * 2007-10-29 2009-05-14 Carl Zeiss Ag Anzeigevorrichtung
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
CN102436064B (zh) 2010-09-29 2016-02-24 奥林巴斯株式会社 头戴式显示器
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
JP2012186660A (ja) 2011-03-06 2012-09-27 Sony Corp ヘッド・マウント・ディスプレイ
FR2985322B1 (fr) * 2011-12-30 2014-03-14 Thales Sa Equipement de vision en realite augmentee a structure auto-adaptative pour la mise en place quelque soit la morphologie de tete de l'utilisateur
US8661662B1 (en) 2012-08-10 2014-03-04 Eastman Kodak Company Making transparent touch-responsive device with micro-wire electrodes
US10722784B2 (en) * 2012-09-21 2020-07-28 Bright Cloud International Corporation Bimanual integrative virtual rehabilitation system and methods
JP5903018B2 (ja) 2012-09-26 2016-04-13 ソニー株式会社 ヘッドマウントディスプレイ
WO2014082023A1 (en) 2012-11-23 2014-05-30 Greenbaum Eric Head mounted display
US10357400B2 (en) * 2012-12-11 2019-07-23 Oakley, Inc. Eyewear with outriggers
US9081210B2 (en) 2012-12-12 2015-07-14 Microsoft Technology Licensing, Llc Head worn device having temple arms to provide long axis compression
CN105103243B (zh) 2013-02-05 2017-11-28 古河电气工业株式会社 电线结构体、电连接结构及电线结构体的制造方法
WO2015019625A1 (ja) 2013-08-09 2015-02-12 株式会社エナシステム 磁力回転装置、電動機、および電動発電機
EP3108287A4 (en) 2014-02-18 2017-11-08 Merge Labs, Inc. Head mounted display goggles for use with mobile computing devices
KR20160019760A (ko) * 2014-08-12 2016-02-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US10120413B2 (en) 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
WO2016061367A1 (en) * 2014-10-16 2016-04-21 Spy Optic Inc. Goggle lens changing system
US9836663B2 (en) 2015-03-05 2017-12-05 Samsung Electronics Co., Ltd. User authenticating method and head mounted device supporting the same
JP6407793B2 (ja) 2015-05-07 2018-10-17 株式会社テイユウゴトウ 頭部装着表示装置
JP6443261B2 (ja) 2015-08-03 2018-12-26 三菱電機ビルテクノサービス株式会社 ホームエレベータの利用者救出システムおよび利用者救出方法
EP3667398A1 (en) * 2016-01-20 2020-06-17 Canon Kabushiki Kaisha Head mounted device
US10054503B2 (en) 2016-03-11 2018-08-21 Microsoft Technology Licensing, Llc Force sensor
US10359806B2 (en) 2016-03-28 2019-07-23 Sony Interactive Entertainment Inc. Pressure sensing to identify fitness and comfort of virtual reality headset
WO2017190071A1 (en) * 2016-04-30 2017-11-02 Envision Diagnostics, Inc. Medical devices, systems, and methods for performing eye exams using displays comprising mems scanning mirrors
US9851267B1 (en) 2016-06-01 2017-12-26 Microsoft Technology Licensing, Llc Force-sensing element
JP7385993B2 (ja) 2016-06-20 2023-11-24 マジック リープ, インコーポレイテッド 視覚的処理および知覚の疾患を含む神経学的疾患の評価および修正のための拡張現実ディスプレイシステム
KR101857357B1 (ko) 2016-08-09 2018-05-14 서울대학교산학협력단 바이오센서 및 이를 이용한 목표물질 검출방법
US10488830B2 (en) 2016-08-10 2019-11-26 Intel Corporation Automatic adjustment of head mounted display straps
CN108108011A (zh) * 2016-11-24 2018-06-01 京东方科技集团股份有限公司 一种虚拟现实一体机
CN108345109B (zh) * 2017-01-25 2020-09-01 研能科技股份有限公司 头戴式虚拟实境显示装置
US10726814B2 (en) * 2017-01-27 2020-07-28 Canon Kabushiki Kaisha Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
US11048093B2 (en) * 2017-02-22 2021-06-29 Htc Corporation Head-mounted display device
KR102441686B1 (ko) * 2017-04-19 2022-09-13 삼성전자주식회사 머리 착용형 장치
US10739600B1 (en) * 2017-05-19 2020-08-11 Facebook Technologies, Llc Malleable facial interface for head mounted displays
WO2018230790A1 (ko) * 2017-06-13 2018-12-20 주식회사 비햅틱스 헤드 마운티드 디스플레이
US10045449B1 (en) * 2017-06-29 2018-08-07 Oculus Vr, Llc Adjustable facial-interface systems for head-mounted displays
US10496130B1 (en) * 2017-07-18 2019-12-03 Facebook Technologies, Llc Adjustable facial-interface systems for head-mounted displays
US10761567B2 (en) * 2017-08-04 2020-09-01 Facebook Technologies, Llc Removable facial interface for head-mount display
US10459237B2 (en) * 2018-02-01 2019-10-29 Dell Products L.P. System, head mounted device (HMD) and method for adjusting a position of an HMD worn by a user
US11093208B2 (en) * 2018-02-16 2021-08-17 Valve Corporation Using detected pupil location to align optical components of a head-mounted display
CN108152969B (zh) 2018-03-06 2024-03-29 深圳创维新世界科技有限公司 软质眼罩及虚拟现实头戴显示设备
CN207908803U (zh) 2018-03-08 2018-09-25 常州信息职业技术学院 一种用于虚拟现实眼罩的可调式鼻梁支撑机构
CN108508611B (zh) 2018-06-22 2020-11-24 台州创兴环保科技有限公司 一种居家用可调节vr眼镜
US10499044B1 (en) * 2019-05-13 2019-12-03 Athanos, Inc. Movable display for viewing and interacting with computer generated environments
JP2022144581A (ja) * 2021-03-19 2022-10-03 セイコーエプソン株式会社 表示システム、表示装置及び表示装置の制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074798A (ja) 2005-09-05 2006-03-16 Olympus Corp 頭部装着型表示装置

Also Published As

Publication number Publication date
CN211826722U (zh) 2020-10-30
CN113330353A (zh) 2021-08-31
CN113330353B (zh) 2023-07-28
US11762421B2 (en) 2023-09-19
JP2024109611A (ja) 2024-08-14
US20200233453A1 (en) 2020-07-23
KR102707593B1 (ko) 2024-09-19
WO2020150189A3 (en) 2020-09-24
KR20210102964A (ko) 2021-08-20
EP4012483A1 (en) 2022-06-15
KR20240145023A (ko) 2024-10-04
JP2023109859A (ja) 2023-08-08
EP3894939B1 (en) 2024-06-19
CN116819782A (zh) 2023-09-29
EP3894939A2 (en) 2021-10-20
JP2022518213A (ja) 2022-03-14
US20230333595A1 (en) 2023-10-19
EP4382993A3 (en) 2024-09-11
WO2020150189A2 (en) 2020-07-23
EP4382993A2 (en) 2024-06-12

Similar Documents

Publication Publication Date Title
JP7483099B2 (ja) ヘッドマウントディスプレイ及びその顔インタフェース
US11822091B2 (en) Head-mounted device with tension adjustment
JP6872646B2 (ja) ヘッドマウントディスプレイ用の顔面シール
US11762206B2 (en) Head-mounted display unit with adaptable facial interface
US11740475B2 (en) Head-mounted display with facial interface for sensing physiological conditions
US11768379B2 (en) Electronic device with facial sensors
JP7202482B2 (ja) ヘッドマウントディスプレイ用の調節機構
US20210373592A1 (en) Optical Module With Conformable Portion
US11733529B1 (en) Load-distributing headband for head-mounted device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430

R150 Certificate of patent or registration of utility model

Ref document number: 7483099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150