JP6992094B2 - 切替え可能な仮想現実および拡張現実デバイス - Google Patents

切替え可能な仮想現実および拡張現実デバイス Download PDF

Info

Publication number
JP6992094B2
JP6992094B2 JP2019565947A JP2019565947A JP6992094B2 JP 6992094 B2 JP6992094 B2 JP 6992094B2 JP 2019565947 A JP2019565947 A JP 2019565947A JP 2019565947 A JP2019565947 A JP 2019565947A JP 6992094 B2 JP6992094 B2 JP 6992094B2
Authority
JP
Japan
Prior art keywords
assembly
viewport
computing device
configuration
chamber
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019565947A
Other languages
English (en)
Other versions
JP2020533658A (ja
Inventor
グーセンス,エリック・ヒューバート・ドリー
コーンゴールド,ジュースト
ベナビデス・パロス,ゼイビア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020533658A publication Critical patent/JP2020533658A/ja
Application granted granted Critical
Publication of JP6992094B2 publication Critical patent/JP6992094B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. three-dimensional [3D] slide viewers
    • G02B30/37Collapsible stereoscopes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0156Head-up displays characterised by mechanical features with movable elements with optionally usable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0161Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Set Structure (AREA)

Description

関連出願との相互参照
本願は、2017年9月11日に出願された米国出願第62/556,860号の優先権を主張する。当該出願の開示はその全体がここに引用により援用される。
背景
さまざまなタイプのシステムが、ユーザのための没入型環境を生成することができる。たとえば、仮想現実(virtual reality:VR)システムは、ユーザのための没入型仮想環境を生成する。没入型仮想環境は3次元(3D)であってもよく、ユーザが対話し得る複数の仮想オブジェクトを含んでいてもよい。別の例として、拡張現実(augmented reality:AR)システムは、ユーザのための没入型拡張環境を生成する。没入型拡張環境は、現実世界のユーザの視野にコンピュータ生成画像を重ね合わせることによって生成され得る。
ユーザは、たとえば、ユーザがディスプレイを見る際に眺めるディスプレイ、眼鏡、またはゴーグルを含むヘルメットもしくは他の頭部装着型デバイスなどのさまざまなディスプレイデバイスを介して、これらの没入型環境を体験することができる。
ユーザは、さまざまなやり方で没入型環境と対話してもよい。たとえば、ユーザは、没入型環境と対話するために手の動きを使用してもよい。ユーザはまた、没入型環境と対話するためにコントローラを操作してもよい。
概要
この開示は、仮想現実環境および拡張現実環境のための切替え可能なビューイングアセンブリに関する。少なくともいくつかの実現化例では、切替え可能なビューイングアセンブリを拡張現実構成から仮想現実構成へ切替えるために、切替え可能なビューイングアセンブリのコンポーネントの位置を変えることができる。
一局面は、折畳まれたシート状の材料から形成されたハンドルと、ハンドルに結合され、コンピューティングデバイスを保持するように構成され、折畳まれたシート状の材料から形成されたデバイスチャンバと、折畳まれたシート状の材料から少なくとも部分的に形成されたビューポートアセンブリと、デバイスチャンバをビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含む、デバイスである。
別の局面は、コンピューティングデバイスと、切替え可能なビューイングアセンブリとを含む、システムであって、切替え可能なビューイングアセンブリは、ハンドルと、ハンドルに結合され、コンピューティングデバイスを保持するように構成されたデバイスチャンバと、ビューポートアセンブリと、デバイスチャンバをビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含む、システムである。
さらに別の局面は、折畳まれたシート状の材料から形成されたハンドルと、ハンドルに結合され、折畳まれたシート状の材料から形成されたデバイスチャンバと、折畳まれたシート状の材料から少なくとも部分的に形成されたビューポートアセンブリと、デバイスチャンバをビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含む、デバイスであって、ヒンジアセンブリは、仮想現実構成と拡張現実構成との間でデバイスを調節するために動作可能であり、デバイスチャンバに保持されたコンピューティングデバイスのディスプレイは、仮想現実構成ではビューポートアセンブリを通して見え、拡張現実構成ではビューポートアセンブリなしで見える、デバイスである。
1つ以上の実現化例の詳細を、添付図面および以下の説明において述べる。他の特徴は、説明および図面から、ならびに請求項から明らかになるであろう。
例示的な一実現化例に従ったシステムを示すブロック図である。 図1の切替え可能に変化する現実デバイスの一実現化例の概略図である。 ここに説明されるような実現化例に従った、VR構成で配置された図2の切替え可能に変化する現実システムの一実現化例の図である。 ここに説明されるような実現化例に従った、VR構成で配置された図2の切替え可能に変化する現実システムの一実現化例の図である。 ここに説明されるような実現化例に従った、VR構成で配置された図2の切替え可能に変化する現実システムの一実現化例の図である。 ここに説明されるような実現化例に従った、VR構成で配置された図2の切替え可能に変化する現実システムの一実現化例の図である。 ユーザが切替え可能なビューアセンブリをVR構成からAR構成へ切替えている際の、図3A~3Dの変化する現実システムの側面図である。 ユーザが切替え可能なビューアセンブリをVR構成からAR構成へ引き続き切替えている際の、図3A~3Dの変化する現実システムの側面図である。 AR構成で配置された図3A~3Dの例示的な切替え可能に変化する現実システムの図である。 AR構成で配置された図3A~3Dの例示的な切替え可能に変化する現実システムの図である。 ユーザが図3A~3Dの切替え可能なビューイングアセンブリを収容された構成へ変換していることを示す図である。 ユーザが図3A~3Dの切替え可能なビューイングアセンブリを収容された構成へ変換していることを示す図である。 ユーザが図3A~3Dの切替え可能なビューイングアセンブリを収容された構成へ変換していることを示す図である。 ユーザが図3A~3Dの切替え可能なビューイングアセンブリを収容された構成へ変換していることを示す図である。 VR構成で配置された図2の切替え可能に変化する現実システムの一実現化例の概略図である。 VR構成で配置された図2の切替え可能に変化する現実システムの一実現化例の概略図である。 VR構成で配置された図2の切替え可能に変化する現実システムの一実現化例の概略図である。 AR構成で配置された図7A~7Cの例示的な切替え可能に変化する現実システムの概略図である。 AR構成で配置された図7A~7Cの例示的な切替え可能に変化する現実システムの概略図である。 AR構成で配置された図7A~7Cの例示的な切替え可能に変化する現実システムの概略図である。 AR構成で配置された図7A~7Cの例示的な切替え可能に変化する現実システムの概略図である。 シート状の材料としての、図2の切替え可能に変化する現実システムの一実現化例の部分の概略図である。 ここに説明される手法を実現するために使用され得るコンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す図である。
詳細な説明
添付図面に例が示されたこの開示の非限定的な例を、以下に詳細に参照する。これらの例は、同じ参照番号が同じ要素を指す図面を参照することによって以下に説明される。同じ参照番号が示される場合、対応する説明は繰り返されない。また、関心のある読者は、同じ要素の説明について、前に説明された図を参照する。
この開示は、他のVRヘッドセット実現化例と比べて比較的低コストでユーザに提供され得る仮想現実(VR)ヘッドセットまたは拡張現実(AR)ビューアとして使用され得る切替え可能に変化する現実デバイスを含む、切替え可能に変化する現実システムに向けられる。このシステムは、スマートフォン、タブレットなどといった、ディスプレイパネルを含む電子デバイスを含んでいてもよい。電子デバイス上で、VRおよび/またはARアプリケーションもしくはコンテンツが実行され得る。電子デバイスは、切替え可能に変化する現実デバイスに挿入され、その内部で固定されてもよい。ユーザは次に、切替え可能に変化する現実デバイスを使用して電子デバイスのディスプレイパネル上に表示された、VRおよび/またはARアプリケーションもしくはコンテンツに関連付けられた(によって作成された)画像を見て、そのコンテンツを(たとえば仮想3次元ビューにおける)仮想現実コンテンツ、または(たとえば現実世界のユーザのビューに重なるコンピュータ生成画像としての)拡張現実コンテンツとして体験することができる。たとえば、仮想現実環境は、没入型の3次元コンピュータ生成環境であってもよい。いくつかの実現化例では、仮想現実環境は、デバイスのユーザの周囲の物理的環境からのコンテンツを含まない。たとえば、仮想現実環境は、切替え可能に変化する現実デバイスのカメラアセンブリによって取込まれた画像または映像コンテンツを含まないかもしれない。拡張現実環境は、コンピュータ生成コンテンツと、システムの周囲の物理的環境からのコンテンツとの組合せを含む。たとえば、拡張現実環境は、周囲環境からの物理的エンティティをコンピュータ生成環境に組込んでもよい。別の例として、拡張現実環境は、切替え可能に変化する現実デバイスのカメラアセンブリを用いて取込まれた画像または映像コンテンツの上にコンピュータ生成コンテンツを重ねてもよい。
少なくともいくつかの実現化例では、システムは、VRモードで構成された場合、奥行きを伝えるために異なる画像および/または映像がユーザの目の各々に示される立体的表示を含む。ARモードで構成された場合、システムは、ユーザが両目で同時に見ることができる画像を示す非立体的表示を含んでいてもよい。たとえば、いくつかの実現化例では、システムは、電子デバイスのカメラを用いて取込まれた周囲の物理的環境の写真または映像の上にコンテンツを重ねる。切替え可能に変化する現実デバイスは、1つ以上のシート状のボール紙、紙、硬質シートプラスチックまたはシートメタルで作られてもよく、VRモードとARモードとの間の再構成を可能にする1つ以上のヒンジを含んでいてもよい。ヒンジは、穿孔、刻み目(たとえば表面に切込まれた線)、または折り目を用いてシート状の材料内に形成されてもよい。
図1は、例示的な一実現化例に従ったシステム100を示すブロック図である。システム100は、システム100のユーザのためのAR環境またはVR環境といった変化する現実環境を生成する。いくつかの実現化例では、システム100は、コンピューティングデバイス102と、切替え可能に変化する現実デバイス13と、AR/VRコンテンツソース106とを含む。また、ネットワーク108も示されており、それを通してコンピューティングデバイス102はAR/VRコンテンツソース106と通信し得る。
いくつかの実現化例では、コンピューティングデバイス102は、AR/VRコンテンツをユーザに提供または出力するように構成され得るモバイルデバイス(たとえばスマートフォン)である。コンピューティングデバイス102は、メモリ110と、プロセッサアセンブリ112と、ディスプレイ114と、通信モジュール116と、センサシステム118とを含んでいてもよい。メモリ110は、AR/VRアプリケーション120と、モード判定モジュール122と、AR/VRコンテンツ124とを含んでいてもよい。コンピューティングデバイス102はまた、無線通信プロトコルを使用してコンピューティングデバイス102と通信するハンドヘルド電子デバイスといった、さまざまなユーザ入力コンポーネント(図示せず)を含んでいてもよい。
メモリ110は、1つ以上の非一時的コンピュータ読取可能記憶媒体を含み得る。メモリ110は、ユーザのための没入型環境を生成するために使用可能な命令およびデータを格納してもよい。
プロセッサアセンブリ112は、変化する現実環境の生成、システムが動作するモード(たとえばVRモードまたはARモード)の判定といったさまざまなタスクを行なうために、メモリ110によって格納された命令などの命令を実行することができる1つ以上のデバイスを含む。たとえば、プロセッサアセンブリ112は、中央処理装置(central processing unit:CPU)および/またはグラフィック処理装置(graphics processor unit:GPU)を含んでいてもよい。たとえば、GPUが存在する場合、変化する現実環境の生成に関連付けられたいくつかの画像または映像レンダリングタスクが、CPUからGPUへオフロードされてもよい。
ディスプレイ114は、たとえば、LCD(liquid crystal display:液晶ディスプレイ)スクリーン、OLED(organic light emitting diode:有機発光ダイオード)スクリーン、タッチスクリーン、もしくは、画像または情報をユーザへ表示するための任意の他のスクリーンまたはディスプレイを含んでいてもよい。
通信モジュール116は、AR/VRコンテンツソース106といった他のコンピューティングデバイスと通信するための1つ以上のデバイスを含む。通信モジュール116は、無線または有線ネットワークを介して通信してもよい。
センサシステム118は、慣性運動ユニット(inertial motion unit:IMU)126と、カメラアセンブリ127と、近接感知アセンブリ128とを含む、さまざまなセンサを含んでいてもよい。センサシステム118の実現化例はまた、たとえば、光センサ、音声センサ、画像センサ、容量性センサなどの接触センサ、タイマー、および/または他のセンサ、および/またはセンサの異なる組合せを含む、異なるタイプのセンサを含んでいてもよい。
IMU126は、コンピューティングデバイス102の運動、動き、および/または加速を検出する。IMU126は、たとえば加速度計、ジャイロスコープ、磁力計、および他のそのようなセンサといった、さまざまなタイプのセンサを含んでいてもよい。コンピューティングデバイス102の位置および配向は、IMU126に含まれるセンサによって提供されるデータに基づいて検出され追跡されてもよい。コンピューティングデバイス102の検出された位置および配向は、システムが次にユーザの注視方向および/または頭の動きを検出して追跡できるようにしてもよい。
カメラアセンブリ127は、画像を取込むために光学センサを使用する1つ以上のカメラを含んでいてもよい。カメラアセンブリはまた、コンピューティングデバイス102の表面に配置された1つ以上のレンズを含んでいてもよい。カメラアセンブリ127はまた、コンピューティングデバイス102の周りの環境の一連の画像(たとえば映像)を取込んでもよい。これらの画像または映像は、たとえば、コンピューティングデバイス102のユーザのためのAR環境を生成するために使用されてもよい。
近接感知アセンブリ128は、オブジェクトがコンピューティングデバイス102の正面の予め定められた近傍内(たとえば10mm(0.4インチ)、20mm(0.8インチ)、25.4mm(1インチ)、30mm(1.2インチ)、50.8mm(2インチ)、152.4mm(6インチ)以内)にあるかどうかを検出してもよい。たとえば、近接感知アセンブリ128は、コンピューティングデバイス102がいつユーザの顔の近くで保持されているかを判定するために使用可能であってもよい。それに加えて、またはそれに代えて、近接感知アセンブリ128は、コンピューティングデバイス102の前に位置付けられたオブジェクトまでの距離を判定してもよい。いくつかの実現化例では、近接感知アセンブリ128は、赤外線放射源と赤外線受信機とを含んでいてもよい。赤外線受信機は、赤外線放射源によって放出され、次に外部オブジェクトによって反射された赤外線を受信する。受信信号の強度または受信信号の位相シフトに基づいて、コンピューティングデバイス102の前に位置付けられたオブジェクトの存在および/または当該オブジェクトまでの距離が判定されてもよい。
AR/VRアプリケーション120は、ディスプレイ114、スピーカー(図示せず)、および/または他の出力デバイスといった、コンピューティングデバイス102の1つ以上の出力デバイスを介して、変化する現実環境を生成してユーザへ提示してもよい。いくつかの実現化例では、AR/VRアプリケーション120は、プロセッサアセンブリ112によって実行されるとプロセッサアセンブリ112にここに説明される動作を行なわせる、メモリ110に格納された命令を含む。たとえば、AR/VRアプリケーション120は、たとえばAR/VRコンテンツ124、および/または、AR/VRコンテンツソース106から受信されたAR/VRコンテンツなどのAR/VRコンテンツに基づいて、拡張現実環境を生成してユーザへ提示してもよい。AR/VRコンテンツ124は、ディスプレイ114上での表示用の画像または映像としてレンダリングされ得る3Dシーンを含んでいてもよい。たとえば、3Dシーンは、多角形メッシュとして表わされる1つ以上のオブジェクトを含み得る。多角形メッシュは、色や画像などのさまざまな表面テクスチャに関連付けられてもよい。3Dシーンはまた、たとえば、3Dシーンをレンダリングする際に使用される光源といった他の情報を含んでいてもよい。
AR/VRアプリケーション120は、ARコンテンツまたはVRコンテンツの生成を選択するためにモード判定モジュール122を使用してもよい。いくつかの実現化例では、モード判定モジュール122は、プロセッサアセンブリ112によって実行されるとプロセッサアセンブリ112にここに説明される動作を行なわせる、メモリ110に格納された命令を含む。いくつかの実現化例では、モード判定モジュール122は、近接感知アセンブリ128からの信号に基づいてモードを判定する。たとえば、コンピューティングデバイス102の正面の近傍にオブジェクトが存在する場合、モード判定モジュール122はVRモードを選択するようになり、一方、コンピューティングデバイス102の正面の近傍にオブジェクトが存在しない場合、モード判定モジュール122はARモードを選択するようになってもよい。
AR/VRアプリケーション120は、センサシステム118のIMU126および/または他のコンポーネントから受信された入力に基づいてAR/VR環境を更新してもよい。たとえば、IMU126は、コンピューティングデバイス102および/またはディスプレイ114の運動、動き、および/または加速を検出してもよい。IMU126は、たとえば加速度計、ジャイロスコープ、磁力計、および他のそのようなセンサといった、さまざまな異なるタイプのセンサを含んでいてもよい。コンピューティングデバイス102の位置および配向は、IMU126に含まれるセンサによって提供されるデータに基づいて検出され追跡されてもよい。コンピューティングデバイス102の検出された位置および配向は、システムが次にユーザの注視方向および頭の動きを検出して追跡できるようにしてもよい。検出された注視方向および頭の動きに基づいて、AR/VRアプリケーション120は、環境内でのユーザの変更された配向および/または位置を反映するようにAR/VR環境を更新してもよい。
図1ではコンピューティングデバイス102と切替え可能に変化する現実デバイス130とは別々のデバイスとして示されているが、いくつかの実現化例では、コンピューティングデバイス102は、切替え可能に変化する現実デバイス130を含んでいてもよい。
AR/VRコンテンツソース106はAR/VRコンテンツを生成して出力してもよく、それは、ネットワーク108を介して、コンピューティングデバイス102などの1つ以上のコンピューティングデバイスへ配信または送信されてもよい。例示的な一実現化例では、AR/VRコンテンツは、3次元シーンおよび/または画像を含む。加えて、AR/VRコンテンツは、1つ以上のコンピューティングデバイスへストリーミングまたは配信される音声/映像信号を含んでいてもよい。AR/VRコンテンツはまた、3Dシーン、音声信号、および/または映像信号を生成するために、ならびに、没入型環境との手による対話を処理するためにコンピューティングデバイス102上で実行されるAR/VRアプリケーションを含んでいてもよい。例示的な一実現化例によれば、仮想現実(VR)は、少なくともいくつかの場合、現実世界もしくは想像上の世界または環境における場所で環境または物理的存在をさまざまな程度で複製またはシミュレートすることによって、没入型環境を生成してもよい。拡張現実(AR)は、少なくともいくつかの場合、現実世界のユーザの視野にコンピュータ生成画像を重ねることによって、変化する現実環境を生成してもよい。
ネットワーク108は、インターネット、ローカルエリアネットワーク(local area network:LAN)、無線ローカルエリアネットワーク(wireless local area network:WLAN)、および/または任意の他のネットワークであってもよい。コンピューティングデバイス102は、たとえば、ネットワーク108を介して音声/映像信号を受信してもよく、それらは、例示的な一実現化例ではVRコンテンツの一部として提供されてもよい。
図2は、切替え可能に変化する現実デバイス130の一実現化例の概略図である。この例では、切替え可能に変化する現実デバイス130は、ハンドル140と、デバイスチャンバ150と、ヒンジ160と、ビューポートアセンブリ170とを含む。いくつかの実現化例では、ハンドル140と、デバイスチャンバ150と、ヒンジ160と、ビューポートアセンブリ170とは、1つ以上の折畳まれたシート状の材料(たとえばボール紙)から形成されてもよい。いくつかの実現化例では、ビューポートアセンブリ170は、折畳まれたシート状の材料に挿入された、プラスティックレンズなどの他のタイプの材料から形成された他のコンポーネントを含んでいてもよい。
いくつかの実現化例では、ハンドル140は、ユーザによって保持されるようにサイズ決めされた、硬質で長方形の構造である。ユーザは、切替え可能に変化する現実デバイス130を位置付けるためにハンドル140を使用してもよい。たとえば、VRモードでは、ユーザは、ビューポートアセンブリ170を直接のぞき込むように切替え可能に変化する現実デバイス130を位置付けるためにハンドル140を使用してもよい。ARモードでは、ユーザは、離れたところからデバイスチャンバ150を見ることができるように切替え可能に変化する現実デバイス130を前方に離して位置付けるためにハンドル140を使用してもよい。ハンドル140は、長方形形状になるよう折畳まれるか巻かれるシート状の材料から形成されてもよい。ハンドル140はまた、成形された金属またはプラスチック、もしくは押出し成形された金属またはプラスチックなどの中実または中空材料から形成されてもよい。
デバイスチャンバ150は、コンピューティングデバイス102などのコンピューティングデバイスを保持するように構成されてもよい。デバイスチャンバ150は、1つ以上のシート状の材料を直角プリズム形状になるよう折畳むことによって形成されてもよい。デバイスチャンバ150のいくつかの実現化例は、コンピューティングデバイスが挿入され得るスロットを含んでいてもよい。デバイスチャンバ150のいくつかの実現化例は、チャンバにアクセスしてコンピューティングデバイスを挿入するために取外し可能に開閉され得るフラップを含む。いくつかの実現化例では、デバイスチャンバ150は、切替え可能に変化する現実デバイス130がハンドル140を介して動かされる際のデバイスチャンバ150内でのコンピューティングデバイスの動きを防止するかまたは減少させるように、コンピューティングデバイスをしっかり保持するように構成される。いくつかの実現化例では、デバイスチャンバ150は、特定のタイプのコンピューティングデバイスにフィットするようにサイズ決めされた挿入物を含む。たとえば、一般的な携帯電話モデル用に、いくつかの異なる挿入物が利用可能であってもよい。これらの挿入物は、使用されるデバイスチャンバ150が、コンピューティングデバイスのいくつかの異なるモデルをしっかり保持することを可能にし得る。デバイスチャンバ150は、コンピューティングデバイスのディスプレイが見え得るビューパネルを含んでいてもよい。
ヒンジ160は、ビューポートアセンブリ170をデバイスチャンバ150に枢動可能に接続してもよい。たとえば、ヒンジ160は、繰り返される回動運動を可能にしてもよい。いくつかの実現化例では、ヒンジ160は、折り目、刻み目、または穿孔のうちの1つ以上が追加された、シート状の材料の領域である。いくつかの実現化例では、ユーザは、ヒンジ160を中心としてビューポートアセンブリ170を(たとえばデバイスチャンバ150から離れた)第1の位置から(デバイスチャンバ150に近い)第2の位置へ回転させることによって、ARモードからVRモードへ切替えることができる。
ビューポートアセンブリ170は、ユーザの顔に当たって保持されるように構成されてもよい。たとえば、ビューポートアセンブリ170は、ユーザの顔に当たってフィットするような輪郭を有していてもよい。いくつかの実現化例では、ビューポートアセンブリ170は、デバイスチャンバ150に含まれるコンピューティングデバイスのディスプレイ上の立体的コンテンツを見る際の3次元知覚を向上させるように構成される。たとえば、ビューポートアセンブリ170は、ユーザの各々の目からの視野を立体的コンテンツの特定の部分に限定するレンズまたは仕切りを含んでいてもよい。たとえば、立体的コンテンツは、左目画像部分と右目画像部分とを含んでいてもよい。左目画像部分と右目画像とは、対応する目で見たときに3次元コンテンツの知覚を生じさせるために視差がシミュレートされるように、シーンの若干異なるビューを含んでいてもよい。ビューポートアセンブリ170はまた、環境からの光がユーザの両目に達することを防止するかまたは減少させるために目隠しを含んでいてもよい。上述のように、ARモードで使用される場合、ビューポートアセンブリ170は、それがデバイスチャンバ150内に含まれるコンピューティングデバイスのディスプレイをユーザが見ることを邪魔しないように、ヒンジ160を中心としてハンドル140の近くの下方位置へ枢動してもよい。
図3A~3Dは、VR構成で配置された例示的な切替え可能に変化する現実システム200の図である。図3Aは、切替え可能に変化する現実システム200の斜視図を示す。いくつかの実現化例では、切替え可能に変化する現実システム200は、仮想現実構成と拡張現実構成とを切替えることができる。仮想現実構成では、切替え可能に変化する現実システム200は、仮想現実ヘッドセットとして動作してもよい。拡張現実構成では、切替え可能に変化する現実システム200は、拡張現実ビューアとして動作してもよい。
いくつかの実現化例では、切替え可能に変化する現実システム200は、切替え可能なビューイングアセンブリ230と、コンピューティングデバイス202とを含む。切替え可能なビューイングアセンブリ230は、切替え可能に変化する現実デバイス130の一例であり、コンピューティングデバイス202は、コンピューティングデバイス102の一例である。
切替え可能なビューイングアセンブリ230は、仮想現実構成と拡張現実構成とを切替えるように再構成可能であってもよい。少なくともいくつかの実現化例では、切替え可能なビューイングアセンブリ230は、主として1つ以上の折畳まれたシート状のボール紙または別の材料から形成される。
切替え可能なビューイングアセンブリ230のいくつかの実現化例は、ハンドル240と、デバイスチャンバ250と、ビューポートアセンブリ270とを含む。ハンドル240は、切替え可能なビューイングアセンブリ230の底から延在する長方形形状を有していてもよい。ハンドル240は、三角形、正方形、長方形、または台形形状の断面を有していてもよく、それは、ユーザの手に快適にフィットするようにサイズ決めされてもよい。
いくつかの実現化例では、ハンドル240は、VR構成で使用される際にユーザの顔に対向するパネルといった、デバイスチャンバ250のパネルに取付けられる。デバイスチャンバ250は、コンピューティングデバイス202を保持するための内部チャンバを含んでいてもよい。いくつかの実現化例では、デバイスチャンバ250は、コンピューティングデバイス202が挿入または取外され得る側にスロットを有する。デバイスチャンバは、ディスプレイがビューポートアセンブリ270に向かって、かつハンドル240とは反対側に配向されるように配向されたコンピューティングデバイス202を受けるように構成されてもよい。デバイスチャンバ250は、コンピューティングデバイス202のディスプレイが見え得るビューパネル252を含んでいてもよい。加えて、ビューパネル252は、コンピューティングデバイス202をデバイスチャンバ250に固定するのを助けてもよい。ビューパネル252は、ベルクロ(登録商標)ブランドの留め具閉止システムのパッチといった解放可能な留め具(図示せず)を用いてデバイスチャンバ250に固定されてもよい。
ビューポートアセンブリ270は、ヒンジ260を用いてデバイスチャンバ250に接続されてもよい。ヒンジ260は、シート状のボール紙または別の材料に沿った、刻み目や折り目が付けられた線、または穿孔された線を含んでいてもよい。たとえば、ビューポートアセンブリ270は、デバイスチャンバ250に枢動可能に接続されてもよい。いくつかの実現化例では、ビューポートアセンブリ270は、デバイスチャンバ250に回転可能に接続される。ヒンジ260は、ビューポートアセンブリ270がヒンジ260を中心として(図3Aに示すような)上昇位置へ、または(図5Aおよび図5Bに示すようにビューパネル252を露出させる)下降位置へ枢動することを可能にしてもよい。ビューポートアセンブリ270の実現化例は、ビューポートアセンブリ270の位置(たとえば、ビューポートアセンブリ270が上昇位置にあるか、または下降位置にあるか)を判定するためにコンピューティングデバイス202の近接感知アセンブリとともに使用され得る、近接インジケータ272を含み得る。いくつかの実現化例では、コンピューティングデバイス202は、近接インジケータ272から判定されたようなビューポートアセンブリ270の位置に基づいて、VRモードとARモードとを切替える。VRモードでは、コンピューティングデバイス202は、ディスプレイを使用して(たとえば、各々の目によって見られるよう意図された、ディスプレイ上に示される2つの異なる画像が、奥行きを伝えるようにすることによって)立体的表示を提供してもよい。ARモードでは、コンピューティングデバイス202は、単一の画像がディスプレイ上に示されるようにすることによって非立体的表示を提供してもよい。
図3Bは、切替え可能に変化する現実システム200の側面図を示す。コンピューティングデバイス202は、ディスプレイに隣接して配置された近接感知アセンブリ228を含む。たとえば、近接感知アセンブリ228は、スマートフォンのディスプレイの上方に配置されてもよい。近接感知アセンブリ228は、赤外線信号などの放射信号Eを放射してもよく、近接インジケータ272から反射する放射信号Eの一部などの反射信号Rを検出してもよい。いくつかの実現化例は、近接インジケータ272の存在または位置によって発生または変更され得る反射信号Rの有無または大きさに基づいて、ビューポートアセンブリ270の位置を判定する。近接インジケータ272は取外し可能であってもよく、ベルクロなどの解放可能な留め具を用いて固定されてもよい。いくつかの実現化例では、ビューポートアセンブリ270の位置(ひいてはVR/ARモード)は、コンピューティングデバイス202のディスプレイに触れる光センサ、磁石、または容量性成分に基づいて判定される。
図3Cは、切替え可能に変化する現実システム200の背面図を示す。いくつかの実現化例では、デバイスチャンバ250は、窓256を含むバックパネル254を含む。たとえば、窓256は、バックパネル254内の開口部またはアパーチャであってもよい。窓256は、コンピューティングデバイス202のカメラアセンブリ227のレンズをふさがないようにバックパネル254に配置されてもよい。これらの実現化例では、コンピューティングデバイス202は、デバイスチャンバ250内に配置されつつ、切替え可能に変化する現実システム200に近接する環境の画像/映像を取込むことができる。これらの画像/映像は、たとえば、ARコンテンツを生成するために使用されてもよい。
切替え可能なビューイングアセンブリ230はまた、ラッチアセンブリ262を含んでいてもよい。ラッチアセンブリ262は、ビューポートアセンブリ270を上昇位置で固定してもよい。いくつかの実現化例では、ラッチアセンブリ262は、スロット264と、タブ266と、コード268(ストラップとも呼ばれ得る)とを含んでいてもよい。スロット264は、バックパネル254内の狭いアパーチャまたは開口部であってもよい。たとえば、スロット264はバックパネル254に配置されてもよく、タブ266を受けるようにサイズ決めされてもよい。タブ266は、コード268を用いてビューポートアセンブリ270に取付けられてもよい。コード268は弾性材料から形成されてもよい。たとえば、コード268はゴムバンドであってもよい。いくつかの実現化例では、タブ266がスロット264に挿入されると、ビューポートアセンブリ270は直立位置で保持される。いくつかの実現化例は、タブ266を適所に保持するための、ベルクロなどの解放可能な接着材または留め具を含む。たとえば、解放可能な留め具の部品が、バックパネル254に配置された解放可能な留め具の対応部品と接触して噛み合うように、タブ266の下側に配置されてもよい。
図3Dは、切替え可能に変化する現実システム200の正面図を示す。ビューポートアセンブリ270は、目隠しアセンブリ274と、フロントパネル276とを含む。切替え可能なビューイングアセンブリ230がユーザの顔の近くで保持されると、目隠しアセンブリ274は、一部またはすべての外部光がユーザの両目に達することを妨げるであろう。目隠しアセンブリ274は、上側目隠しパネル284と、左側目隠しパネル286と、右側目隠しパネル288とを含んでいてもよい。目隠しアセンブリ274は、ユーザの両目に達する周囲光の大きさを減少させるように構成されてもよい。たとえば、目隠しアセンブリ274は、周囲光の大きさを少なくとも50%、75%、90%、95%、98%、99%、99.9%、またはそれ以上減少させてもよい。一例として、ユーザの両目に到達する周囲光の大きさを減少させることは、ユーザの両目に向けられた光の大きさを減少させることを含んでいてもよい。
フロントパネル276はユーザの顔の近くにあるように構成されており、目アパーチャ278と鼻アパーチャ280とを含んでいてもよい。ビューポートアセンブリ270はまた、目アパーチャ278に沿って配置されたレンズ282(たとえば非球面レンズ)を含んでいてもよい。レンズ282は、コンピューティングデバイス202によって表示された画像または他のグラフィックコンテンツの拡大を提供し、または、当該画像または他のグラフィックコンテンツの知覚を他の態様で変化させてもよい。目アパーチャ278は、ユーザが立体的画像を見る際に奥行きを知覚し得るように、ユーザの各々の目のビューをコンピューティングデバイス202のディスプレイの一部に限定してもよい。
図4Aは、ユーザが切替え可能に変化する現実システム200をVR構成からAR構成へ切替えている際の、切替え可能に変化する現実システム200の側面図を示す。この図では、ユーザは、タブ266をスロット264から切り離し、ビューポートアセンブリ270がヒンジ260を中心にして下降位置へ回転することを可能にするように、タブ266に手を伸ばそうとしている。いくつかの実現化例では、タブ266の一部をバックパネル254から切り離すために、解放可能な留め具の解放しきい値を上回る力が必要とされる。
図4Bは、ユーザが切替え可能に変化する現実システム200をVR構成からAR構成へ引き続き切替えている際の、切替え可能に変化する現実システム200の側面図を示す。この図では、ユーザはすでにタブ266をスロット264から切り離し、ヒンジ260を中心にしてビューポートアセンブリ270を下降位置へ回転させ始めている。この図では、ビューポートアセンブリ270は、ヒンジ260を中心にして枢動する。
図5A~5Bは、AR構成で配置された例示的な切替え可能に変化する現実システム200の図である。図5Aは、切替え可能に変化する現実システム200の正面図を示し、図5Bは、切替え可能に変化する現実システム200の側面図を示す。見て分かるように、ビューポートアセンブリ270は下降位置にあり、コンピューティングデバイス202のディスプレイ214を見ることをもはや邪魔していない。たとえば、デバイスチャンバ250のビューパネル252を通して、ディスプレイ214が直接見えてもよい。この構成では、近接インジケータ272はもはやコンピューティングデバイス202の近接感知アセンブリ228の近くにはなく、そのため、近接インジケータ272は放射信号を近接感知アセンブリ228に反射し返さないであろう。反射信号の欠如(または他の特性)に基づいて、コンピューティングデバイス202は、ARモードで動作すると判定してもよい。ARモードでは、ディスプレイ214は、カメラアセンブリ227を通して取込まれた画像/映像にさまざまなコンピュータ生成コンテンツを重ねたものを表示してもよい。いくつかの実現化例では、(たとえば近接感知アセンブリ228からの信号に基づいた)VRモードからARモードへの切替えの判定に応答して、コンピューティングデバイス202は、立体的画像の表示から非立体的画像の表示へ切替わってもよい。
いくつかの実現化例では、ビューポートアセンブリ270を下降位置で固定するために、追加のラッチ機構が含まれる。たとえば、ラッチ機構は、タブ266がビューポートアセンブリ270をハンドル240に固定することを可能にしてもよい。
図6A~6Dは、ユーザが切替え可能なビューイングアセンブリ230を収容された構成へ変換していることを示す。図6Aでは、目隠しアセンブリ274はすでに、ヒンジ折り目290を中心として回転されている。目隠しアセンブリ274は、上側目隠しパネル284と、左側目隠しパネル286と、右側目隠しパネル288とを含んでいてもよい。いくつかの実現化例では、目隠しアセンブリ274は、タブ266から遠ざかるように、かつデバイスチャンバ250に向かって回転される。たとえば、目隠しアセンブリ274はスロット292を含んでいてもよく、それを通ってタブ266はいくつかの構成では挿入され得るが、収容された構成では取外される。スロットは、目隠しアセンブリ274の上側目隠しパネル284における狭い長方形のアパーチャであってもよい。
図6Bでは、目隠しアセンブリ274はすでに、(もはやコンピューティングデバイス202を含んでいない)デバイスチャンバ250内に収まるように折畳まれている。上側目隠しパネル284が折返され、次に右側目隠しパネル288が上側目隠しパネル284の上に折畳まれ、次に左側目隠しパネル286が右側目隠しパネル288の上に折畳まれる。図6Cでは、ビューポートアセンブリ270はすでに、ヒンジ260を中心として上昇位置へ戻るよう回転されている。しかしながら、収容された構成では、目隠しアセンブリ274が収容されているため、切替え可能なビューイングアセンブリ230が占める空間は、VR構成と比べてより小さい。図6Dでは、ビューポートアセンブリ270を上昇位置で固定するために、ラッチアセンブリ262が係合される。
いくつかの実現化例は、反射される信号の量を変化させるように近接インジケータ272を滑動させることによって、ユーザ入力を提供してもよい。この反射値は、2進値ではなく勾配値として判定されてもよい。加えて、いくつかの実現化例は、手が自然に載る入力機構を提供するために、コンピューティングデバイス202のセンサのうちのいずれかと対話するためにハンドル240に沿って配置されたゴムバンドなどのコード/ストラップを含む。たとえば、コードは、コードが引っ張られると近接インジケータ272の位置が変えられるように、近接インジケータ272に接続されてもよい。近接インジケータ272の変更された位置は、反射される信号の量を変更させ得る。信号のこの変更は、コンピューティングデバイス202の近接感知アセンブリ228によって検出され、ユーザ入力として認識されてもよい。いくつかの実現化例では、ユーザ入力に応答して、コンピューティングデバイス202は、ARまたはVR環境でエンティティを選択するか、または当該エンティティと他の態様で対話してもよい。
図7A~7Cは、VR構成で配置された例示的な切替え可能に変化する現実システム300の概略図である。図7Aは、切替え可能に変化する現実システム300の斜視図を示す。図7Bは、切替え可能に変化する現実システム300の背面図を示す。図7Cは、切替え可能に変化する現実システム300の側面斜視図を示す。
切替え可能に変化する現実システム300は、前述の切替え可能に変化する現実システム200と同様であってもよい。たとえば、切替え可能に変化する現実システム300の実現化例は、仮想現実構成と拡張現実構成とを切替えることができる。仮想現実構成では、切替え可能に変化する現実システム300は、ハンドヘルド仮想現実ヘッドセットとして動作してもよい。拡張現実構成では、切替え可能に変化する現実システム300は、拡張現実ビューアとして動作してもよい。
いくつかの実現化例では、切替え可能に変化する現実システム300は、切替え可能なビューイングアセンブリ330と、コンピューティングデバイス302とを含む。切替え可能なビューイングアセンブリ330は、切替え可能に変化する現実デバイス130の一例であり、コンピューティングデバイス302は、コンピューティングデバイス102の一例である。
切替え可能なビューイングアセンブリ330は、1つ以上の折畳まれたシート状の材料から形成されてもよい。切替え可能なビューイングアセンブリ330は、ハンドル340と、デバイスチャンバ350と、ヒンジ360と、ビューポートアセンブリ370とを含んでいてもよい。
ハンドル340は、前述のハンドル240と同様であってもよい。たとえば、ハンドル340は、ユーザの手に保持されるようにサイズ決めされてもよく、長方形形状を有していてもよい。ハンドル340は、折畳まれたシート状のボール紙などの硬質材料から形成されてもよい。いくつかの実現化例では、ハンドル340は台342を含む。台342は折畳まれたシート状の材料から形成されてもよく、切替え可能なビューイングアセンブリ330の他のコンポーネントが位置付けられ得る棚を提供するためにハンドルから外側に延在していてもよい。たとえば、いくつかの実現化例では、切替え可能なビューイングアセンブリ330が拡張現実ビューアとして構成される場合、台342は、ビューポートアセンブリ370を下降位置に位置付けて固定するために摩擦保持を支持して提供する。
デバイスチャンバ350は、前述のデバイスチャンバ250と同様であってもよい。たとえば、デバイスチャンバ350は、コンピューティングデバイス302を保持するように構成されてもよい。いくつかの実現化例では、デバイスチャンバ350は、コンピューティングデバイスの特定のモデルに特有の挿入物(図示せず)を含む。挿入物の例は、少なくとも図9に関して図示され説明される。実現化例は、コンピューティングデバイスの異なるモデル用の異なる挿入物を含んでいてもよい。これらの挿入物は、さまざまなタイプのコンピューティングデバイスをしっかり保持するために通常サイズのデバイスチャンバを作ることができるように、デバイスチャンバ350内の空間を満たし得る。挿入物はまた、コンピューティングデバイスを、デバイスチャンバ350内の所望の位置および配向に位置付け得る。
ヒンジ360およびビューポートアセンブリ370は、前述のヒンジ260およびビューポートアセンブリ270とそれぞれ同様であってもよい。この例では、ヒンジ360は、ビューポートアセンブリ370がデバイスチャンバ350に対して枢動することを可能にするように構成される。たとえば、ビューポートアセンブリ370は、仮想現実モードで使用される直立位置と、拡張現実モードで使用される下降位置との間で回転してもよい。
切替え可能なビューイングアセンブリ330はまた、ビューポートアセンブリ370を仮想現実モードで使用される直立位置でラッチするように構成されたラッチアセンブリ362を含んでいてもよい。ラッチアセンブリ362は、スロット364と、タブ366と、コード368とを含んでいてもよい。スロット364は、デバイスチャンバ350のバックパネル354におけるアパーチャであってもよい。タブ366は、コード368を用いてビューポートアセンブリ370に取付けられてもよい。いくつかの実現化例では、タブ366は、ビューポートアセンブリ370を適所に保持するためにスロット364を通って延在していてもよい。切替え可能なビューイングアセンブリ330は、タブ366をバックパネル354に固定するための解放可能な留め具(図示せず)を含んでいてもよい。いくつかの実現化例では、スロット364、タブ366、およびコード368は、前述のスロット264、タブ266、およびコード268とそれぞれ同様である。
いくつかの実現化例では、ビューポートアセンブリ370は、目隠しアセンブリ374と、目アパーチャ378および鼻アパーチャ380を有するフロントパネル376と、目アパーチャ378内に配置されたレンズ382とを含む。目隠しアセンブリ374、フロントパネル376、目アパーチャ378、鼻アパーチャ380、およびレンズ382は、前述の目隠しアセンブリ274、フロントパネル276、目アパーチャ278、鼻アパーチャ280、およびレンズ282とそれぞれ同様であってもよい。目隠しアセンブリ274と同様に、目隠しアセンブリ374は、ビューポートアセンブリ370のレンズ382をのぞいているユーザの両目に環境光が達することを妨げるかまたは減少させるために、上側目隠しパネル384と、左側目隠しパネル386と、右側目隠しパネル388とを含んでいてもよい。
いくつかの実現化例では、ビューポートアセンブリ370は、トリガーアパーチャ394と、トリガー396とを含む。トリガーアパーチャは、たとえば、ビューポートアセンブリ370の上面(または、いくつかの実現化例では、上側目隠しパネル384)に配置され、ユーザの指が通り抜けてトリガー396に達することを可能にするようにサイズ決めされてもよい。トリガー396は、シート状の材料から形成された可動部品であってもよく、作動されるとハンマーをコンピューティングデバイス302のディスプレイに接触させるように構成されてもよい。たとえば、ハンマーは、トリガーが作動されるとビューパネル352を通過するように整列されてもよい。いくつかの実現化例では、ハンマーからのディスプレイ上での接触は、タッチ感知ディスプレイ上での入力として検出される。いくつかの実現化例では、トリガー396およびハンマーは、折畳まれた材料片の構成から形成される。
図8A~8Dは、AR構成で配置された例示的な切替え可能に変化する現実システム300の概略図である。図8Aは、切替え可能に変化する現実システム300の正面図を示す。図8Bは、切替え可能に変化する現実システム300の側面図を示す。図8Cは、切替え可能に変化する現実システム300の側面斜視図を示す。図8Dは、切替え可能に変化する現実システム300の背面図を示す。
図8Aから分かるように、ビューポートアセンブリ370は、ハンドル340に当たる下方位置へ回転される。台342は、ビューポートアセンブリ370をこの位置で支持して固定してもよい。AR構成では、コンピューティングデバイス302のディスプレイ314は、デバイスチャンバ350のビューパネル352を通して見えてもよい。
いくつかの実現化例では、コンピューティングデバイス302は、ビューポートアセンブリ370上の近接インジケータ372(ここでは、ビューポートアセンブリ370の背面側のタブ)を検出する近接感知アセンブリ328を含んでいてもよい。近接インジケータ372が近接感知アセンブリ328によって検出される場合、コンピューティングデバイス302は、切替え可能なビューイングアセンブリ330がVR構成にあると判定してもよい。逆に、(たとえば、ビューポートアセンブリ370が近接感知アセンブリ328から遠ざかるように回転されたために)近接インジケータ372が近接感知アセンブリ328によって検出されない場合、コンピューティングデバイス302は、切替え可能なビューイングアセンブリ330がAR構成にあると判定してもよい。この判定に基づいて、コンピューティングデバイス302はモードも(たとえば、立体的表示を有するVRモードからARモードへ、およびその逆も同様)変更してもよい。
図9は、シート状の材料としての、例示的な切替え可能に変化する現実システム400の部分の概略図である。たとえば、図9は、シート部分402、404、406、408、410、412、414、416、418、および420を含む。これらのシート部分は、切替え可能に変化する現実システム400のコンポーネントを形成するために折畳まれてもよい。これらのコンポーネントは次に、さまざまな形態の留め具または接着材を使用して結合されてもよい。たとえば、シート部分402および408は、ハンドル340などのハンドルを形成するために折畳まれてもよい。シート部分404および406は、デバイスチャンバ350などのデバイスチャンバ内の挿入物として使用されてもよい。シート部分410は、台342と同様のハンドル上の台を形成するために折畳まれてもよい。シート部分412および418は、前述のビューポートアセンブリ370と同様のビューポートアセンブリを形成するためにシート部分420と結合されてもよい。シート部分414は、前述のデバイスチャンバ350と同様のデバイスチャンバを形成するためにシート部分420と結合されてもよい。シート部分416は、トリガー396と対応するハンマーとの前述の構成と同様のハンマーおよびトリガー構成を形成するために配置されてもよい。
図10は、ここに説明される手法を用いて使用され得るコンピュータデバイス1000およびモバイルコンピュータデバイス1050の一例を示す。コンピューティングデバイス1000は、プロセッサ1002と、メモリ1004と、記憶デバイス1006と、メモリ1004および高速拡張ポート1010に接続している高速インターフェイス1008と、低速バス1014および記憶デバイス1006に接続している低速インターフェイス1012とを含む。コンポーネント1002、1004、1006、1008、1010、および1012の各々はさまざまなバスを使用して相互接続されており、共通のマザーボード上に、または他の態様で適宜搭載され得る。プロセッサ1002は、高速インターフェイス1008に結合されたディスプレイ1016などの外部入力/出力デバイス上にGUI用グラフィック情報を表示するためにメモリ1004または記憶デバイス1006に格納された命令を含む、コンピューティングデバイス1000内で実行される命令を処理することができる。他の実現化例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数種類のメモリとともに適宜使用されてもよい。また、複数のコンピューティングデバイス1000が、各デバイスが(たとえばサーババンク、ブレードサーバ群、またはマルチプロセッサシステムとして)必要な動作の部分を提供する状態で接続されてもよい。
メモリ1004は、コンピューティングデバイス1000内の情報を格納する。一実現化例では、メモリ1004は揮発性メモリユニットである。別の実現化例では、メモリ1004は不揮発性メモリユニットである。メモリ1004はまた、磁気ディスクまたは光学ディスクといった、別の形態のコンピュータ読取可能媒体であってもよい。
記憶デバイス1006は、コンピューティングデバイス1000のための大容量ストレージを提供することができる。一実現化例では、記憶デバイス1006は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光学ディスクデバイス、またはテープデバイス、フラッシュメモリまたは他の同様のソリッドステートメモリデバイス、もしくは、ストレージエリアネットワークまたは他の構成のデバイスを含む一連のデバイスといった、コンピュータ読取可能媒体であってもよく、または当該コンピュータ読取可能媒体を含んでいてもよい。コンピュータプログラム製品が情報担体において有形に具体化され得る。コンピュータプログラム製品はまた、実行されると上述のような1つ以上の方法を行なう命令を含んでいてもよい。情報担体は、メモリ1004、記憶デバイス1006、またはプロセッサ1002上のメモリといった、コンピュータまたはマシン読取可能媒体である。
高速コントローラ1008は、コンピューティングデバイス1000のための帯域幅集約的な動作を管理し、一方、低速コントローラ1012は、より低い帯域幅集約的な動作を管理する。機能のそのような割当ては単なる例示である。一実現化例では、高速コントローラ1008は、(たとえばグラフィックスプロセッサまたはアクセラレ-タを通して)メモリ1004、ディスプレイ1016に結合され、また、さまざまな拡張カード(図示せず)を受入れ得る高速拡張ポート1010に結合される。当該実現化例では、低速コントローラ1012は、記憶デバイス1006および低速拡張ポート1014に結合される。さまざまな通信ポート(たとえばUSB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入力/出力デバイス、もしくは、スイッチまたはルータなどのネットワーキングデバイスに、たとえばネットワークアダプタを通して結合されてもよい。
コンピューティングデバイス1000は、図に示すように多くの異なる形態で実現されてもよい。たとえば、それは標準サーバ1020として、またはそのようなサーバの群で何度も実現されてもよい。それはまた、ラックサーバシステム1024の一部として実現されてもよい。加えて、それは、ラップトップコンピュータ1022などのパーソナルコンピュータで実現されてもよい。それに代えて、コンピューティングデバイス1000からのコンポーネントが、デバイス1050などのモバイルデバイス(図示せず)における他のコンポーネントと組合されてもよい。そのようなデバイスの各々はコンピューティングデバイス1000、1050のうちの1つ以上を含んでいてもよく、システム全体が、互いに通信する複数のコンピューティングデバイス1000、1050から構成されてもよい。
コンピューティングデバイス1020は、数あるコンポーネントの中でも特に、プロセッサ1052と、メモリ1064と、ディスプレイ1054などの入力/出力デバイスと、通信インターフェイス1066と、トランシーバ1068とを含む。また、デバイス1050には、追加のストレージを提供するために、マイクロドライブまたは他のデバイスなどの記憶デバイスが設けられてもよい。コンポーネント1050、1052、1064、1054、1066、および1068の各々はさまざまなバスを使用して相互接続されており、これらのコンポーネントのうちのいくつかは共通のマザーボード上に、または他の態様で適宜搭載され得る。
プロセッサ1052は、メモリ1064に格納された命令を含む、コンピューティングデバイス1020内の命令を実行することができる。プロセッサは、別々の複数のアナログプロセッサおよびデジタルプロセッサを含むチップのチップセットとして実現されてもよい。プロセッサは、たとえば、ユーザインターフェイス、デバイス1050によって実行されるアプリケーション、およびデバイス1050による無線通信の制御といった、デバイス1050の他のコンポーネントの連携を提供してもよい。
プロセッサ1052は、ディスプレイ1054に結合されたディスプレイインターフェイス1056および制御インターフェイス1058を通してユーザと通信してもよい。ディスプレイ1054は、たとえば、TFT LCD(Thin-Film-Transistor Liquid Crystal Display:薄膜トランジスタ液晶ディスプレイ)、またはOLED(有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であってもよい。ディスプレイインターフェイス1056は、グラフィック情報および他の情報をユーザに提示するようにディスプレイ1054を駆動するための適切な回路を含んでいてもよい。制御インターフェイス1058は、ユーザからコマンドを受信し、当該コマンドをプロセッサ1052に送信するために変換してもよい。加えて、デバイス1050と他のデバイスとの近接領域通信を可能にするように、プロセッサ1052と通信する外部インターフェイス1062が提供されてもよい。外部インターフェイス1062は、たとえば、いくつかの実現化例では有線通信を提供してもよく、他の実現化例では無線通信を提供してもよく、また、複数のインターフェイスが使用されてもよい。
メモリ1064は、コンピューティングデバイス1020内の情報を格納する。メモリ1064は、コンピュータ読取可能媒体、揮発性メモリユニット、または不揮発性メモリユニットのうちの1つ以上として実現され得る。拡張メモリ1074もデバイス1050に提供され、たとえばSIMM(Single In Line Memory Module:シングル・インライン・メモリ・モジュール)カードインターフェイスを含み得る拡張インターフェイス1072を通して接続されてもよい。そのような拡張メモリ1074はデバイス1050のための追加の記憶空間を提供してもよく、または、デバイス1050のためのアプリケーションまたは他の情報も格納してもよい。具体的には、拡張メモリ1074は上述のプロセスを実行または補足するための命令を含んでいてもよく、セキュアな情報も含んでいてもよい。このため、たとえば、拡張メモリ1074はデバイス1050のためのセキュリティモジュールとして提供されてもよく、デバイス1050のセキュアな使用を可能にする命令を用いてプログラムされてもよい。加えて、識別情報をハッキング不可能な態様でSIMMカード上に載せるなどして、セキュアなアプリケーションが追加情報とともにSIMMカードを介して提供されてもよい。
メモリは、以下に説明されるように、たとえばフラッシュメモリおよび/またはNVRAMメモリを含んでいてもよい。一実現化例では、コンピュータプログラム製品が情報担体において有形に具体化される。コンピュータプログラム製品は、実行されると上述のような1つ以上の方法を行なう命令を含む。情報担体は、たとえばトランシーバ1068または外部インターフェイス1062を通して受信され得る、メモリ1064、拡張メモリ1074、またはプロセッサ1052上のメモリといったコンピュータまたはマシン読取可能媒体である。
デバイス1050は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス1066を通して無線通信してもよい。通信インターフェイス1066は、とりわけ、GSM(登録商標)音声通話、SMS、EMSまたはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSといったさまざまなモードまたはプロトコル下で通信を提供してもよい。そのような通信は、たとえば無線周波数トランシーバ1068を通して生じてもよい。加えて、ブルートゥース、Wi-Fi、または他のそのようなトランシーバ(図示せず)を使用するなどして、短距離通信が生じてもよい。加えて、GPS(Global Positioning System:全地球測位システム)レシーバモジュール1070が、ナビゲーションおよび位置に関連する追加の無線データをデバイス1050に提供してもよく、当該データは、デバイス1050上で実行されるアプリケーションによって適宜使用されてもよい。
デバイス1050はまた、ユーザから口頭情報を受信してそれを使用可能なデジタル情報に変換し得る音声コーデック1060を使用して、可聴的に通信してもよい。音声コーデック1060も同様に、たとえばデバイス1050のハンドセットにおいて、スピーカなどを通してユーザのために可聴音を生成してもよい。そのような音は、音声電話からの音を含んでいてもよく、録音された音(たとえば音声メッセージ、音楽ファイルなど)を含んでいてもよく、また、デバイス1050上で動作するアプリケーションによって生成された音を含んでいてもよい。
コンピューティングデバイス1020は、図に示すように多くの異なる形態で実現されてもよい。たとえば、それは携帯電話1080として実現されてもよい。それはまた、スマートフォン1082、携帯情報端末、または他の同様のモバイルデバイスの一部として実現されてもよい。
ここに説明されるシステムおよび手法のさまざまな実現化例は、デジタル電子回路、集積回路、特別に設計されたASIC(application specific integrated circuit:特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せで実現され得る。これらのさまざまな実現化例は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能である1つ以上のコンピュータプログラムにおける実現化例を含んでいてもよく、当該プロセッサは専用であっても汎用であってもよく、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスとの間でデータおよび命令を送受信するように結合されてもよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られる)はプログラマブルプロセッサのためのマシン命令を含んでおり、高レベルの手続き型および/またはオブジェクト指向型プログラミング言語で、ならびに/もしくはアセンブリ/マシン言語で実現され得る。ここで使用される「マシン読取可能媒体」、「コンピュータ読取可能媒体」という用語は、マシン命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、装置、および/またはデバイス(たとえば、磁気ディスク、光学ディスク、メモリ、プログラマブルロジックデバイス(Programmable Logic Device:PLD))を指しており、マシン命令をマシン読取可能信号として受信するマシン読取可能媒体を含む。「マシン読取可能信号」という用語は、マシン命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
ユーザとの対話を提供するために、ここに説明されるシステムおよび手法は、情報をユーザに表示するためのディスプレイデバイス(たとえばLCD(液晶ディスプレイ)スクリーン、OLED(有機発光ダイオード))と、ユーザがコンピュータに入力を提供する際に使用し得るキーボードおよびポインティングデバイス(たとえばマウスまたはトラックボール)とを有するコンピュータ上で実現され得る。他の種類のデバイスも、同様にユーザとの対話を提供するために使用され得る。たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(たとえば視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態で受信されてもよい。
ここに説明されるシステムおよび手法は、バックエンドコンポーネント(たとえばデータサーバ)を含む、もしくは、ミドルウェアコンポーネント(たとえばアプリケーションサーバ)を含む、もしくは、フロントエンドコンポーネント(たとえば、ここに説明されるシステムおよび手法の実現化例とユーザが対話できるようにするグラフィカルユーザインターフェイスまたはウェブブラウザを有するクライアントコンピュータ)を含む、もしくは、そのようなバックエンドコンポーネント、ミドルウェアコンポーネント、またはフロントエンドコンポーネントの任意の組合せを含む、コンピューティングシステムで実現され得る。システムのコンポーネントは、デジタルデータ通信の任意の形態または媒体(たとえば通信ネットワーク)によって相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(wide area network:WAN)、およびインターネットを含む。
コンピューティングシステムは、クライアントとサーバとを含み得る。クライアントとサーバとは一般に互いから離れており、典型的には通信ネットワークを通して対話する。クライアントとサーバとの関係は、コンピュータプログラムがそれぞれのコンピュータ上で実行され、互いにクライアント-サーバ関係を有することによって生じる。
いくつかの実現化例では、図10に示すコンピューティングデバイスは、切替え可能に変化する現実デバイス1090(すなわち、VRヘッドセット/ARビューアデバイス)の構成に基づいて適切なモードでARまたはVR環境を生成するために、デバイス1090とインターフェイス接続するセンサを含み得る。たとえば、図10に示すコンピューティングデバイス1020または他のコンピューティングデバイスに含まれる1つ以上のセンサが、デバイス1090に入力を提供するか、または概してVR/AR環境に入力を提供することができる。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、バイオメトリックセンサ、温度センサ、湿度センサ、および周囲光センサを含み得るものの、これらに限定されない。コンピューティングデバイス1020はこれらのセンサを使用して、VR/AR環境におけるコンピューティングデバイスの絶対位置および/または検出された回転を判断することができ、それは次にVR/AR環境への入力として使用され得る。たとえば、コンピューティングデバイス1020は、コントローラ、レーザポインタ、キーボード、武器などといった仮想オブジェクトとして、VR/AR環境に組込まれてもよい。VR/AR環境に組込まれた際のユーザによるコンピューティングデバイス/仮想オブジェクトの位置付けは、ユーザが、VR/AR環境において仮想オブジェクトを特定の態様で見るようにコンピューティングデバイスを位置付けることができるようにする。たとえば、仮想オブジェクトがレーザポインタを表わす場合、ユーザはコンピューティングデバイスを、それが実際のレーザポインタであるかのように操作することができる。ユーザはコンピューティングデバイスを左右、上下、円形などに動かして、レーザポインタを使用するのと同様の態様でデバイスを使用することができる。
いくつかの実現化例では、コンピューティングデバイス1020に含まれるかまたはそれに接続される1つ以上の入力デバイスが、VR/AR環境への入力として使用され得る。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイク、入力機能性を有するイヤホンまたはイヤバッド、ゲーミングコントローラ、または他の接続可能な入力デバイスを含み得るものの、それらに限定されない。コンピューティングデバイスがVR/AR環境に組込まれる際にコンピューティングデバイス1020に含まれる入力デバイスと対話するユーザは、特定のアクションがVR/AR環境で生じるようにすることができる。
いくつかの実現化例では、コンピューティングデバイス1020のタッチスクリーンは、VR/AR環境においてタッチパッドとしてレンダリングされ得る。ユーザは、コンピューティングデバイス1020のタッチスクリーンと対話することができる。対話は、たとえばデバイス1090において、VR/AR環境におけるレンダリングされたタッチパッド上の動きとしてレンダリングされる。レンダリングされた動きは、VR/AR環境において仮想オブジェクトを制御することができる。
いくつかの実現化例では、コンピューティングデバイス1020に含まれる1つ以上の出力デバイスが、VR/AR環境においてデバイス1090のユーザに出力および/またはフィードバックを提供することができる。出力およびフィードバックは、視覚的、触覚的、または音声的であり得る。出力および/またはフィードバックは、振動、1つ以上のライトまたはストロボを点灯および消灯すること、もしくは明滅および/または点滅させること、警報を鳴らすこと、チャイムを鳴らすこと、曲をかけること、ならびに音声ファイルを再生することを含み得るものの、これらに限定されない。出力デバイスは、振動モータ、振動コイル、圧電装置、静電装置、発光ダイオード(LED)、ストロボ、およびスピーカを含み得るものの、これらに限定されない。
いくつかの実現化例では、コンピューティングデバイス1020は、コンピュータにより生成される3D環境において別のオブジェクトとして現れてもよい。ユーザによるコンピューティングデバイス1020との対話(たとえば、タッチスクリーンを回転させること、振動させること、タッチスクリーンに触れること、タッチスクリーンを横切って指でスワイプすること)は、VR/AR環境におけるオブジェクトとの対話として解釈され得る。VR/AR環境におけるレーザポインタの例では、コンピューティングデバイス1020は、コンピュータにより生成される3D環境において仮想レーザポインタとして現れる。ユーザがコンピューティングデバイス1020を操作すると、VR/AR環境におけるユーザはレーザポインタの動きを見る。ユーザは、コンピューティングデバイス1020またはデバイス1090上のVR/AR環境においてコンピューティングデバイス1020との対話からのフィードバックを受信する。
いくつかの実現化例では、コンピューティングデバイス1020はタッチスクリーンを含んでいてもよい。たとえば、ユーザは、タッチスクリーン上で起こることをVR/AR環境において起こることで模倣することができる特定の態様で、タッチスクリーンと対話することができる。たとえば、ユーザは、タッチスクリーン上に表示されるコンテンツをズームするためにピンチする動きを使用してもよい。タッチスクリーン上でのこのピンチする動きにより、VR/AR環境において提供される情報がズームされるようになり得る。別の例では、コンピューティングデバイスは、コンピュータにより生成される3D環境において仮想の本としてレンダリングされてもよい。VR/AR環境では、本のページはVR/AR環境で表示可能であり、タッチスクリーンを横切るユーザの指のスワイプは仮想の本のページをめくることとして解釈され得る。各ページがめくられると、ページコンテンツの変化が見えることに加えて、ユーザには、本のページをめくる音といった音声フィードバックが提供されてもよい。
いくつかの実現化例では、コンピューティングデバイスに加えて、1つ以上の入力デバイス(たとえばマウス、キーボード)が、コンピュータにより生成される3D環境においてレンダリングされ得る。レンダリングされた入力デバイス(たとえばレンダリングされたマウス、レンダリングされたキーボード)は、VR/AR環境においてオブジェクトを制御するためにVR/AR環境においてレンダリングされるように使用され得る。
コンピューティングデバイス1000は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータを含むもののこれらに限定されない、さまざまな形態のデジタルコンピュータおよびデバイスを表わすよう意図されている。コンピューティングデバイス1020は、携帯情報端末、携帯電話、スマートフォン、および他の同様のコンピューティングデバイスといった、さまざまな形態のモバイルデバイスを表わすよう意図されている。ここに示す構成要素、それらの接続および関係、ならびにそれらの機能は単なる例示として意図されており、この文書で説明および/または請求される発明の実現化例を限定するよう意図されてはいない。
多くの実現化例が説明されてきたが、明細書の精神および範囲から逸脱することなくさまざまな変更が加えられ得ることが理解されるであろう。
加えて、図面に示す論理フローは、望ましい結果を達成するために、図示された特定の順序または連続する順序を必要とはしない。加えて、説明されたフローに他のステップが提供されてもよく、またはそこからステップが削除されてもよく、説明されたシステムに他の構成要素が追加されてもよく、またはそこから除去されてもよい。したがって、他の実現化例は特許請求の範囲内にある。
上述の実現化例のある特徴をここに記載されるように説明してきたが、当業者であれば、多くの修正、置換、変更および均等物を思い浮かべるであろう。したがって、添付された請求項は、実現化例の範囲に該当するそのような修正および変更をすべて網羅するよう意図されている、ということが理解されるはずである。それらは限定的ではなく単なる例示として提示されてきたことと、形態および詳細のさまざまな変更が加えられ得ることとが理解されるはずである。ここに説明された装置および/または方法のどの部分も、相互排他的な組合せを除き、任意の組合せで組合されてもよい。ここに説明された実現化例は、説明された異なる実現化例の機能、構成要素、および/または特徴のさまざまな組合せおよび/または下位組合せを含み得る。
以下に、いくつかの例を挙げる。
例1:折畳まれたシート状の材料から形成されたハンドルと、ハンドルに結合され、コンピューティングデバイスを保持するように構成され、折畳まれたシート状の材料から形成されたデバイスチャンバと、折畳まれたシート状の材料から少なくとも部分的に形成されたビューポートアセンブリと、デバイスチャンバをビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含む、デバイス。
例2:ヒンジアセンブリは、仮想現実構成と拡張現実構成との間でデバイスを調節するために動作可能であり、デバイスチャンバに保持されたコンピューティングデバイスのディスプレイは、仮想現実構成ではビューポートアセンブリを通して見え、拡張現実構成ではビューポートアセンブリなしで見える、例1に記載のデバイス。
例3:ヒンジアセンブリは、ビューポートアセンブリとデバイスチャンバとを接続するシート状の材料の一部を含む、例1~2のいずれか1つに記載のデバイス。
例4:ヒンジアセンブリは、シート状の材料の折り目付き領域を含む、例3に記載のデバイス。
例5:デバイスチャンバは、コンピューティングデバイスのディスプレイが見え得るビューパネルを含む、例1~4のいずれか1つに記載のデバイス。
例6:ビューポートアセンブリは、仮想現実モードで立体的コンテンツを見るためのレンズおよび目隠しアセンブリを含む、例5に記載のデバイス。
例7:仮想現実モードでは、ビューポートアセンブリのレンズは、デバイスチャンバのビューパネルと整列されている、例6に記載のデバイス。
例8:デバイスチャンバは、ビューパネルに対向する表面に配置され、コンピューティングデバイスのカメラアセンブリがデバイスチャンバの周りの環境の画像を取込むことを可能にするように構成された窓を含む、例5~7のいずれか1つに記載のデバイス。
例9:デバイスチャンバは、特定のタイプのコンピューティングデバイスをデバイスチャンバ内に位置付けて固定するようにサイズ決めされた挿入物を含む、例1~8のいずれか1項に記載のデバイス。
例10:ハンドルは、ハンドルから外側に視線方向に延在し、拡張現実構成においてビューポートアセンブリを支持して固定するように構成された台を含む、例1~9のいずれか1項に記載のデバイス。
例11:ビューポートアセンブリを直立位置でデバイスチャンバに固定するように構成されたラッチアセンブリをさらに含む、例1~10のいずれか1つに記載のデバイス。
例12:コンピューティングデバイスと、切替え可能なビューイングアセンブリとを含む、システムであって、切替え可能なビューイングアセンブリは、ハンドルと、ハンドルに結合され、コンピューティングデバイスを保持するように構成されたデバイスチャンバと、ビューポートアセンブリと、デバイスチャンバをビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含む、システム。
例13:ヒンジアセンブリは、仮想現実構成と拡張現実構成との間でデバイスを調節するために動作可能であり、コンピューティングデバイスのディスプレイは、仮想現実構成ではビューポートアセンブリを通して見え、拡張現実構成ではビューポートアセンブリなしで見える、例12に記載のシステム。
例14:コンピューティングデバイスは、ビューポートアセンブリの近接インジケータを検出するように構成された近接感知アセンブリを含む、例12または13に記載のシステム。
例15:コンピューティングデバイスは、近接感知アセンブリが近接インジケータを検出したことに基づいて、拡張現実モードから仮想現実モードへ切替わるように構成される、例14に記載のシステム。
例16:仮想現実モードでは、コンピューティングデバイスはディスプレイに立体的コンテンツを表示させる、例15に記載のシステム。
例17:コンピューティングデバイスはカメラアセンブリを含み、拡張現実モードでは、コンピューティングデバイスはディスプレイに、カメラアセンブリを用いて取込まれた画像を表示させる、例15または16に記載のシステム。
例18:折畳まれたシート状の材料から形成されたハンドルと、ハンドルに結合され、折畳まれたシート状の材料から形成されたデバイスチャンバと、折畳まれたシート状の材料から少なくとも部分的に形成されたビューポートアセンブリと、デバイスチャンバをビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含む、デバイスであって、ヒンジアセンブリは、仮想現実構成と拡張現実構成との間でデバイスを調節するために動作可能であり、デバイスチャンバに保持されたコンピューティングデバイスのディスプレイは、仮想現実構成ではビューポートアセンブリを通して見え、拡張現実構成ではビューポートアセンブリなしで見える、デバイス。
例19:ビューポートアセンブリは、トリガーが作動されることに応答して、デバイスチャンバに含まれるコンピューティングデバイスのディスプレイにハンマーを接触させるように構成された、トリガーおよびハンマー構成を含む、例18に記載のデバイス。
例20:トリガーおよびハンマー構成は、折畳まれた材料片から形成される、例19に記載のデバイス。

Claims (20)

  1. デバイスであって、
    折畳まれたシート状の材料から形成されたハンドルと、
    前記ハンドルに結合され、コンピューティングデバイスを保持するように構成され、折畳まれたシート状の材料から形成されたデバイスチャンバと、
    折畳まれたシート状の材料から少なくとも部分的に形成されたビューポートアセンブリと、
    前記デバイスチャンバを前記ビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含み、
    前記ヒンジアセンブリは、仮想現実構成と拡張現実構成との間で前記デバイスを調節するために動作可能であり、前記デバイスチャンバに保持されたコンピューティングデバイスのディスプレイは、前記仮想現実構成では前記ビューポートアセンブリを通して見え、拡張現実構成では前記ビューポートアセンブリなしで見える、デバイス。
  2. デバイスであって、
    ハンドルと、
    前記ハンドルに結合され、コンピューティングデバイスを保持するように構成され、折畳まれたシート状の材料から形成されたデバイスチャンバと、
    折畳まれたシート状の材料から少なくとも部分的に形成されたビューポートアセンブリと、
    前記デバイスチャンバを前記ビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含み、
    前記ヒンジアセンブリは、仮想現実構成と拡張現実構成との間で前記デバイスを調節するために動作可能であり、前記デバイスチャンバに保持されたコンピューティングデバイスのディスプレイは、前記仮想現実構成では前記ビューポートアセンブリを通して見え、拡張現実構成では前記ビューポートアセンブリなしで見える、デバイス。
  3. 前記ヒンジアセンブリは、前記ビューポートアセンブリと前記デバイスチャンバとを接続するシート状の材料の一部を含む、請求項1または2に記載のデバイス。
  4. 前記ヒンジアセンブリは、前記シート状の材料の折り目付き領域を含む、請求項3に記載のデバイス。
  5. 前記デバイスチャンバは、コンピューティングデバイスのディスプレイが見え得るビューパネルを含む、請求項1~4のいずれか1項に記載のデバイス。
  6. 前記ビューポートアセンブリは、仮想現実モードで立体的コンテンツを見るためのレンズおよび目隠しアセンブリを含む、請求項5に記載のデバイス。
  7. 前記仮想現実モードでは、前記ビューポートアセンブリの前記レンズは、前記デバイスチャンバの前記ビューパネルと整列されている、請求項6に記載のデバイス。
  8. 前記デバイスチャンバは、前記ビューパネルに対向する表面に配置され、前記コンピューティングデバイスのカメラアセンブリが前記デバイスチャンバの周りの環境の画像を取込むことを可能にするように構成された窓を含む、請求項5~7のいずれか1項に記載のデバイス。
  9. 前記デバイスチャンバは、特定のタイプのコンピューティングデバイスを前記デバイスチャンバ内に位置付けて固定するようにサイズ決めされた挿入物を含む、請求項1~8のいずれか1項に記載のデバイス。
  10. 前記ハンドルは、前記ハンドルから外側に視線方向に延在し、前記拡張現実構成において前記ビューポートアセンブリを支持して固定するように構成された台を含む、請求項1~9のいずれか1項に記載のデバイス。
  11. 前記ビューポートアセンブリを直立位置で前記デバイスチャンバに固定するように構成されたラッチアセンブリをさらに含む、請求項1~10のいずれか1項に記載のデバイス。
  12. システムであって、
    コンピューティングデバイスと、
    拡張現実構成と仮想現実構成との間で切替え可能なビューイングアセンブリとを含み、前記切替え可能なビューイングアセンブリは、
    ハンドルと、
    前記ハンドルに結合され、前記コンピューティングデバイスを保持するように構成されたデバイスチャンバと、
    ビューポートアセンブリと、
    前記デバイスチャンバを前記ビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含み、
    前記ヒンジアセンブリは、仮想現実構成と拡張現実構成との間で前記コンピューティングデバイスを調節するために動作可能であり、前記コンピューティングデバイスのディスプレイは、前記仮想現実構成では前記ビューポートアセンブリを通して見え、拡張現実構成では前記ビューポートアセンブリなしで見える、システム。
  13. 前記コンピューティングデバイスは、前記ビューポートアセンブリの近接インジケータを検出するように構成された近接感知アセンブリを含む、請求項12に記載のシステム。
  14. 前記コンピューティングデバイスは、前記近接感知アセンブリが前記近接インジケータを検出したことに基づいて、拡張現実モードから仮想現実モードへ切替わるように構成される、請求項13に記載のシステム。
  15. 前記仮想現実モードでは、前記コンピューティングデバイスはディスプレイに立体的コンテンツを表示させる、請求項14に記載のシステム。
  16. 前記コンピューティングデバイスはカメラアセンブリを含み、前記拡張現実モードでは、前記コンピューティングデバイスは前記ディスプレイに、前記カメラアセンブリを用いて取込まれた画像を表示させる、請求項15に記載のシステム。
  17. 折畳まれたシート状の材料から形成されたハンドルと、
    前記ハンドルに結合され、折畳まれたシート状の材料から形成されたデバイスチャンバと、
    折畳まれたシート状の材料から少なくとも部分的に形成されたビューポートアセンブリと、
    前記デバイスチャンバを前記ビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含む、デバイスであって、
    前記ヒンジアセンブリは、仮想現実構成と拡張現実構成との間で前記デバイスを調節するために動作可能であり、前記デバイスチャンバに保持されたコンピューティングデバイスのディスプレイは、前記仮想現実構成では前記ビューポートアセンブリを通して見え、拡張現実構成では前記ビューポートアセンブリなしで見える、デバイス。
  18. デバイスであって、
    ハンドルと、
    前記ハンドルに結合されたデバイスチャンバと、
    ビューポートアセンブリと、
    前記デバイスチャンバを前記ビューポートアセンブリに枢動可能に結合するヒンジアセンブリとを含み、
    前記ヒンジアセンブリは、仮想現実構成と拡張現実構成との間で前記デバイスを調節するために動作可能であり、前記デバイスチャンバに保持されたコンピューティングデバイスのディスプレイは、前記仮想現実構成では前記ビューポートアセンブリを通して見え、拡張現実構成では前記ビューポートアセンブリなしで見える、デバイス。
  19. 前記ビューポートアセンブリは、トリガーが作動されることに応答して、前記デバイスチャンバに含まれるコンピューティングデバイスのディスプレイにハンマーを接触させるように構成された、トリガーおよびハンマー構成を含む、請求項17または18に記載のデバイス。
  20. 前記トリガーおよびハンマー構成は、折畳まれた材料片から形成される、請求項19に記載のデバイス。
JP2019565947A 2017-09-11 2018-09-11 切替え可能な仮想現実および拡張現実デバイス Active JP6992094B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762556860P 2017-09-11 2017-09-11
US62/556,860 2017-09-11
PCT/US2018/050488 WO2019051495A1 (en) 2017-09-11 2018-09-11 VIRTUAL REALITY DEVICE AND SWITCHABLE AUGMENTED REALITY

Publications (2)

Publication Number Publication Date
JP2020533658A JP2020533658A (ja) 2020-11-19
JP6992094B2 true JP6992094B2 (ja) 2022-01-13

Family

ID=63714073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019565947A Active JP6992094B2 (ja) 2017-09-11 2018-09-11 切替え可能な仮想現実および拡張現実デバイス

Country Status (5)

Country Link
US (1) US10750162B2 (ja)
EP (1) EP3682310B1 (ja)
JP (1) JP6992094B2 (ja)
CN (1) CN110622101B (ja)
WO (1) WO2019051495A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11231827B2 (en) 2019-08-03 2022-01-25 Qualcomm Incorporated Computing device and extended reality integration
CN111522141B (zh) * 2020-06-08 2022-01-14 歌尔光学科技有限公司 头戴设备
US12482145B2 (en) 2021-07-15 2025-11-25 Qualcomm Incorporated Remote landmark rendering for extended reality interfaces
US12449627B2 (en) * 2021-09-09 2025-10-21 Steven Christian Apparatus and system for headset and method for using headset
US11586283B1 (en) * 2021-12-22 2023-02-21 Meta Platforms Technologies, Llc Artificial reality device headset DONN and DOFF detection
US11935201B2 (en) * 2022-04-28 2024-03-19 Dell Products Lp Method and apparatus for using physical devices in extended reality environments
US11586286B1 (en) * 2022-05-18 2023-02-21 Bank Of America Corporation System and method for navigating on an augmented reality display

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110226A (ja) 2014-12-02 2016-06-20 東芝テック株式会社 読取装置
US20160349836A1 (en) 2015-05-27 2016-12-01 Google Inc. Virtual reality headset
WO2017033218A1 (ja) 2015-08-27 2017-03-02 Start360株式会社 組立式観賞補助装置

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4253732A (en) 1979-06-25 1981-03-03 Creative Cartons Of Ashland, Inc. Collapsible stereoscopic viewer
JPS58135716U (ja) 1982-03-08 1983-09-12 大野プラスチツク工業株式会社 折りたたみ式双眼鏡
US4773747A (en) 1986-04-07 1988-09-27 Innovational Products Co., Inc. Foldable binocular and blank therefor
US4846553A (en) 1987-07-14 1989-07-11 Richard Rice Foldable viewer
DE9103786U1 (de) 1991-03-25 1991-05-29 Voigts, Wolfgang, 1000 Berlin Stereodiabetrachter
US5344065A (en) 1991-06-03 1994-09-06 Moran Charles E C Reversible containers
JPH06189227A (ja) 1992-12-16 1994-07-08 Nifco Inc コンパクトケース
CA2167304C (en) 1993-07-16 1998-04-21 Louis B. Rosenberg Multi degree of freedom human-computer interface with tracking and forcefeedback
USD374002S (en) 1994-03-09 1996-09-24 Virtual Research Systems, Inc. Virtual reality visual display helmet
EP0708350A1 (en) 1994-10-19 1996-04-24 Pieter Joannes Hendricus Evers Viewer,in particular a stereo viewer,as well as a flat sheet therefor,in particular made of easily foldable material
USD427982S (en) 1996-01-24 2000-07-11 Sony Corporation Television monitor
USD444155S1 (en) 1997-05-22 2001-06-26 Sony Corporation Television monitor
USD415146S (en) 1997-11-12 1999-10-12 Vista Medical Technologies, Inc. Head mounted display
USD440967S1 (en) 2000-02-09 2001-04-24 Radica Games Limited Electronic game
CN2544300Y (zh) * 2002-05-08 2003-04-09 姜成楠 有柄立体镜
USD503188S1 (en) 2003-09-09 2005-03-22 Chao-Chyun Lin Myopia prevention device
JP2007075300A (ja) 2005-09-13 2007-03-29 Konami Digital Entertainment:Kk 立体視眼鏡
USD578120S1 (en) 2006-05-25 2008-10-07 Headplay (Barbados) Inc. 3-Dimensional visor display unit
USD612152S1 (en) 2008-03-10 2010-03-23 Peter Roesler Storage box
USD592398S1 (en) 2008-03-10 2009-05-19 Peter Roesler Storage box
USD601641S1 (en) 2008-09-28 2009-10-06 Eastcolight (Hong Kong) Limited Toy goggle with speaker phone
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
WO2010127285A2 (en) 2009-04-30 2010-11-04 Tetracam, Inc. Method and apparatus for providing a 3d image via media device
GB2472255B (en) 2009-07-31 2015-02-25 Brian Harold May Collapsible stereoscope
US8303123B2 (en) 2010-01-26 2012-11-06 Michael Kory Stereoscopic kaleidoscope and 3D viewer
USD672554S1 (en) 2010-02-10 2012-12-18 Iittala Group Oy Ab Case
US8686959B2 (en) 2010-02-16 2014-04-01 Maurice Payne Touch screen multi-control emulator
US8908015B2 (en) 2010-03-24 2014-12-09 Appcessories Llc Apparatus and method for producing images for stereoscopic viewing
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US9405126B1 (en) 2010-06-11 2016-08-02 George Margolin Eye level viewfinder and three dimensional virtual reality viewing device and method
US10019842B2 (en) 2010-08-09 2018-07-10 Decopac, Inc. Decorating system for edible products
WO2012035174A1 (es) 2010-09-17 2012-03-22 Alonso Fernandez Angel Victor Visor estereoscópico desmontable, personalizable y económico para dispositivos personales portátiles.
USD667301S1 (en) 2011-03-04 2012-09-18 R.J. Reynolds Tobacco Company Tray assembly for a dispensing container
USD689618S1 (en) 2011-04-15 2013-09-10 Playtex Products, Llc Sterilizing case
USD700160S1 (en) 2011-08-03 2014-02-25 Eyecam, LLC Headset camera and telecommunications device
USD704704S1 (en) 2011-08-12 2014-05-13 Seiko Epson Corporation Head mounted display
JP3194475U (ja) 2011-10-03 2014-11-27 ゼア コーポレーション リミテッドZear Corporation Limited 静電容量方式タッチスクリーンを有するデジタルデバイスのための防水ハウジングおよびその作動機構
US9459457B2 (en) 2011-12-01 2016-10-04 Seebright Inc. Head mounted display with remote control
US20130147721A1 (en) 2011-12-12 2013-06-13 Benjamin McGeever Device for Operating Touch Screen Devices in a Protective Housing
US8577427B2 (en) 2012-03-08 2013-11-05 Lee Serota Headset with adjustable display and integrated computing system
JP3176588U (ja) 2012-03-28 2012-06-28 株式会社B.B.スタジオ リモートタッチ回路およびアタッチメント
KR20140013676A (ko) 2012-07-25 2014-02-05 허춘화 디스플레이 단말기 헤드마운트 장치
USD687434S1 (en) 2012-09-05 2013-08-06 Lee Serota Headset with adjustable display
JP6245652B2 (ja) 2012-10-11 2017-12-13 田原 博史 映像観察システム
US20140247246A1 (en) 2012-11-15 2014-09-04 Daryl D Maus Tactile to touch input device
RU2617378C2 (ru) 2012-12-28 2017-04-24 Джапан Тобакко Инк. Пачка с шарнирной крышкой
GB2499102B (en) 2013-01-11 2013-12-25 Mvr Global Ltd Head-mounted display device
USD745517S1 (en) 2013-02-19 2015-12-15 Sony Corporation Head mountable display
US9628783B2 (en) 2013-03-15 2017-04-18 University Of Southern California Method for interacting with virtual environment using stereoscope attached to computing device and modifying view of virtual environment based on user input in order to be displayed on portion of display
CN104216118A (zh) 2013-06-03 2014-12-17 约翰·T·默里 具有远程控制件的头部安装式显示器
USD701206S1 (en) 2013-06-04 2014-03-18 Oculus VR, Inc. Virtual reality headset
CN104276347B (zh) 2013-07-04 2019-01-08 深圳富泰宏精密工业有限公司 承载体及具有该承载体的包装盒
GB2516242A (en) 2013-07-15 2015-01-21 Martin Leonardo Moreno Ten Head mounted display
US9490859B2 (en) 2013-10-18 2016-11-08 Douglas Peel Dual holding case for computing devices
USD738374S1 (en) 2013-11-15 2015-09-08 Oculus Vr, Llc Virtual reality headset
US9529194B2 (en) 2013-11-21 2016-12-27 Samsung Electronics Co., Ltd. Head-mounted display apparatus
KR102298200B1 (ko) 2013-11-21 2021-09-07 삼성전자 주식회사 헤드 마운트 디스플레이 장치
KR101530788B1 (ko) 2013-12-31 2015-06-22 부산대학교 산학협력단 스마트 폰을 이용한 3d hmd 시스템
USD751072S1 (en) 2014-02-18 2016-03-08 Merge Labs, Inc. Mobile head mounted display
WO2015126987A1 (en) 2014-02-18 2015-08-27 Merge Labs, Inc. Head mounted display goggles for use with mobile computing devices
USD749571S1 (en) 2014-02-22 2016-02-16 Samsung Electronics Co., Ltd. Mobile terminal
US20150253574A1 (en) 2014-03-10 2015-09-10 Ion Virtual Technology Corporation Modular and Convertible Virtual Reality Headset System
AU357831S (en) 2014-03-14 2014-09-26 Sony Computer Entertainment Inc Head mounted display
USD727318S1 (en) 2014-05-16 2015-04-21 ImmersiON-VReila, Inc. Stereographic virtual head adapter for mobile graphical devices
ES1115455Y (es) 2014-05-16 2014-10-01 Vrelia Virtual Reality S L Visor adaptador de dispositivos gráficos móviles para visión virtual estereoscópica
US9420075B2 (en) 2014-07-16 2016-08-16 DODOcase, Inc. Virtual reality viewer and input mechanism
TWM491843U (zh) 2014-07-24 2014-12-11 Shou-Lan Zhang 可攜式虛擬實境眼鏡
USD732028S1 (en) 2014-12-09 2015-06-16 Samsung Electronics Co., Ltd. Head-mounted display device
US10261579B2 (en) 2014-09-01 2019-04-16 Samsung Electronics Co., Ltd. Head-mounted display apparatus
GB2534538A (en) 2014-11-14 2016-08-03 Visr Vr Ltd Virtual reality headset
KR101533085B1 (ko) * 2014-12-01 2015-07-03 성균관대학교산학협력단 가상 현실 고글 겸용 휴대폰 케이스
US9791924B2 (en) 2014-12-23 2017-10-17 Mediatek Inc. Eye tracking with mobile device in a head-mounted display
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
US10120199B2 (en) 2015-01-14 2018-11-06 Ginger W. Kong Foldable virtual reality viewer structure integrated in mailer and/or product packaging
US9659411B2 (en) 2015-01-14 2017-05-23 Oculus Vr, Llc Passive locators for a virtual reality headset
USD740814S1 (en) 2015-01-20 2015-10-13 Microsoft Corporation Visor for headset
USD740810S1 (en) 2015-01-20 2015-10-13 Microsoft Corporation Headset visor enclosure
USD741323S1 (en) 2015-01-20 2015-10-20 Microsoft Corporation Headset with transparent visor
USD739855S1 (en) 2015-01-20 2015-09-29 Microsoft Corporation Headset with visor
US9804393B1 (en) * 2015-02-09 2017-10-31 Google Inc. Virtual reality headset
USD750074S1 (en) 2015-02-09 2016-02-23 Google Inc. Virtual reality headset
US20160232715A1 (en) 2015-02-10 2016-08-11 Fangwei Lee Virtual reality and augmented reality control with mobile devices
USD755789S1 (en) 2015-02-20 2016-05-10 Merge Labs, Inc. Mobile head mounted display
USD753111S1 (en) 2015-03-02 2016-04-05 Usens, Inc. Headset
USD741327S1 (en) 2015-04-16 2015-10-20 Vladimir Reznik Head mounted display
TWM505467U (zh) 2015-05-08 2015-07-21 Shinyoptics Corp 可攜式裝置包裝盒
USD757003S1 (en) 2015-05-27 2016-05-24 Google Inc. Virtual reality headset
USD759654S1 (en) 2015-06-11 2016-06-21 Oculus Vr, Llc Head-mounted display for virtual-reality systems or the like
USD756571S1 (en) 2015-06-18 2016-05-17 Nicholas Clay Colvin Animal feeder stand
US9857595B2 (en) 2015-07-31 2018-01-02 Google Llc Integrated mobile device shipping container and virtual reality headset
USD792398S1 (en) 2015-07-31 2017-07-18 Google Inc. Smartphone packaging and virtual reality headset
US10139637B2 (en) 2015-07-31 2018-11-27 Google Llc Integrated mobile device packaging and virtual reality headset
US9298283B1 (en) * 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems
USD794700S1 (en) 2015-09-11 2017-08-15 Sun Scale (Sz) Manufacturing Limited 3D glasses
USD784441S1 (en) 2015-10-01 2017-04-18 Oakley, Inc. Goggle
USD766896S1 (en) 2015-11-16 2016-09-20 Paralo Llc Hand-held virtual reality headset
USD804298S1 (en) 2015-12-01 2017-12-05 Abbott Laboratories Carton
USD781944S1 (en) 2015-12-04 2017-03-21 Brookstone Purchasing, Inc. Watch winder
US9869865B2 (en) 2016-01-12 2018-01-16 Unofficial Cardboard, Inc. Head-mountable viewer with adjustable lens
USD800114S1 (en) 2016-01-15 2017-10-17 Samsung Electronics Co., Ltd. Head mount display
US10459230B2 (en) * 2016-02-02 2019-10-29 Disney Enterprises, Inc. Compact augmented reality / virtual reality display
USD791854S1 (en) 2016-02-12 2017-07-11 Structural Graphics, Llc Stereoscopic viewer
USD776111S1 (en) 2016-02-15 2017-01-10 Meta Company Forehead pad
USD765658S1 (en) 2016-03-06 2016-09-06 Mary A Spio Virtual reality and augmented reality foldable headset
USD805617S1 (en) 2016-05-03 2017-12-19 Thomas E. McConnell Wipes warmer
JP1573711S (ja) 2016-05-09 2017-04-10
USD815637S1 (en) 2016-05-19 2018-04-17 Shenzhen Qianchen Guodu Technology Co., Ltd. 3D virtual reality glasses
USD812127S1 (en) 2016-06-22 2018-03-06 Samsung Electronics Co., Ltd. Head-mounted display device
USD796507S1 (en) 2016-09-26 2017-09-05 SZ DJI Technology Co., Ltd. Virtual reality headset
USD835102S1 (en) 2016-10-03 2018-12-04 Google Llc Virtual reality headset
USD801969S1 (en) 2016-10-04 2017-11-07 Oculus Vr, Llc Head mounted display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110226A (ja) 2014-12-02 2016-06-20 東芝テック株式会社 読取装置
US20160349836A1 (en) 2015-05-27 2016-12-01 Google Inc. Virtual reality headset
WO2017033218A1 (ja) 2015-08-27 2017-03-02 Start360株式会社 組立式観賞補助装置

Also Published As

Publication number Publication date
CN110622101A (zh) 2019-12-27
US20190082169A1 (en) 2019-03-14
US10750162B2 (en) 2020-08-18
WO2019051495A1 (en) 2019-03-14
CN110622101B (zh) 2024-02-06
EP3682310B1 (en) 2024-07-17
EP3682310A1 (en) 2020-07-22
JP2020533658A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6992094B2 (ja) 切替え可能な仮想現実および拡張現実デバイス
US11181986B2 (en) Context-sensitive hand interaction
CN109891367B (zh) 在增强和/或虚拟现实环境中使用手势生成虚拟符号表面
EP3548988B1 (en) Switching of active objects in an augmented and/or virtual reality environment
CN108885488A (zh) 在增强和/或虚拟现实环境中生成与虚拟对象相关的可视提示
EP3321777A1 (en) Dragging virtual elements of an augmented and/or virtual reality environment
CN111344749A (zh) 引向用户关注
WO2019010337A1 (en) VOLUMETRIC MULTI-SELECTION INTERFACE FOR SELECTING MULTIPLE ENTITIES IN A 3D SPACE
KR20100027976A (ko) 이동 장치에서 제스처 및 움직임 기반 내비게이션 및 3차원 가상 콘텐츠와의 인터랙션
EP3850468B1 (en) Snapping range for augmented reality objects
US12468383B2 (en) Gaze and head pose interaction
KR20240114658A (ko) 시선의 방향 또는 제스쳐 중 적어도 하나에 기반하여 미디어 콘텐트를 스크롤링하기 웨어러블 장치 및 그 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208

R150 Certificate of patent or registration of utility model

Ref document number: 6992094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250