JP2017531221A - 仮想現実環境の中に没入したときのつまずき対抗 - Google Patents

仮想現実環境の中に没入したときのつまずき対抗 Download PDF

Info

Publication number
JP2017531221A
JP2017531221A JP2017503989A JP2017503989A JP2017531221A JP 2017531221 A JP2017531221 A JP 2017531221A JP 2017503989 A JP2017503989 A JP 2017503989A JP 2017503989 A JP2017503989 A JP 2017503989A JP 2017531221 A JP2017531221 A JP 2017531221A
Authority
JP
Japan
Prior art keywords
user
display
hmd device
real world
method further
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017503989A
Other languages
English (en)
Inventor
ヴェイガ,アレクサンドル ダ
ヴェイガ,アレクサンドル ダ
スグデン,ベンジャミン
マッセイ,ラウラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017531221A publication Critical patent/JP2017531221A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

シースルーディスプレイと深度検出能力を伴うHMDデバイスは、仮想現実環境の表示を選択的に薄暗く又はフェードアウトするように構成されている。ユーザと現実世界オブジェクトとの間の距離が閾値距離よりも小さいと判断されたときに、仮想世界による妨害なしにユーザが現実世界を見ることができるようにである。ユーザが立っているか、または、座っているかに応じて異なる閾値距離が使用され得るように、ディミング/フェーディングを実行するときに、ユーザの頭の現在の高さ(つまり、頭から地面までの距離)が使用されてよい。

Description

ヘッドマウントディスプレイ(HMD)システムおよびハンドヘルドモバイルデバイス(例えば、スマートフォン、タブレットコンピュータ、等)といった、複合現実(mixed reality)コンピューティングデバイスは、ユーザの視野及び/又はデバイスのカメラの視野において、仮想及び/又は現実のオブジェクトに関する情報をユーザに対して表示するように構成されてよい。例えば、HMDデバイスは、シースルー(see−through)ディスプレイシステムを使用して、現実世界オブジェクトが混合された(mixed in)仮想環境、または、仮想オブジェクトが混合された現実世界環境を表示するように構成されてよい。同様に、モバイルデバイスは、カメラのビューファインダのウィンドウを使用してそうした情報を表示してよい。
この背景は、以降の概要および詳細な説明に対する簡素なコンテクストを紹介するために提供されるものである。この背景は、請求される技術的事項の範囲を定めることを支援するように意図されたものではなく、また、請求項される技術的事項を上記の不利な点または問題のいくつか又は全てを解決する実施に限定するものと見なされるものでもない。
シースルーディスプレイと深度(depth)検出能力を伴うHMDデバイスは、仮想現実環境の表示を選択的に薄暗く(dim)またはフェードアウト(fade out)するように構成されている。ユーザと現実世界オブジェクトとの間の距離が閾値距離よりも小さいと判断されたときに、仮想世界による妨害なしにユーザが現実世界を見ることができるようにである。ユーザが立っているか、または、座っているかに応じて異なる閾値距離が使用され得るように、ディミング(dimming)/フェーディング(fading)を実行するときに、ユーザの頭の現在の高さ(つまり、頭から地面までの距離)が使用されてよい。
様々な説明的な実施例において、表面再構成データまたは深度データは、深度センサを使用するHMDデバイスによって、または、立体画像化(stereo imaging)から深度を判断することによってキャプチャされる。ユーザと現実世界オブジェクトとの間の距離を動的に測定するためであり、ユーザの高さを見積ることも同様である。ユーザは、ユーザの高さに応じた大きさの円柱またはカプセルといった体積形状(volumetric shape)を使用して表現されてよい。ディスプレイのディミング/フェーディングが実行される際の現実世界オブジェクトとユーザを表現している体積形状との間の閾値距離は、ユーザが座っているときは、より小さく、そして、ユーザが立っているときは、より大きいものであり得る。座っている場合に、立っている又は走っている場合のそうしたオブジェクトとのインタラクションと比較して、現実世界オブジェクトに突き当たるか、接触するときのユーザに対するより小さな安全上の問題(safety hazard)を認めて、様々な閾値が使用されてよい。それらはつまずき(trip)又は、ころび(fall)を結果として生じ得るものである。
この概要は、以降の詳細な説明においてより詳しく説明される概念の選択について、簡素化された形式において紹介するものである。この概要は、請求される技術的事項の主要な特徴または本質的な特徴を特定するように意図されたものではなく、また、請求される技術的事項の範囲を定める支援として使用されるように意図されたものでもない。さらに、請求される技術的事項は、この開示のあらゆる部分において示されたいくつか又は全ての不利な点を解決する実施に限定されるものではない。上記の技術的事項は、コンピュータコントロール装置、コンピュータプロセス、コンピューティングシステム、または、一つまたはそれ以上のコンピュータで読取り可能なストレージ媒体といった製品として実施され得ることが正しく理解されてよい。これらの特徴及び様々な他の特徴は、以降の詳細な説明を読むこと、および、関連する図面のレビューから明らかであり得る。
図1は、説明的な仮想現実環境を示しており、その一部が、HMDデバイスのユーザのビュー(view)の中に表わされている。 図2は、説明的な現実世界環境を示しており、その中にHMDデバイスのユーザが位置している。 図3は、HMDデバイスによってキャプチャされている現実世界オブジェクトと関連付けされた表面再構成データを示している。 図4は、説明的な表面再構成パイプラインのブロック図を示している。 図5は、ユーザの高さに応じたサイズの説明的な体積形状によって表現されているユーザを示している。 図6は、ユーザの高さに応じたサイズの説明的な体積形状によって表現されているユーザを示している。 図7は、HMDのディスプレイが現実世界オブジェクトを表示するように操作される際の説明的な閾値距離を示している。 図8は、HMDのディスプレイが現実世界オブジェクトを表示するように操作される際の説明的な閾値距離を示している。 図9は、HMDデバイスを使用して実行され得る説明的な方法のフローチャートである。 図10は、HMDデバイスを使用して実行され得る説明的な方法のフローチャートである。 図11は、HMDデバイスを使用して実行され得る説明的な方法のフローチャートである。 図12は、複合現実HMDデバイスの説明的な例の絵画図である。 図13は、複合現実HMDデバイスの説明的な例の機能ブロック図を示している。 図14は、複合現実HMDデバイスのコンポーネントとして使用され得るシールドバイザーの絵画的正面図である。 図15は、複合現実HMDデバイスのコンポーネントとして使用され得るシールドバイザーの絵画的正面図である。 図16は、シールドバイザーの部分的な分解図を示している。 図17は、シールドバイザーの細い線の(phantom line)正面図を示している。 図18は、シールドバイザーの絵画的な背面図を示している。 図19は、典型的なコンピューティングシステムを示している。
類似の参照番号は、図面において類似のエレメントを示している。エレメントは、そうでないものと示されていなければ、縮尺どおりに描かれていない。
HMDデバイスを使用しながら複合現実または仮想現実環境を体験しているとき、ユーザは、現実世界空間において動き回る際に物理的オブジェクトに突き当たり、または、つまずくことがある。なぜなら、仮想世界がユーザのビューを妨害しているからである。一つの説明的な例においては、図1に示されるように、ユーザ102は、仮想現実環境100を経験するためのシースルーHMDデバイス104を使用することができる。仮想現実環境は、目に見えるように表わされており、かつ、いくつかの実施例においては、オーディオ、及び/又は、触覚/力覚の感覚を含んでよい。この特定の限定的でない例において、仮想現実環境100は、ユーザ102が見て、かつ、相互作用することができる様々なビルディング、ストア、等を伴う街の通り(city street)を含んでいる。ユーザが頭の位置または向きを変える、及び/又は、現実世界空間の中で移動すると、仮想現実環境のユーザのビューが変化し得る。視野(図1において破線110によって表されているもの)が、サイズ合わせされ、かつ、形成され、そして、デバイスの他の特性がコントロールされ得る。仮想世界に存在しているという強い意識をユーザに提供するように、HMDデバイスの体験を視覚的に没入させる(visually immersive)ためである。
図2に示されるように、HMDデバイス104を使用しているときにユーザが占める物理的、現実世界空間200は、様々なオブジェクト(代表的に参照番号205によって示されているもの)を含み得る。オブジェクトは、ユーザに対してつまずき問題(trip hazard)を示し、もしくは、そうでなければ、接触または突き当たったときにHMDユーザ体験を邪魔し得るものである。この説明的な例において、現実世界オブジェクト205は、仮想現実環境100(図1に示されているもの)の中へ組み込まれておらず、そして、従って、HMDデバイス104を身に付けたユーザにとって普通は目に見えないものである。
本HMDデバイス104は、ユーザが仮想現実環境に没入(immerse)しているときに、つまずき対抗(anti−trip)機能を備えることができる。図3に示されるように、デバイスは、現実世界空間におけるオブジェクト205を検出し、かつ、ユーザからの距離を判断するための統合深度センサ305を使用することによって、表面再構成データ300を獲得するように構成されている。代替的な実施においては、深度データが適切な立体画像解析技術を使用して引き出され得る。
図4は、現実世界空間におけるオブジェクトに対する表面再構成データを獲得するための、説明的な表面再構成パイプラインのブロック図を示している。開示される技術は説明的なものであること、そして、特定の実施に係る要求に応じて他の技術および方法が使用されてよいことが強調される。生の深度センサデータ402は、センサの3D(三次元)姿勢見積り(pose estimation)の中へ入力される(ブロック404)。センサ姿勢トラッキング(tracking)が、例えば、予想される表面と現在のセンサ測定との間のICP(iterative closest point)アライメントを使用して達成され得る。センサの各深度測定は、例えば、符号付距離場(SDF、signed distance field)としてエンコードされた表面を使用して体積表現へと統合され得る(ブロック406)。ループを使用して、SDFは、深度マップがその上に整列される密な表面予測を提供するために見積りされたフレームの中へレイキャスト(raycast)される(ブロック408)。
ユーザが現実世界オブジェクトに近づくときを判断するために、HMDデバイス104は、図5と図6において示されるように、体積形状としてユーザ102を表わしている。体積は、カプセル、または、図5に示されるような円柱505といった、様々な任意の形状から選択されてよい。体積形状は、物理的空間の中でのユーザの頭の位置に応じてサイズ合わせされる。図6に示されるように、ユーザが座っているときに形状605がより短くなるようにである。ユーザの頭の位置は、あらゆる適切な技術を使用して判断され得る。技術は、例えば、HMDの内部センサを使用する頭トラッキング、床からのユーザの頭の高さを見積るための画像解析、または、外部/リモートの方法を用いること、を含んでいる。
ユーザがオブジェクトを見ることができるようにするためにHMDデバイスにおける表示を薄暗く、または、フェードさせる際の、体積形状と現実世界オブジェクトとの間の閾値距離は、物理的空間におけるユーザの頭の高さに応じて変動し得る(例えば、ユーザが立っている/走っているか、または、座っているか)。図7と図8に示されるように、閾値距離1(参照番号700によって示されているもの)は、より高い体積形状505と関連付けされており、そして、より低い形状605と関連付けされている閾値距離2(800)より相対的に大きいものである。
図9、図10、および図11は、HMDデバイスを使用して実行され得る説明的な方法のフローチャートである。特定的に述べられていなければ、フローチャートにおいて示され、そして、一緒のテキストにおいて説明される方法またはステップは、特定の順序またはシーケンスに限定されるものではない。加えて、そうした実施例の要求に応じて、それらのいくつかの方法またはステップは、同時に発生し、または、実行され得るものであり、かつ、必ずしも全ての方法またはステップが、所与の実施において実行されることを要するものではない。そして、いくつかの方法またはステップは、任意的に使用されてよい。
図9における方法900は、仮想現実環境のレンダリング(rendering)を支援(support)するHMDデバイスによって実行されてよい。ステップ905においては、ユーザのHMDデバイスに隣接する物理的空間を記述するセンサデータが獲得される。センサデータは、例えば、深度データを含んでよい。HMDデバイスの中に統合された深度センサを使用したもの、または、外部センサまたはソース(source)から獲得したものである。立体から深度への画像化解析(dpeth−from−stereo imaging analysis)も、また、深度データを作成するために使用されてよい。ステップ910において、センサデータは、物理的空間における現実世界オブジェクトのジオメトリ(geometry)を再構成するために使用される。例えば、表面再構成を使用するものである。
ステップ915においては、ユーザが、体積形状を用いて表現される。ステップ920において、ユーザと現実世界オブジェクトとの間の現在の距離を、再構成されたジオメトリを使用して、判断するときに、使用され得るものである。ステップ925においては、仮想現実環境から妨害されることなくユーザが現実世界オブジェクトを見ることができるように、HMDデバイスが操作される。典型的に、HMDデバイスは、仮想現実環境のレンダリングからの著しい妨害が存在しないように操作される。しかし、いくつかの部分的な妨害は、いくつかの実施例においては許容可能なものであり得る。
図10における方法1000は、シースルーディスプレイを使用するHMDデバイスによって実行されてよい。付加的な混合(additive blending)を使用するものであり、そこでは仮想現実シーン(scene)と関連付けされたピクセルが、オーバーレイする「現実世界」ピクセルに対して付加される。従って、黒の仮想色が表示される(rendered)ときに、それはユーザによって透明なものとして実際には見られ、かつ、黒の仮想ピクセルを通して見たときに、現実世界は変わらない。そして、典型的には、付加的ディスプレイにおける実際のピクセルを暗くする方法は存在しない。
ステップ1005においては、表面再構成データが、深度データまたはカメラシステムを使用して生成される。ステップ1010においては、物理的環境における現実世界オブジェクトとユーザを表現する体積形状との間の距離を判断するために使用される。様々な適切な再構成技術が使用されてよい。複数のオーバーラップしている表面が統合された、図4におけるパイプラインにおいて示されたものを含むものである。
ステップ1015において、現実世界オブジェクトが閾値距離の範囲内にあるときは、ユーザがディスプレイを通して見ることができ、かつ、現実世界オブジェクトを見ることができるように、付加的ディスプレイ上に暗いピクセル(dark pixel)が表示される。典型的には、オブジェクトのビューが仮想世界によって著しく妨害されないように、ディスプレイの十分な部分が暗いピクセルを用いて表示される。閾値距離は、ステップ1020において、ユーザが立っているか、または、座っているかに応じて、変動してよい。
図11における方法1100は、健全な仮想現実モードにおけるオペレーションから、ユーザに対して物理的環境を見せるための透明オペレーションへ切り替えられる光学ディスプレイを有するHMDデバイスによって実行されてよい。従って、既定の距離閾値の中に落とし込まれる現実世界オブジェクトが検出されたときにディスプレイが透明になるように、仮想現実環境のディスプレイは、薄暗くされ得る(つまり、フェードされる)。
ステップ1105において、HMDデバイスにおけるディスプレイ光学素子は、仮想現実環境のレンダリングを薄暗くすることを通じて、選択的に透明オペレーションをするために構成されている。ステップ1110においては、表面再構成を使用して、物理的環境が動的に(dynamically)モデル化される。つまり、モデルは、ユーザが物理的環境の中を移動する際に、例えば、フレーム毎(frame−by−frame)に、または、他の適切なやり方で更新され得る。現在の表面再構成モデルは、ステップ1115において、物理的環境におけるユーザと現実世界オブジェクトとの間の距離を判断するために使用される。ディスプレイ光学素子は、判断された距離が規定の閾値よりも小さいか等しいときに、ステップ1120において、透明オペレーションができるように仮想現実環境について薄暗くされる。判断された距離が、更新された表面再構成モデルにおける規定の閾値を超えるときは、ステップ1125において、仮想現実のレンダリングが再開される(つまり、ディスプレイが薄暗くされない)。
これから、様々な説明的な実施例の詳細に移ると、本構成に従った、シースルーの、複合現実ディスプレイデバイスは、あらゆる適切な形状(form)であってよい。これらに限定されるわけではないが、HMDデバイス104、及び/又は、他のポータブル/モバイルデバイスといったニアアイ(near−eye)デバイスを含むものである。図12は、シースルーの、複合現実ディスプレイシステム1200に係る一つの特定の例を示しており、そして、図13は、システム1200の機能ブロック図を示している。ディスプレイシステム1200は、シースルーディスプレイサブシステム1204の一部を形成する一つまたはそれ以上のレンズ1202を含んでよい。画像が、レンズ1202を使用して(例えば、レンズ1202の上へのプロジェクション、レンズ1202の中に組み込まれている一つまたはそれ以上の導波管システム(waveguide system)を使用して、及び/又は、あらゆる他の適切なやり方において)表示されるようにである。ディスプレイシステム1200は、さらに、ユーザによって見られている背景シーン及び/又は物理的空間の画像を獲得するように構成されている一つまたはそれ以上の外側に面している(outward−facing)画像センサ1206を有しており、そして、ユーザからの音声コマンドといった、サウンドを検出するように構成されている一つまたはそれ以上のマイクロフォン1208を含んでよい。外側に面している画像センサ1206は、一つまたはそれ以上の深度センサ、及び/又は、一つまたはそれ以上の2次元画像センサを含んでよい。代替的な構成において、複合現実ディスプレイシステムは、シースルーディスプレイサブシステムを組み込む代わりに、外側に面している画像センサのためのビューファインダ(viewfinder)モードを通じて複合現実の画像を表示してよい。
ディスプレイシステム1200は、さらに、上記のように、ユーザのそれぞれの目の凝視方向、または、焦点の方向もしくは位置を検出するために構成されている凝視(gaze)検出サブシステム1210を含んでよい。凝視検出サブシステムは、あらゆる適切な方法において、ユーザの目のそれぞれの凝視方向を判断するように構成されてよい。例えば、示されている説明的な例において、凝視検出サブシステム1210は、赤外光源といった、ユーザの各眼球から反射する光の閃光(glint)を生じさせるように構成された、一つまたはそれ以上の閃光光源1212、および、内側に面しているセンサといった、ユーザの各眼球の画像をキャプチャするように構成された、一つまたはそれ以上の画像センサ1214、を含んでいる。ユーザの眼球からの閃光、及び/又は、ユーザの瞳孔の位置における変化は、画像センサ1214を使用して収集された画像データから判断されるので、凝視方向の判断のために使用され得る。
加えて、ユーザの目から投射された凝視ラインが外部ディスプレイと交差する場所は、ユーザが凝視しているオブジェクト(例えば、表示された仮想オブジェクト、及び/又は、現実の背景オブジェクト)を判断するために使用されてよい。凝視検出サブシステム1210は、あらゆる適切な数量、および、光源と画像センサの構成を有してよい。いくつかの実施例においては、凝視検出サブシステム1210が除外されてよい。
ディスプレイシステム1200は、また、追加のセンサも含んでよい。例えば、ディスプレイシステム1200は、全地球測位システム(GPS)サブシステム1216を含んでよく、ディスプレイシステム1200の位置が決定されるようにすることができる。このことは、ユーザが隣接している物理的環境の中に配置され得る、ビルディング、等といった、現実世界オブジェクトを特定するために役に立ち得る。
ディスプレイシステム1200は、さらに、ユーザが、拡張現実(augmented reality)HMDデバイスの一部としてシステムを身に付けているときに、ユーザの頭の移動、および、位置/向き/姿勢を検出するための一つまたはそれ以上のモーションセンサ1218(例えば、イナーシャ、多軸ジャイロスコープ、または、加速度センサ)を含んでよい。モーションデータは、潜在的には目トラッキング閃光データ(eye−tracking glint data)および外側に面している画像データと一緒に、凝視検出のために使用され得る。外側に面している画像センサ1206からの画像におけるブラー(blur)に対する修正を手助けする画像安定化のためにも同様に使用される。モーションデータの使用により、凝視位置における変化は、外側に面している画像センサ1206からの画像データが解決され得ない場合でさえも、トラックすることができる。
加えて、モーションセンサ1218は、また、マイクロフォン1208および凝視検出サブシステム1210と同様に、ユーザ入力デバイスとして使用されてもよい。ユーザが、目、首、及び/又は、頭のジェスチャを介してディスプレイシステム1200とインタラクションし得るようにであり、いくつかの事例においては言語コマンドを介することも同様である。図12と図13に図示され、かつ、以下の文章で説明されているセンサは、例示の目的のために含まれるものであって、あらゆる方法において限定することを意図されていないことが理解されよう。あらゆる他の適切なセンサ及び/又はセンサの組み合わせは、拡張現実デバイスの特定の実施に係る必要性を満たすように利用され得るからである。例えば、バイオメトリックセンサ(例えば、心拍数と呼吸数、血圧、脳活動、体温、等を検出するためのもの)、または、環境センサ(例えば、温度、湿度、標高、UV(紫外線)レベル、等を検出するためのもの)が、いくつかの実施例において使用されてよい。
ディスプレイシステム1200は、さらに、ロジックサブシステム1222およびセンサと通信するデータストレージサブシステム1224を有しているコントローラ1220、凝視検出サブシステム1210、ディスプレイサブシステム1204、及び/又は、通信サブシステム1226を通じた他のコンポーネント、を含み得る。通信サブシステムは、また、処理、ストレージ、電力、データ、およびサービスといった、離れて置かれているリソースと併せてオペレーションされているディスプレイシステムも促進し得る。つまり、いくつかの実施例において、HMDデバイスは、異なるコンポーネントとサブシステムの中にリソースと機能を分配し得るシステムの一部としてオペレーションされ得るものである。
ストレージサブシステム1224は、ロジックサブシステム1222によって実行可能な保管されたインストラクションを含んでよい。例えば、センサからの入力を受信して解釈すること、ユーザの位置および移動を特定すること、表面再構成および他の技術を使用して現実のオブジェクトを特定すること、および、オブジェクトがユーザによって見ることができるようにオブジェクトまでの距離に基づいてディスプレイを薄暗く/フェードすること、その他のタスクである。
ディスプレイシステム1200は、拡張現実経験の一部としてオーディオが利用され得るように、一つまたはそれ以上のオーディオトランスデューサ1228(例えば、スピーカ、イヤホン、等)を用いて構成されている。電力管理サブシステム1230は、一つまたはそれ以上のバッテリー1232及び/又は保護回路モジュール(PCM)、および、ディスプレイシステム1200におけるコンポーネントに対して電力を供給するための関連の充電器インターフェイス1234、及び/又は、リモート電力インターフェイス、を含んでよい。
示されたディスプレイデバイス104と1200は、例示の目的のために説明されたものであり、従って、限定することを意図するものではないことが正しく理解されよう。さらに、ディスプレイデバイスは、追加的及び/又は代替的なセンサ、カメラ、マイクロフォン、入力デバイス、出力デバイス、等を、本構成の範囲から逸脱することなく示されているものの他に含み得ることが理解されるであろう。加えて、ディスプレイデバイスの物理的なコンフィグレーション、および、様々なセンサとサブコンポーネントは、本構成の範囲から逸脱することなく様々な異なる形状をであってよい。
図14−図18は、HMDデバイスのコンポーネントとして使用され得る複合現実ディスプレイシステム1400のための説明的な代替の実施例を示している。この例において、システム1400は、シースルーディスプレイサブシステムのために利用される内部光学素子アセンブリを保護するように構成されているシースルーシールドバイザー1402を使用する。バイザー1402は、典型的には、HMDデバイスの他のコンポーネント(図示なし)と適合される。ヘッドマウント/保持システム、および、図12と図13と併せて説明的に示されたような、センサ、電力管理コントローラ、等を含んでいる他のサブシステム、といったものである。スナップ(snap)、ボス(boss)、ネジ、および、他のファスナ、等を含んでいる適切なインターフェイスエレメント(図示なし)も、また、バイザー1402の中に組み込まれてよい。
バイザーは、シースルーのフロントシールド1404とリアシールド1405それぞれを含んでいる。透明材料を使用してモールドされ得るものであり、光学ディスプレイおよび周囲の現実世界環境に対する妨害されることのないビジョン(vision)を促進するためである。色付け(tinting)、鏡面化(mirroring)、反射防止、曇り止め、および他のコーティング、といった処理がフロントとリアシールドに対して適用されてよく、そして、また、様々な色と仕上げが、使用されてもよい。フロントとリアシールドは、シャーシに対して貼り付けられている。図15における部分的な分解図において示されるようにであり、そこでは、バイザー1402から取り外されたようにシールドカバー1510が示されている。
シールドバイザー1402は、HMDデバイスが身に付けられ、オペレーションで使用されているとき、および、クリーニングのための通常のハンドリングの最中、等の場合に、光学ディスプレイサブアセンブリ1602(図16における分解図で示されるもの)を含む、敏感な内部コンポーネントを物理的に保護することができる。バイザー1402は、また、HMDデバイスが落とされ、または、ぶつかられ、インパクトを与えられた、等の環境的な要素およびダメージから光学ディスプレイサブアセンブリ1602を保護することもできる。光学ディスプレイサブアセンブリ1602は、落下またはインパクトの際にゆがめられたときにシールドがサブアセンブリと接触しないような方法で、シールドバイザーの中にマウントされている。
図16と図18に示されるように、リアシールド1406は、ユーザの鼻と適合するように人間工学的に正しい形状において構成されており、そして、鼻パッド1804(図18)および他の快適な機能が含まれてよい(例えば、専用コンポーネントとしてモールド形成され、及び/又は、付け加えられたもの)。シールドバイザー1402は、また、いくつかの事例においては、モールドされたシールドの中に光学的ディオプタ(diopter)曲率(つまり、目の処方)に係るいくらかのレベルを組み込むこともできる。
図19は、上述のコンフィグレーション、構成、方法、または、プロセスのうち一つまたはそれ以上を実施するときに使用され得るコンピューティングシステム1900の一つの限定的でない実施例を模式的に示している。HMDデバイス104は、コンピューティングシステム1900に係る一つの限定的でない実施例であり得る。コンピューティングシステム1900は、簡素化された形状において示されている。本構成の範囲から逸脱することなく、事実上あらゆるコンピュータアーキテクチャが使用され得る。異なる実施例において、コンピューティングシステム1900は、ディスプレイデバイス、ウェアラブルコンピューティングデバイス、メインフレームコンピュータ、サーバーコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホームエンターテイメントコンピュータ、ネットワークコンピューティングデバイス、ゲームデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス(例えば、スマートフォン)、等の形状であってよい。
コンピューティングシステム1900は、ロジックサブシステム1902とストレージサブシステム1904を含んでいる。コンピューティングシステム1900は、任意的に、ディスプレイサブシステム1906、入力サブシステム1908、通信サブシステム1910、及び/又は、図19に示されていない他のコンポーネント、を含んでよい。
ロジックサブシステム1902は、インストラクションを実行するように構成されている一つまたはそれ以上の物理的デバイスを含んでいる。例えば、ロジックサブシステム1902は、一つまたはそれ以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または、他の論理的構築、の一部であるインストラクションを実行するように構成されてよい。そうしたインストラクションは、タスクを実行し、データタイプを実施し、一つまたはそれ以上のコンポーネントの状態を変換し、または、そうでなければ所望の結果に到達するために実施され得るものである。
ロジックサブシステム1902は、ソフトウェアインストラクションを実行するように構成されている一つまたはそれ以上のプロセッサを含んでよい。追加的または代替的に、ロジックサブシステム1902は、ハードウェアまたはファームウェアインストラクションを実行するように構成されている一つまたはそれ以上のハードウェアまたはファームウェア論理マシンを含んでよい。ロジックサブシステム1902のプロセッサは、シングルコアまたはマルチコアであってよく、そして、実行されるプログラムは、順次処理、並行処理、または分散処理のために構成されてよい。ロジックサブシステム1902は、任意的に、2つまたはそれ以上のデバイスの中に分散される個別のコンポーネントを含んでよい。離れて配置され、及び/又は、調整された処理のために構成され得るものである。ロジックサブシステム1902の態様は、クラウドコンピューティング(cloud−computing)コンフィグレーションにおいて構成された、離れてアクセス可能であり、ネットワーク化された、コンピューティングデバイスによって、仮想化され、かつ、実行され得るものである。
ストレージサブシステム1904は、データ、及び/又は、ここにおいて説明された方法とプロセスを実施するためにロジックサブシステム1902によって実行可能なインストラクションを保持するように構成されている一つまたはそれ以上の物理的デバイスを含んでいる。そうした方法とプロセスが実施されるとき、ストレージサブシステム1904の状態は変換され得る。例えば、異なるデータを保持するようにである。
ストレージサブシステム1904は、リムーバブルメディア及び/又は内蔵(built−in)デバイスを含んでよい。ストレージサブシステム1904は、光記憶デバイス(例えば、CD(コンパクトディスク)、DVD(デジタル多目的ディスク)、HD−DVD(ハイデフィニションDVD)、ブルーレイ(登録商標)ディスク、等)、半導体メモリデバイス(例えば、RAM(ランダムアクセスメモリ)、ROM(読出し専用メモリ)、EPROM(消去可能プログラム可能なROM)、EEPROM(電気的消去可能ROM)、等)、及び/又は、磁気メモリデバイス(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAM(磁気抵抗RAM))、等を含んでよい。ストレージサブシステム1904は、揮発性、不揮発性、ダイナミック、スタティック、リード/ライト、リードオンリー、ランダムアクセス、シーケンシャルアクセス、ロケーションアドレス可能、ファイルアドレス可能、及び/又は、コンテンツアドレス可能なデバイスを含んでよい。
ストレージサブシステム1904は、一つまたはそれ以上の物理的デバイスを含み、そして、それ自体が伝播していく信号を除外することが正しく理解されよう。しかしながら、いくつかの実施例において、ここにおいて説明されたインストラクションの態様は、ストレージデバイス上に保管されていることとは反対に、通信媒体を使用して、きれいな信号(pure signal)(例えば、電磁気信号、光信号、等)によって伝播されてよい。さらに、本構成に関連するデータ、及び/又は、情報の他の形状が、きれいな信号によって伝播されてよい。
いくつかの実施例において、ロジックサブシステム1902およびストレージサブシステム1904の態様は、一つまたはそれ以上のハードウェアロジックコンポーネントの中へ一緒に統合されてよく、それを通じてここにおいて説明された機能性が制定され得る。そうしたハードウェアロジックコンポーネントは、例えば、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラムおよびアプリケーション向け集積回路(PASIC/ASIC)、システムオンチップ(SOC)システム、および、複合プログラマブルロジックデバイス(CPLD)を含んでよい。
ディスプレイサブシステム1906は、含まれるとき、ストレージサブシステム1904によって保持されているデータベースの視覚的表現を表わすために使用されてよい。この視覚的表現は、グラフィカルユーザインターフェイス(GUI)の形であってよい。説明された本方法およびプロセスが、ストレージサブシステムによって保持されるデータを変更し、そして、従って、ストレージサブシステムの状態を変換すると、同様に、ディスプレイサブシステム1906の状態が、根底のデータ(underlying data)における変更を視覚的に表現するように変換され得る。ディスプレイサブシステム1906は、あらゆるタイプの技術を仮想的に利用している一つまたはそれ以上のディスプレイデバイスを含んでよい。そうしたディスプレイデバイスは、いくつかの事例において、共有の筐体(enclosure)においてロジックサブシステム1902及び/又はストレージサブシステム1904と組み合わされてよく、もしくは、そうしたディスプレイデバイスは、他のものにおけるペリフェラルディスプレイデバイスであってよい。
入力サブシステム1908は、含まれるとき、キーボード、マウス、タッチスクリーン、または、ゲームコントローラといった一つまたはそれ以上のユーザ入力デバイスを含み、または、それらとインターフェイスしてよい。いくつかの実施例において、入力サブシステムは、選択されたユーザ入力(NUI)コンポーネントを含み、または、インターフェイスしてよい。そうしたコンポーネントは、統合されるか、または、周辺機器であってよく、そして、入力動作の変換及び/又は処理は、オンボードまたはオフボードで扱われてよい。典型的なNUIコンポーネントは、スピーチ及び/又は音声認識のためのマイクロフォン;マシンビジョン(machine vision)及び/又はジェスチャ認識のための赤外線、カラー、ステレオスコープ、及び/又は、深度カメラ;モーション検出及び/又は意図認識のための頭トラッカー(tracker)、目トラッカー、加速度計、及び/又は、ジャイロスコープ;同様に脳活動をアセスするための電界検出コンポーネント、を含んでよい。
通信サブシステム1910は、含まれるとき、コンピューティングシステム1900を一つまたはそれ以上の他のコンピューティングデバイスと通信できるように接続するよう構成されてよい。通信サブシステム1910は、一つまたはそれ以上の異なる通信プロトコルとコンパチブル(compatible)な有線及び/又は無線通信デバイスを含んでよい。限定的でない例として、通信サブシステムは、無線電話ネットワーク、もしくは、有線または無線のローカルエリアネットワークまたはワイドエリアネットワークを介した通信のために構成されてよい。いくつかの実施例において、通信サブシステムによって、コンピューティングシステム1900は、インターネットといったネットワークを使用して、他のデバイスへメッセージを送信、及び/又は、他のデバイスからメッセージを受信することができる。
仮想現実環境の中に没入したときの本つまずき対抗に係る様々な典型的な実施例は、ここで説明として示されるものであり、全ての実施例に係る網羅的なリストとしてのものではない。一つの例は、仮想現実環境のレンダリングを支援するヘッドマウントディスプレイ(HMD)によって実施される方法を含んでいる。本方法は、HMDデバイスのユーザに隣接する物理的空間を記述するセンサデータを獲得するステップと、センサデータを使用して物理的空間に置かれた現実世界オブジェクトのジオメトリを再構成するステップと、再構成されたジオメトリを使用してユーザと現実世界オブジェクトとの間の距離を判断するステップと、を含む。そして、距離が既定の閾値と等しいか小さい場合には、ユーザが仮想現実環境からの妨害なしに現実世界オブジェクトを見ることができるように、HMDデバイスを操作する。
別の例において、センサデータは深度データを含む。そして、本方法は、さらに、深度センサを使用してセンサデータを生成するステップと、現実世界オブジェクトのジオメトリを再構成するために表面再構成技術を適用するステップと、を含む。別の例において、本方法は、さらに、一つまたはそれ以上の立体から深度への画像化解析を使用して深度データを生成するステップと、を含む。別の例において、本方法は、さらに、操作の最中にHMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を薄暗くするステップと、を含む。別の例において、本方法は、さらに、HMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を実質的に透明になるようにするステップと、を含む。別の例において、本方法は、さらに、ユーザを体積形状を用いて表現するステップと、ユーザと現実世界オブジェクトとの間の距離を判断するときに体積形状を使用するステップと、を含む。別の例において、本方法は、さらに、物理的空間のグラウンドの上でのユーザの頭の高さに応じて、体積形状をサイズ合わせするステップと、を含む。別の例において、本方法は、さらに、体積形状のサイズ、形状、または他の特性に応じて、既定の閾値を変えるステップと、を含む。別の例において、本方法は、さらに、ユーザが座っているときは、ユーザが立っているときと比較して相対的に小さくなるように既定の閾値を構成するステップと、を含む。別の例において、本方法は、さらに、ユーザの現在の高さを判断するためにセンサデータを使用するステップと、を含む。
さらなる例は、物理的環境におけるユーザによって操作可能なヘッドマウントディスプレイ(HMD)デバイスを含む。本デバイスは、一つまたはそれ以上のプロセッサと、現実世界と仮想世界の表示エレメントとの間の付加的な混合を使用するシースルーディスプレイと、コンピュータで読取り可能なインストラクションを保管している一つまたはそれ以上のメモリデバイスと、を含む。一つまたはそれ以上のプロセッサによって実行されると、深度センサまたはカメラシステムを使用して表面再構成データを生成するステップと、表面再構成データを使用してユーザを表現する体積形状から物理的環境における現実世界オブジェクトまでの距離を判断するステップと、現実世界オブジェクトが体積形状から閾値距離の範囲内にあるときシースルーディスプレイの少なくとも一部がユーザによって見通せるようにHMDを操作するステップ、を実施する。
別の例において、HMDデバイスは、さらに、仮想世界の少なくとも一部が現実世界オブジェクトの表示を妨害しないように、仮想世界の表示について暗いピクセルをレンダリングすることによってシースルーディスプレイを操作すること、を含む。別の例において、HMDデバイスは、さらに、表面再構成データを収集するために構成された深度センサを含む。別の例において、HMDデバイスは、さらに、ユーザが立っているか、または、座っているかに関する判断に応じて、閾値距離を変えること、を含む。別の例において、HMDデバイスは、さらに、表面再構成データパイプラインを使用して物理的環境をモデル化することであり、統合される複数のオーバーラップしている表面を生成する容積法を実施すること、を含む。別の例において、HMDデバイスは、さらに、シースルーディスプレイを実質的に包み込むシールド保護バイザーを含む。
さらなる実施例は、コンピュータで実行可能なインストラクションを保管している一つまたはそれ以上のコンピュータで読取り可能なメモリを含む。インストラクションは、物理的環境におけるヘッドマウントディスプレイ(HMD)デバイスのユーザに対して示された没入させる仮想環境について、つまずき対抗機能を提供するための方法を実施するものである。本方法は、仮想環境のレンダリングのディミングによる選択的な透明オペレーションのためにHDMデバイスの中に組み込まれるディスプレイ光学素子を構成すること、表面再構成を使用して物理的環境とその中に含まれる現実世界オブジェクトを動的にモデル化すること、表面再構成モデルにおけるユーザから現実世界オブジェクトまでの距離を判断すること、そして、距離が既定の閾値と等しいか小さいときに、ユーザがディスプレイ光学素子を通じて現実世界を見ることができるようにディスプレイ光学素子を透明オペレーションのためにディミングすること、を含む。
別の例において、一つまたはそれ以上のコンピュータで読取り可能なメモリは、さらに、動的なモデル化と判断のステップを反復して実行することを含む。別の例において、一つまたはそれ以上のコンピュータで読取り可能なメモリは、さらに、距離が既定の閾値を超えるときに、仮想現実環境のレンダリングを再開するためにディスプレイ光学素子をディミングしないこと、を含む。別の例において、既定の閾値は、物理的環境におけるユーザの頭の高さに依存している。
技術的事項が構造的特徴及び/又は方法論的アクトに特有の言葉で説明されてきたが、添付の特許請求の範囲において定められる技術的事項は、上述された特定の特徴またはアクトに必ずしも限定される必要はないことが理解されるべきである。むしろ、上述の特定の特徴およびアクトは、請求項に係る発明の実施例として開示されたものである。

Claims (15)

  1. 仮想現実環境のレンダリングを支援するヘッドマウントディスプレイ(HMD)によって実施される方法であって、
    前記HMDデバイスのユーザに隣接する物理的空間を記述するセンサデータを獲得するステップと、
    前記センサデータを使用して、前記物理的空間に置かれた現実世界オブジェクトのジオメトリを再構成するステップと、
    前記再構成されたジオメトリを使用して、前記ユーザと前記現実世界オブジェクトとの間の距離を判断するステップと、
    を含み、
    前記距離が既定の閾値と等しいか小さい場合には、前記ユーザが、前記仮想現実環境からの妨害なしに前記現実世界オブジェクトを見ることができるように、前記HMDデバイスを操作する、
    方法。
  2. 前記センサデータは、深度データを含み、
    前記方法は、さらに、
    深度センサを使用して前記センサデータを生成するステップと、
    前記現実世界オブジェクトのジオメトリを再構成するために表面再構成技術を適用するステップと、を含む、
    請求項1に記載の方法。
  3. 前記方法は、さらに、
    一つまたはそれ以上の、立体から深度への画像化解析を使用して、深度データを生成するステップと、を含む、
    請求項1に記載の方法。
  4. 前記方法は、さらに、
    前記操作の最中に、前記HMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を薄暗くするステップと、を含む、
    請求項1に記載の方法。
  5. 前記方法は、さらに、
    前記HMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を実質的に透明になるようにするステップと、を含む、
    請求項1に記載の方法。
  6. 前記方法は、さらに、
    前記ユーザを体積形状を用いて表現するステップと、
    前記ユーザと前記現実世界オブジェクトとの間の前記距離を判断するときに、前記体積形状を使用するステップと、を含む、
    請求項1に記載の方法。
  7. 前記方法は、さらに、
    前記物理的空間のグラウンドの上での前記ユーザの頭の高さに応じて、前記体積形状をサイズ合わせするステップと、を含む、
    請求項6に記載の方法。
  8. 前記方法は、さらに、
    前記体積形状のサイズ、形状、または他の特性に応じて、前記既定の閾値を変えるステップと、を含む、
    請求項7に記載の方法。
  9. 前記方法は、さらに、
    前記ユーザが座っているときは、前記ユーザが立っているときと比較して相対的に小さくなるように、前記既定の閾値を構成するステップと、を含む、
    請求項8に記載の方法。
  10. 前記方法は、さらに、
    前記ユーザの現在の高さを判断するために前記センサデータを使用するステップと、を含む、
    請求項1に記載の方法。
  11. 物理的環境におけるユーザによって操作可能なヘッドマウントディスプレイ(HMD)デバイスであって、
    一つまたはそれ以上のプロセッサと、
    現実世界と仮想世界の表示エレメントとの間の付加的な混合を使用するシースルーディスプレイと、
    コンピュータで読取り可能なインストラクションを保管している一つまたはそれ以上のメモリデバイスであり、前記インストラクションが前記一つまたはそれ以上のプロセッサによって実行されると方法を実施する、メモリデバイスと、
    を含み、
    前記方法は、
    深度センサまたはカメラシステムを使用して表面再構成データを生成するステップと、
    前記表面再構成データを使用して、前記ユーザを表現する体積形状から前記物理的環境における現実世界オブジェクトまでの距離を判断するステップと、
    前記現実世界オブジェクトが前記体積形状から閾値距離の範囲内にあるとき、前記シースルーディスプレイの少なくとも一部が前記ユーザによって見通せるように、前記HMDを操作するステップと、
    を含む、
    HMDデバイス。
  12. 前記方法は、さらに、
    前記仮想世界の少なくとも一部が前記現実世界オブジェクトの表示を妨害しないように、前記仮想世界の表示について暗いピクセルをレンダリングすることによって前記シースルーディスプレイを操作するステップと、含む、
    請求項11に記載のHMDデバイス。
  13. 前記HMDデバイスは、さらに、
    前記表面再構成データを収集するために構成された深度センサと、を含む、
    請求項11に記載のHMDデバイス。
  14. 前記方法は、さらに、
    前記ユーザが立っているか、または、座っているかに関する判断に応じて、前記閾値距離を変えるステップと、を含む、
    請求項11に記載のHMDデバイス。
  15. 前記方法は、さらに、
    表面再構成データパイプラインを使用して前記物理的環境をモデル化するステップであり、統合される複数のオーバーラップしている表面を生成する容積法を実施する、ステップと、を含む、
    請求項11に記載のHMDデバイス。
JP2017503989A 2014-07-25 2015-07-24 仮想現実環境の中に没入したときのつまずき対抗 Pending JP2017531221A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462029351P 2014-07-25 2014-07-25
US62/029,351 2014-07-25
US14/600,774 US10311638B2 (en) 2014-07-25 2015-01-20 Anti-trip when immersed in a virtual reality environment
US14/600,774 2015-01-20
PCT/US2015/041867 WO2016014877A1 (en) 2014-07-25 2015-07-24 Anti-trip when immersed in a virtual reality environment

Publications (1)

Publication Number Publication Date
JP2017531221A true JP2017531221A (ja) 2017-10-19

Family

ID=53801186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017503989A Pending JP2017531221A (ja) 2014-07-25 2015-07-24 仮想現実環境の中に没入したときのつまずき対抗

Country Status (11)

Country Link
US (1) US10311638B2 (ja)
EP (1) EP3172649B1 (ja)
JP (1) JP2017531221A (ja)
KR (1) KR102385756B1 (ja)
CN (1) CN106575155A (ja)
AU (1) AU2015292490A1 (ja)
BR (1) BR112017000069A2 (ja)
CA (1) CA2954727A1 (ja)
MX (1) MX2017001129A (ja)
RU (1) RU2017102204A (ja)
WO (1) WO2016014877A1 (ja)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9392212B1 (en) 2014-04-17 2016-07-12 Visionary Vr, Inc. System and method for presenting virtual reality content to a user
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10389992B2 (en) * 2014-08-05 2019-08-20 Utherverse Digital Inc. Immersive display and method of operating immersive display for real-world object alert
US10943395B1 (en) 2014-10-03 2021-03-09 Virtex Apps, Llc Dynamic integration of a virtual environment with a physical environment
US9665170B1 (en) * 2015-06-10 2017-05-30 Visionary Vr, Inc. System and method for presenting virtual reality content to a user based on body posture
US10685211B2 (en) 2015-08-04 2020-06-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
US10133345B2 (en) * 2016-03-22 2018-11-20 Microsoft Technology Licensing, Llc Virtual-reality navigation
US10665019B2 (en) * 2016-03-24 2020-05-26 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality
US10722800B2 (en) 2016-05-16 2020-07-28 Google Llc Co-presence handling in virtual reality
WO2017201191A1 (en) * 2016-05-17 2017-11-23 Google Llc Methods and apparatus to project contact with real objects in virtual reality environments
KR20170135267A (ko) * 2016-05-31 2017-12-08 엘지전자 주식회사 글래스 타입의 이동 단말기
US20170372499A1 (en) * 2016-06-27 2017-12-28 Google Inc. Generating visual cues related to virtual objects in an augmented and/or virtual reality environment
CN106200947B (zh) * 2016-06-30 2020-05-26 联想(北京)有限公司 一种电子设备以及虚拟环境图像展示方法
CN106249882B (zh) * 2016-07-26 2022-07-12 华为技术有限公司 一种应用于vr设备的手势操控方法与装置
KR20180021515A (ko) * 2016-08-22 2018-03-05 삼성전자주식회사 영상 표시 장치 및 영상 표시 장치의 동작 방법
US10032314B2 (en) 2016-10-11 2018-07-24 Microsoft Technology Licensing, Llc Virtual reality headset
FR3058534B1 (fr) 2016-11-09 2019-02-01 Stereolabs Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles
CN106530620A (zh) * 2016-12-26 2017-03-22 宇龙计算机通信科技(深圳)有限公司 一种安全监测方法、装置、系统及虚拟现实设备
JP7190434B2 (ja) * 2016-12-29 2022-12-15 マジック リープ, インコーポレイテッド 外部条件に基づくウェアラブルディスプレイデバイスの自動制御
EP3367210A1 (en) 2017-02-24 2018-08-29 Thomson Licensing Method for operating a device and corresponding device, system, computer readable program product and computer readable storage medium
CN106971501B (zh) * 2017-03-09 2019-07-26 广州三星通信技术研究有限公司 用于虚拟现实设备的提醒方法和提醒装置
US10475243B2 (en) * 2017-03-31 2019-11-12 Intel Corporation Transition between virtual reality and real world
US10514801B2 (en) * 2017-06-15 2019-12-24 Microsoft Technology Licensing, Llc Hover-based user-interactions with virtual objects within immersive environments
US10627635B2 (en) * 2017-08-02 2020-04-21 Microsoft Technology Licensing, Llc Transitioning into a VR environment and warning HMD users of real-world physical obstacles
KR102552403B1 (ko) 2017-09-29 2023-07-07 애플 인크. 물리적 경계 검출
DE102017218215B4 (de) * 2017-10-12 2024-08-01 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
EP3714438B1 (en) * 2017-11-21 2023-08-16 Volvo Truck Corporation Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product
CN108156669A (zh) * 2017-12-04 2018-06-12 捷开通讯(深圳)有限公司 智能终端通信方法、智能终端及具有存储功能的装置
US11164380B2 (en) 2017-12-05 2021-11-02 Samsung Electronics Co., Ltd. System and method for transition boundaries and distance responsive interfaces in augmented and virtual reality
EP3540570A1 (en) * 2018-03-13 2019-09-18 Thomson Licensing Method for generating an augmented representation of a real environment, corresponding device, computer program product, and computer-readable carrier medium
US10853946B2 (en) * 2018-05-18 2020-12-01 Ebay Inc. Physical object boundary detection techniques and systems
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US11430215B2 (en) 2018-06-20 2022-08-30 Hewlett-Packard Development Company, L.P. Alerts of mixed reality devices
WO2019245543A1 (en) * 2018-06-20 2019-12-26 Hewlett-Packard Development Company, L.P. Alerts of mixed reality devices
US11816886B1 (en) * 2018-06-28 2023-11-14 Meta Platforms Technologies, Llc Apparatus, system, and method for machine perception
WO2020023404A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Flicker mitigation when toggling eyepiece display illumination in augmented reality systems
US10901081B2 (en) 2018-10-02 2021-01-26 International Business Machines Corporation Virtual reality safety
DE102018217834A1 (de) 2018-10-18 2020-04-23 Robert Bosch Gmbh Verfahren und System zum Betreiben einer Erfassungs- und Anzeigevorrichtung
US11004269B2 (en) * 2019-04-22 2021-05-11 Microsoft Technology Licensing, Llc Blending virtual environments with situated physical reality
JP7356827B2 (ja) 2019-06-26 2023-10-05 株式会社コロプラ プログラム、情報処理方法、及び情報処理装置
US11842449B2 (en) 2019-09-26 2023-12-12 Apple Inc. Presenting an environment based on user movement
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11126850B1 (en) 2020-04-09 2021-09-21 Facebook Technologies, Llc Systems and methods for detecting objects within the boundary of a defined space while in artificial reality
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11493764B2 (en) 2020-06-04 2022-11-08 Htc Corporation Method for dynamically displaying real-world scene, electronic device, and computer readable medium
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11475652B2 (en) 2020-06-30 2022-10-18 Samsung Electronics Co., Ltd. Automatic representation toggling based on depth camera field of view
US12026901B2 (en) 2020-07-01 2024-07-02 Samsung Electronics Co., Ltd. Efficient encoding of depth data across devices
US11893206B2 (en) * 2020-09-02 2024-02-06 Autodesk, Inc. Transitions between states in a hybrid virtual reality desktop computing environment
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11507246B2 (en) * 2020-10-07 2022-11-22 Htc Corporation Method for dynamically showing virtual boundary, electronic device and computer readable storage medium thereof
CN112269472A (zh) * 2020-11-27 2021-01-26 上海影创信息科技有限公司 构建虚拟边界对象的方法和系统及其vr眼镜
CN112363628A (zh) * 2020-11-27 2021-02-12 上海影创信息科技有限公司 虚拟对象互动处理的方法和系统及其vr眼镜
CN112419509A (zh) * 2020-11-27 2021-02-26 上海影创信息科技有限公司 虚拟对象生成处理的方法和系统及其vr眼镜
CN112579029A (zh) * 2020-12-11 2021-03-30 上海影创信息科技有限公司 Vr眼镜的显示控制方法和系统
US11232644B1 (en) 2020-12-31 2022-01-25 Facebook Technologies, Llc Systems and methods for providing spatial awareness in virtual reality
US11461986B2 (en) 2021-01-27 2022-10-04 Qualcomm Incorporated Context-aware extended reality systems
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11449137B2 (en) * 2021-02-12 2022-09-20 Rockwell Collins, Inc. Soldier and surface vehicle heads-up display imagery compensation system to align imagery with surroundings
US12164741B2 (en) 2022-04-11 2024-12-10 Meta Platforms Technologies, Llc Activating a snap point in an artificial reality environment

Family Cites Families (166)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061064A (en) 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5615132A (en) 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
US5748189A (en) 1995-09-19 1998-05-05 Sony Corp Method and apparatus for sharing input devices amongst plural independent graphic display devices
US5877748A (en) 1995-11-20 1999-03-02 Redlich; Sanford I. Computer control input interface system
US6127990A (en) 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6012926A (en) 1996-03-27 2000-01-11 Emory University Virtual reality system for treating patients with anxiety disorders
US5880733A (en) 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
GB2334643A (en) 1998-02-20 1999-08-25 Discreet Logic Inc Generating registration data for a virtual set
US6329986B1 (en) 1998-02-21 2001-12-11 U.S. Philips Corporation Priority-based virtual environment
GB2336057B (en) 1998-04-02 2002-05-08 Discreet Logic Inc Producing image data in a virtual set
AU2001233019A1 (en) 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
US6552698B1 (en) 2000-05-02 2003-04-22 Agilent Technologies, Inc. Immersive display system
US20020044152A1 (en) 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US20020154214A1 (en) 2000-11-02 2002-10-24 Laurent Scallie Virtual reality game system using pseudo 3D display driver
US6898266B2 (en) 2000-11-13 2005-05-24 Digitome Corporation 3D projection method
US6804607B1 (en) * 2001-04-17 2004-10-12 Derek Wood Collision avoidance system and method utilizing variable surveillance envelope
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US7274380B2 (en) 2001-10-04 2007-09-25 Siemens Corporate Research, Inc. Augmented reality system
US7010158B2 (en) 2001-11-13 2006-03-07 Eastman Kodak Company Method and apparatus for three-dimensional scene modeling and reconstruction
US7386799B1 (en) 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
ATE404952T1 (de) * 2003-07-24 2008-08-15 Cognitens Ltd Verfahren und system zur dreidimensionalen oberflächenrekonstruktion eines objekts
JP4262011B2 (ja) 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
JP4401727B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP4638143B2 (ja) * 2003-12-26 2011-02-23 富士重工業株式会社 車両用運転支援装置
US7487463B2 (en) 2004-02-17 2009-02-03 Sun Microsystems, Inc. Multiprocess input redirection in a 3D window system
JP4125252B2 (ja) 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
EP1754201A1 (en) 2004-05-27 2007-02-21 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
CN1922651A (zh) 2004-06-10 2007-02-28 松下电器产业株式会社 穿戴型信息提示装置
US7950026B1 (en) 2004-06-24 2011-05-24 Julian Michael Urbach Virtual application execution system and method
US7557774B2 (en) 2004-08-13 2009-07-07 Microsoft Corporation Displaying visually correct pointer movements on a multi-monitor display system
US20060050070A1 (en) 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
WO2006035755A1 (ja) 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
US7248968B2 (en) * 2004-10-29 2007-07-24 Deere & Company Obstacle detection using stereo vision
US20060092178A1 (en) 2004-10-29 2006-05-04 Tanguay Donald O Jr Method and system for communicating through shared media
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
JP4660357B2 (ja) * 2005-11-18 2011-03-30 任天堂株式会社 画像処理プログラムおよび画像処理装置
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
JP5154775B2 (ja) 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4999408B2 (ja) 2006-09-11 2012-08-15 スカラ株式会社 ヘッドマウント型表示装置、及び画像表示装置
AU2007317538A1 (en) * 2006-11-03 2008-05-15 University Of Georgia Research Foundation Interfacing with virtual reality
US20080174659A1 (en) 2007-01-18 2008-07-24 Mcdowall Ian Wide field of view display device and method
EP2095296B1 (en) * 2007-04-20 2014-01-01 Softkinetic Software A method and system for providing a three-dimensional model of an object of interest.
US8605008B1 (en) * 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
US8576247B2 (en) 2007-08-03 2013-11-05 Apple Inc. Method and apparatus for adjusting pixel values
US8049750B2 (en) 2007-11-16 2011-11-01 Sportvision, Inc. Fading techniques for virtual viewpoint animations
US20090160985A1 (en) * 2007-12-10 2009-06-25 The University Of Connecticut Method and system for recognition of a target in a three dimensional scene
US9355493B2 (en) 2007-12-31 2016-05-31 Advanced Micro Devices, Inc. Device and method for compositing video planes
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US20090199275A1 (en) 2008-02-06 2009-08-06 David Brock Web-browser based three-dimensional media aggregation social networking application
NL1035303C2 (nl) 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
WO2009128781A1 (en) 2008-04-17 2009-10-22 Lundgren & Nordstrand Ab A method and a device for remote visualization
JP5111312B2 (ja) 2008-09-16 2013-01-09 任天堂株式会社 3次元画像処理プログラム、3次元画像処理装置、3次元画像処理システムおよび3次元画像処理方法
US8266536B2 (en) 2008-11-20 2012-09-11 Palo Alto Research Center Incorporated Physical-virtual environment interface
US8970690B2 (en) 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US8004769B2 (en) 2009-03-05 2011-08-23 Nabes, Llc Binocular apparatus and system
CN101540020B (zh) 2009-04-01 2012-09-26 江西省交通设计院 一种公路三维选线方法
US20100315413A1 (en) 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP5263049B2 (ja) 2009-07-21 2013-08-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9286720B2 (en) 2009-08-20 2016-03-15 Northrop Grumman Systems Corporation Locative video for situation awareness
KR101627214B1 (ko) 2009-11-12 2016-06-03 엘지전자 주식회사 영상표시장치 및 그 동작방법
JP4679661B1 (ja) 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
WO2011084895A1 (en) 2010-01-08 2011-07-14 Kopin Corporation Video eyewear for smart phone games
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
CN101813976A (zh) 2010-03-09 2010-08-25 华南理工大学 基于soc的视线跟踪人机交互方法及装置
US8570344B2 (en) 2010-04-02 2013-10-29 Qualcomm Incorporated Augmented reality direction orientation mask
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US9798436B2 (en) 2010-07-08 2017-10-24 Red Hat Israel, Ltd. Remote computing with a low latency mouse mode
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
EP2418865A3 (en) 2010-08-09 2014-08-06 LG Electronics Inc. 3D viewing device, image display apparatus, and method for operating the same
US8780014B2 (en) 2010-08-25 2014-07-15 Eastman Kodak Company Switchable head-mounted display
KR101674957B1 (ko) 2010-08-31 2016-11-10 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8675993B2 (en) 2010-09-03 2014-03-18 Adobe Systems Incorporated Methods and apparatus for patch-based shape from shading
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
EP2625845B1 (en) 2010-10-04 2021-03-03 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US8401225B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8606010B2 (en) 2011-03-18 2013-12-10 Seiko Epson Corporation Identifying text pixels in scanned images
EP3654146A1 (en) 2011-03-29 2020-05-20 QUALCOMM Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
US9030425B2 (en) 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change
US9022864B2 (en) 2011-06-03 2015-05-05 Nintendo Co., Ltd. Apparatus and method for controlling objects on a stereoscopic display
US8692738B2 (en) 2011-06-10 2014-04-08 Disney Enterprises, Inc. Advanced Pepper's ghost projection system with a multiview and multiplanar display
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
JP5145444B2 (ja) 2011-06-27 2013-02-20 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
WO2013014919A1 (ja) 2011-07-27 2013-01-31 株式会社ブリヂストン 空気入りタイヤおよび、空気入りタイヤの製造方法
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US9342610B2 (en) 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
EP2751775B1 (en) 2011-08-30 2016-07-06 Monash University System and method for processing sensor data for the visually impaired
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
WO2013033842A1 (en) 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
US20130083007A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Changing experience using personal a/v system
US20130083018A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Personal audio/visual system with holographic objects
EP2579128B1 (en) 2011-10-05 2017-11-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Portable device, virtual reality system and method
US20130088413A1 (en) 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
JP6157486B2 (ja) 2011-10-20 2017-07-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療処置のためのホログラフィユーザインターフェース
US9454849B2 (en) 2011-11-03 2016-09-27 Microsoft Technology Licensing, Llc Augmented reality playspaces with adaptive game rules
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US20130137076A1 (en) 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
US20130141419A1 (en) 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
WO2013085193A1 (ko) 2011-12-06 2013-06-13 경북대학교 산학협력단 사용자 인지 향상 장치 및 그 인지 향상 방법
US20130147686A1 (en) 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US20160011724A1 (en) 2012-01-06 2016-01-14 Google Inc. Hands-Free Selection Using a Ring-Based User-Interface
US9734633B2 (en) 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
CN102646117B (zh) 2012-02-20 2015-07-08 华为技术有限公司 文件数据传送的方法与装置
US10008002B2 (en) * 2012-02-28 2018-06-26 NXP Canada, Inc. Single-camera distance estimation
JP6066037B2 (ja) 2012-03-27 2017-01-25 セイコーエプソン株式会社 頭部装着型表示装置
US8988465B2 (en) 2012-03-30 2015-03-24 Ford Global Technologies, Llc Physical-virtual hybrid representation
CN103472909B (zh) 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
US8855442B2 (en) 2012-04-30 2014-10-07 Yuri Owechko Image registration of multimodal data using 3D-GeoArcs
JP2013238693A (ja) 2012-05-14 2013-11-28 Sharp Corp 画像表示装置、画像表示方法及びプログラム
US20130307855A1 (en) 2012-05-16 2013-11-21 Mathew J. Lamb Holographic story telling
US20130326364A1 (en) 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
JP5953963B2 (ja) 2012-06-13 2016-07-20 ソニー株式会社 頭部装着型映像表示装置
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US9219901B2 (en) 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
US9767720B2 (en) 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9645394B2 (en) 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
US9292085B2 (en) 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
EP2872967B1 (en) 2012-07-13 2018-11-21 Sony Depthsensing Solutions SA/NV Method and system for detecting hand-related parameters for human-to-computer gesture-based interaction
US9429912B2 (en) 2012-08-17 2016-08-30 Microsoft Technology Licensing, Llc Mixed reality holographic object development
US8994614B2 (en) 2012-10-11 2015-03-31 Sony Computer Entertainment Europe Limited Head mountable display
US10241638B2 (en) 2012-11-02 2019-03-26 Atheer, Inc. Method and apparatus for a three dimensional interface
US9135052B2 (en) 2012-11-06 2015-09-15 Red Hat Israel, Ltd. Distributed multiple monitor display split using multiple client devices in a virtualization system
GB2499694B8 (en) 2012-11-09 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of image reconstruction
US9619911B2 (en) 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
JP5818773B2 (ja) 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6271960B2 (ja) 2012-11-26 2018-01-31 キヤノン株式会社 情報処理システム
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
US9058693B2 (en) 2012-12-21 2015-06-16 Dassault Systemes Americas Corp. Location correction of virtual objects
US9443352B1 (en) 2012-12-21 2016-09-13 Motion Reality, Inc. Navigating through a virtual environment having a real-world elevation characteristics using motion capture
JP6029453B2 (ja) 2012-12-21 2016-11-24 京セラ株式会社 携帯端末、カーソル表示制御プログラム、カーソル表示制御方法、カーソル発生制御プログラム、カーソル発生制御方法、アイコン表示プログラムおよびアイコン表示方法
US9412201B2 (en) 2013-01-22 2016-08-09 Microsoft Technology Licensing, Llc Mixed reality filtering
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US10529134B2 (en) 2013-02-01 2020-01-07 Sony Corporation Information processing device, client device, information processing method, and program
WO2014129105A1 (ja) 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ及びヘッドマウントディスプレイ制御プログラム
US20140240351A1 (en) 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
US20140253605A1 (en) 2013-03-05 2014-09-11 John N. Border Controlling brightness of a displayed image
US9041741B2 (en) 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
KR102148809B1 (ko) 2013-04-22 2020-08-27 삼성전자주식회사 단축 아이콘 윈도우 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JPWO2014188798A1 (ja) 2013-05-21 2017-02-23 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
US20140363073A1 (en) 2013-06-11 2014-12-11 Microsoft Corporation High-performance plane detection with depth camera data
WO2014204330A1 (en) 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
US9329682B2 (en) 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US9256072B2 (en) 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US9679144B2 (en) 2013-11-15 2017-06-13 Microsoft Technology Licensing, Llc Protecting privacy in web-based immersive augmented reality
JP6119570B2 (ja) 2013-11-19 2017-04-26 ソニー株式会社 表示装置、表示方法およびプログラム
US20150145887A1 (en) 2013-11-25 2015-05-28 Qualcomm Incorporated Persistent head-mounted content display
WO2015082015A1 (en) 2013-12-06 2015-06-11 Longsand Limited Occluding augmented reality objects
CN103761085B (zh) 2013-12-18 2018-01-19 微软技术许可有限责任公司 混合现实全息对象开发
US9626776B2 (en) 2013-12-20 2017-04-18 Cognex Corporation Apparatus, systems, and methods for processing a height map
CN104750440B (zh) 2013-12-30 2017-09-29 纬创资通股份有限公司 多屏幕的窗口管理方法、电子装置与计算机程序产品
US10001645B2 (en) 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9691181B2 (en) 2014-02-24 2017-06-27 Sony Interactive Entertainment Inc. Methods and systems for social sharing head mounted display (HMD) content with a second screen
US20150261293A1 (en) 2014-03-12 2015-09-17 Weerapan Wilairat Remote device control via gaze detection
KR20150141461A (ko) 2014-06-10 2015-12-18 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
US20160027218A1 (en) 2014-07-25 2016-01-28 Tom Salter Multi-user gaze projection using head mounted display devices
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US20160027214A1 (en) 2014-07-25 2016-01-28 Robert Memmott Mouse sharing between a desktop and a virtual world
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display

Also Published As

Publication number Publication date
KR20170035995A (ko) 2017-03-31
EP3172649B1 (en) 2019-10-02
US10311638B2 (en) 2019-06-04
US20160027212A1 (en) 2016-01-28
AU2015292490A1 (en) 2017-01-12
EP3172649A1 (en) 2017-05-31
WO2016014877A1 (en) 2016-01-28
MX2017001129A (es) 2017-05-09
CA2954727A1 (en) 2016-01-28
KR102385756B1 (ko) 2022-04-11
CN106575155A (zh) 2017-04-19
BR112017000069A2 (pt) 2017-10-31
RU2017102204A (ru) 2018-07-24

Similar Documents

Publication Publication Date Title
US10311638B2 (en) Anti-trip when immersed in a virtual reality environment
US10955914B2 (en) Gaze-based object placement within a virtual reality environment
US10096168B2 (en) Three-dimensional mixed-reality viewport
US9645397B2 (en) Use of surface reconstruction data to identify real world floor
US10451875B2 (en) Smart transparency for virtual objects
US9904055B2 (en) Smart placement of virtual objects to stay in the field of view of a head mounted display
CN106575209B (zh) 具有现实世界对象的虚拟现实环境
US20160027214A1 (en) Mouse sharing between a desktop and a virtual world