JP2017531221A - 仮想現実環境の中に没入したときのつまずき対抗 - Google Patents
仮想現実環境の中に没入したときのつまずき対抗 Download PDFInfo
- Publication number
- JP2017531221A JP2017531221A JP2017503989A JP2017503989A JP2017531221A JP 2017531221 A JP2017531221 A JP 2017531221A JP 2017503989 A JP2017503989 A JP 2017503989A JP 2017503989 A JP2017503989 A JP 2017503989A JP 2017531221 A JP2017531221 A JP 2017531221A
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- hmd device
- real world
- method further
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 206010017577 Gait disturbance Diseases 0.000 title description 2
- 238000000034 method Methods 0.000 claims description 67
- 238000009877 rendering Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 238000004513 sizing Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 12
- 238000005562 fading Methods 0.000 abstract description 5
- 210000003128 head Anatomy 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000007177 brain activity Effects 0.000 description 2
- 239000002775 capsule Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
シースルーディスプレイと深度検出能力を伴うHMDデバイスは、仮想現実環境の表示を選択的に薄暗く又はフェードアウトするように構成されている。ユーザと現実世界オブジェクトとの間の距離が閾値距離よりも小さいと判断されたときに、仮想世界による妨害なしにユーザが現実世界を見ることができるようにである。ユーザが立っているか、または、座っているかに応じて異なる閾値距離が使用され得るように、ディミング/フェーディングを実行するときに、ユーザの頭の現在の高さ(つまり、頭から地面までの距離)が使用されてよい。
Description
ヘッドマウントディスプレイ(HMD)システムおよびハンドヘルドモバイルデバイス(例えば、スマートフォン、タブレットコンピュータ、等)といった、複合現実(mixed reality)コンピューティングデバイスは、ユーザの視野及び/又はデバイスのカメラの視野において、仮想及び/又は現実のオブジェクトに関する情報をユーザに対して表示するように構成されてよい。例えば、HMDデバイスは、シースルー(see−through)ディスプレイシステムを使用して、現実世界オブジェクトが混合された(mixed in)仮想環境、または、仮想オブジェクトが混合された現実世界環境を表示するように構成されてよい。同様に、モバイルデバイスは、カメラのビューファインダのウィンドウを使用してそうした情報を表示してよい。
この背景は、以降の概要および詳細な説明に対する簡素なコンテクストを紹介するために提供されるものである。この背景は、請求される技術的事項の範囲を定めることを支援するように意図されたものではなく、また、請求項される技術的事項を上記の不利な点または問題のいくつか又は全てを解決する実施に限定するものと見なされるものでもない。
シースルーディスプレイと深度(depth)検出能力を伴うHMDデバイスは、仮想現実環境の表示を選択的に薄暗く(dim)またはフェードアウト(fade out)するように構成されている。ユーザと現実世界オブジェクトとの間の距離が閾値距離よりも小さいと判断されたときに、仮想世界による妨害なしにユーザが現実世界を見ることができるようにである。ユーザが立っているか、または、座っているかに応じて異なる閾値距離が使用され得るように、ディミング(dimming)/フェーディング(fading)を実行するときに、ユーザの頭の現在の高さ(つまり、頭から地面までの距離)が使用されてよい。
様々な説明的な実施例において、表面再構成データまたは深度データは、深度センサを使用するHMDデバイスによって、または、立体画像化(stereo imaging)から深度を判断することによってキャプチャされる。ユーザと現実世界オブジェクトとの間の距離を動的に測定するためであり、ユーザの高さを見積ることも同様である。ユーザは、ユーザの高さに応じた大きさの円柱またはカプセルといった体積形状(volumetric shape)を使用して表現されてよい。ディスプレイのディミング/フェーディングが実行される際の現実世界オブジェクトとユーザを表現している体積形状との間の閾値距離は、ユーザが座っているときは、より小さく、そして、ユーザが立っているときは、より大きいものであり得る。座っている場合に、立っている又は走っている場合のそうしたオブジェクトとのインタラクションと比較して、現実世界オブジェクトに突き当たるか、接触するときのユーザに対するより小さな安全上の問題(safety hazard)を認めて、様々な閾値が使用されてよい。それらはつまずき(trip)又は、ころび(fall)を結果として生じ得るものである。
この概要は、以降の詳細な説明においてより詳しく説明される概念の選択について、簡素化された形式において紹介するものである。この概要は、請求される技術的事項の主要な特徴または本質的な特徴を特定するように意図されたものではなく、また、請求される技術的事項の範囲を定める支援として使用されるように意図されたものでもない。さらに、請求される技術的事項は、この開示のあらゆる部分において示されたいくつか又は全ての不利な点を解決する実施に限定されるものではない。上記の技術的事項は、コンピュータコントロール装置、コンピュータプロセス、コンピューティングシステム、または、一つまたはそれ以上のコンピュータで読取り可能なストレージ媒体といった製品として実施され得ることが正しく理解されてよい。これらの特徴及び様々な他の特徴は、以降の詳細な説明を読むこと、および、関連する図面のレビューから明らかであり得る。
類似の参照番号は、図面において類似のエレメントを示している。エレメントは、そうでないものと示されていなければ、縮尺どおりに描かれていない。
HMDデバイスを使用しながら複合現実または仮想現実環境を体験しているとき、ユーザは、現実世界空間において動き回る際に物理的オブジェクトに突き当たり、または、つまずくことがある。なぜなら、仮想世界がユーザのビューを妨害しているからである。一つの説明的な例においては、図1に示されるように、ユーザ102は、仮想現実環境100を経験するためのシースルーHMDデバイス104を使用することができる。仮想現実環境は、目に見えるように表わされており、かつ、いくつかの実施例においては、オーディオ、及び/又は、触覚/力覚の感覚を含んでよい。この特定の限定的でない例において、仮想現実環境100は、ユーザ102が見て、かつ、相互作用することができる様々なビルディング、ストア、等を伴う街の通り(city street)を含んでいる。ユーザが頭の位置または向きを変える、及び/又は、現実世界空間の中で移動すると、仮想現実環境のユーザのビューが変化し得る。視野(図1において破線110によって表されているもの)が、サイズ合わせされ、かつ、形成され、そして、デバイスの他の特性がコントロールされ得る。仮想世界に存在しているという強い意識をユーザに提供するように、HMDデバイスの体験を視覚的に没入させる(visually immersive)ためである。
図2に示されるように、HMDデバイス104を使用しているときにユーザが占める物理的、現実世界空間200は、様々なオブジェクト(代表的に参照番号205によって示されているもの)を含み得る。オブジェクトは、ユーザに対してつまずき問題(trip hazard)を示し、もしくは、そうでなければ、接触または突き当たったときにHMDユーザ体験を邪魔し得るものである。この説明的な例において、現実世界オブジェクト205は、仮想現実環境100(図1に示されているもの)の中へ組み込まれておらず、そして、従って、HMDデバイス104を身に付けたユーザにとって普通は目に見えないものである。
本HMDデバイス104は、ユーザが仮想現実環境に没入(immerse)しているときに、つまずき対抗(anti−trip)機能を備えることができる。図3に示されるように、デバイスは、現実世界空間におけるオブジェクト205を検出し、かつ、ユーザからの距離を判断するための統合深度センサ305を使用することによって、表面再構成データ300を獲得するように構成されている。代替的な実施においては、深度データが適切な立体画像解析技術を使用して引き出され得る。
図4は、現実世界空間におけるオブジェクトに対する表面再構成データを獲得するための、説明的な表面再構成パイプラインのブロック図を示している。開示される技術は説明的なものであること、そして、特定の実施に係る要求に応じて他の技術および方法が使用されてよいことが強調される。生の深度センサデータ402は、センサの3D(三次元)姿勢見積り(pose estimation)の中へ入力される(ブロック404)。センサ姿勢トラッキング(tracking)が、例えば、予想される表面と現在のセンサ測定との間のICP(iterative closest point)アライメントを使用して達成され得る。センサの各深度測定は、例えば、符号付距離場(SDF、signed distance field)としてエンコードされた表面を使用して体積表現へと統合され得る(ブロック406)。ループを使用して、SDFは、深度マップがその上に整列される密な表面予測を提供するために見積りされたフレームの中へレイキャスト(raycast)される(ブロック408)。
ユーザが現実世界オブジェクトに近づくときを判断するために、HMDデバイス104は、図5と図6において示されるように、体積形状としてユーザ102を表わしている。体積は、カプセル、または、図5に示されるような円柱505といった、様々な任意の形状から選択されてよい。体積形状は、物理的空間の中でのユーザの頭の位置に応じてサイズ合わせされる。図6に示されるように、ユーザが座っているときに形状605がより短くなるようにである。ユーザの頭の位置は、あらゆる適切な技術を使用して判断され得る。技術は、例えば、HMDの内部センサを使用する頭トラッキング、床からのユーザの頭の高さを見積るための画像解析、または、外部/リモートの方法を用いること、を含んでいる。
ユーザがオブジェクトを見ることができるようにするためにHMDデバイスにおける表示を薄暗く、または、フェードさせる際の、体積形状と現実世界オブジェクトとの間の閾値距離は、物理的空間におけるユーザの頭の高さに応じて変動し得る(例えば、ユーザが立っている/走っているか、または、座っているか)。図7と図8に示されるように、閾値距離1(参照番号700によって示されているもの)は、より高い体積形状505と関連付けされており、そして、より低い形状605と関連付けされている閾値距離2(800)より相対的に大きいものである。
図9、図10、および図11は、HMDデバイスを使用して実行され得る説明的な方法のフローチャートである。特定的に述べられていなければ、フローチャートにおいて示され、そして、一緒のテキストにおいて説明される方法またはステップは、特定の順序またはシーケンスに限定されるものではない。加えて、そうした実施例の要求に応じて、それらのいくつかの方法またはステップは、同時に発生し、または、実行され得るものであり、かつ、必ずしも全ての方法またはステップが、所与の実施において実行されることを要するものではない。そして、いくつかの方法またはステップは、任意的に使用されてよい。
図9における方法900は、仮想現実環境のレンダリング(rendering)を支援(support)するHMDデバイスによって実行されてよい。ステップ905においては、ユーザのHMDデバイスに隣接する物理的空間を記述するセンサデータが獲得される。センサデータは、例えば、深度データを含んでよい。HMDデバイスの中に統合された深度センサを使用したもの、または、外部センサまたはソース(source)から獲得したものである。立体から深度への画像化解析(dpeth−from−stereo imaging analysis)も、また、深度データを作成するために使用されてよい。ステップ910において、センサデータは、物理的空間における現実世界オブジェクトのジオメトリ(geometry)を再構成するために使用される。例えば、表面再構成を使用するものである。
ステップ915においては、ユーザが、体積形状を用いて表現される。ステップ920において、ユーザと現実世界オブジェクトとの間の現在の距離を、再構成されたジオメトリを使用して、判断するときに、使用され得るものである。ステップ925においては、仮想現実環境から妨害されることなくユーザが現実世界オブジェクトを見ることができるように、HMDデバイスが操作される。典型的に、HMDデバイスは、仮想現実環境のレンダリングからの著しい妨害が存在しないように操作される。しかし、いくつかの部分的な妨害は、いくつかの実施例においては許容可能なものであり得る。
図10における方法1000は、シースルーディスプレイを使用するHMDデバイスによって実行されてよい。付加的な混合(additive blending)を使用するものであり、そこでは仮想現実シーン(scene)と関連付けされたピクセルが、オーバーレイする「現実世界」ピクセルに対して付加される。従って、黒の仮想色が表示される(rendered)ときに、それはユーザによって透明なものとして実際には見られ、かつ、黒の仮想ピクセルを通して見たときに、現実世界は変わらない。そして、典型的には、付加的ディスプレイにおける実際のピクセルを暗くする方法は存在しない。
ステップ1005においては、表面再構成データが、深度データまたはカメラシステムを使用して生成される。ステップ1010においては、物理的環境における現実世界オブジェクトとユーザを表現する体積形状との間の距離を判断するために使用される。様々な適切な再構成技術が使用されてよい。複数のオーバーラップしている表面が統合された、図4におけるパイプラインにおいて示されたものを含むものである。
ステップ1015において、現実世界オブジェクトが閾値距離の範囲内にあるときは、ユーザがディスプレイを通して見ることができ、かつ、現実世界オブジェクトを見ることができるように、付加的ディスプレイ上に暗いピクセル(dark pixel)が表示される。典型的には、オブジェクトのビューが仮想世界によって著しく妨害されないように、ディスプレイの十分な部分が暗いピクセルを用いて表示される。閾値距離は、ステップ1020において、ユーザが立っているか、または、座っているかに応じて、変動してよい。
図11における方法1100は、健全な仮想現実モードにおけるオペレーションから、ユーザに対して物理的環境を見せるための透明オペレーションへ切り替えられる光学ディスプレイを有するHMDデバイスによって実行されてよい。従って、既定の距離閾値の中に落とし込まれる現実世界オブジェクトが検出されたときにディスプレイが透明になるように、仮想現実環境のディスプレイは、薄暗くされ得る(つまり、フェードされる)。
ステップ1105において、HMDデバイスにおけるディスプレイ光学素子は、仮想現実環境のレンダリングを薄暗くすることを通じて、選択的に透明オペレーションをするために構成されている。ステップ1110においては、表面再構成を使用して、物理的環境が動的に(dynamically)モデル化される。つまり、モデルは、ユーザが物理的環境の中を移動する際に、例えば、フレーム毎(frame−by−frame)に、または、他の適切なやり方で更新され得る。現在の表面再構成モデルは、ステップ1115において、物理的環境におけるユーザと現実世界オブジェクトとの間の距離を判断するために使用される。ディスプレイ光学素子は、判断された距離が規定の閾値よりも小さいか等しいときに、ステップ1120において、透明オペレーションができるように仮想現実環境について薄暗くされる。判断された距離が、更新された表面再構成モデルにおける規定の閾値を超えるときは、ステップ1125において、仮想現実のレンダリングが再開される(つまり、ディスプレイが薄暗くされない)。
これから、様々な説明的な実施例の詳細に移ると、本構成に従った、シースルーの、複合現実ディスプレイデバイスは、あらゆる適切な形状(form)であってよい。これらに限定されるわけではないが、HMDデバイス104、及び/又は、他のポータブル/モバイルデバイスといったニアアイ(near−eye)デバイスを含むものである。図12は、シースルーの、複合現実ディスプレイシステム1200に係る一つの特定の例を示しており、そして、図13は、システム1200の機能ブロック図を示している。ディスプレイシステム1200は、シースルーディスプレイサブシステム1204の一部を形成する一つまたはそれ以上のレンズ1202を含んでよい。画像が、レンズ1202を使用して(例えば、レンズ1202の上へのプロジェクション、レンズ1202の中に組み込まれている一つまたはそれ以上の導波管システム(waveguide system)を使用して、及び/又は、あらゆる他の適切なやり方において)表示されるようにである。ディスプレイシステム1200は、さらに、ユーザによって見られている背景シーン及び/又は物理的空間の画像を獲得するように構成されている一つまたはそれ以上の外側に面している(outward−facing)画像センサ1206を有しており、そして、ユーザからの音声コマンドといった、サウンドを検出するように構成されている一つまたはそれ以上のマイクロフォン1208を含んでよい。外側に面している画像センサ1206は、一つまたはそれ以上の深度センサ、及び/又は、一つまたはそれ以上の2次元画像センサを含んでよい。代替的な構成において、複合現実ディスプレイシステムは、シースルーディスプレイサブシステムを組み込む代わりに、外側に面している画像センサのためのビューファインダ(viewfinder)モードを通じて複合現実の画像を表示してよい。
ディスプレイシステム1200は、さらに、上記のように、ユーザのそれぞれの目の凝視方向、または、焦点の方向もしくは位置を検出するために構成されている凝視(gaze)検出サブシステム1210を含んでよい。凝視検出サブシステムは、あらゆる適切な方法において、ユーザの目のそれぞれの凝視方向を判断するように構成されてよい。例えば、示されている説明的な例において、凝視検出サブシステム1210は、赤外光源といった、ユーザの各眼球から反射する光の閃光(glint)を生じさせるように構成された、一つまたはそれ以上の閃光光源1212、および、内側に面しているセンサといった、ユーザの各眼球の画像をキャプチャするように構成された、一つまたはそれ以上の画像センサ1214、を含んでいる。ユーザの眼球からの閃光、及び/又は、ユーザの瞳孔の位置における変化は、画像センサ1214を使用して収集された画像データから判断されるので、凝視方向の判断のために使用され得る。
加えて、ユーザの目から投射された凝視ラインが外部ディスプレイと交差する場所は、ユーザが凝視しているオブジェクト(例えば、表示された仮想オブジェクト、及び/又は、現実の背景オブジェクト)を判断するために使用されてよい。凝視検出サブシステム1210は、あらゆる適切な数量、および、光源と画像センサの構成を有してよい。いくつかの実施例においては、凝視検出サブシステム1210が除外されてよい。
ディスプレイシステム1200は、また、追加のセンサも含んでよい。例えば、ディスプレイシステム1200は、全地球測位システム(GPS)サブシステム1216を含んでよく、ディスプレイシステム1200の位置が決定されるようにすることができる。このことは、ユーザが隣接している物理的環境の中に配置され得る、ビルディング、等といった、現実世界オブジェクトを特定するために役に立ち得る。
ディスプレイシステム1200は、さらに、ユーザが、拡張現実(augmented reality)HMDデバイスの一部としてシステムを身に付けているときに、ユーザの頭の移動、および、位置/向き/姿勢を検出するための一つまたはそれ以上のモーションセンサ1218(例えば、イナーシャ、多軸ジャイロスコープ、または、加速度センサ)を含んでよい。モーションデータは、潜在的には目トラッキング閃光データ(eye−tracking glint data)および外側に面している画像データと一緒に、凝視検出のために使用され得る。外側に面している画像センサ1206からの画像におけるブラー(blur)に対する修正を手助けする画像安定化のためにも同様に使用される。モーションデータの使用により、凝視位置における変化は、外側に面している画像センサ1206からの画像データが解決され得ない場合でさえも、トラックすることができる。
加えて、モーションセンサ1218は、また、マイクロフォン1208および凝視検出サブシステム1210と同様に、ユーザ入力デバイスとして使用されてもよい。ユーザが、目、首、及び/又は、頭のジェスチャを介してディスプレイシステム1200とインタラクションし得るようにであり、いくつかの事例においては言語コマンドを介することも同様である。図12と図13に図示され、かつ、以下の文章で説明されているセンサは、例示の目的のために含まれるものであって、あらゆる方法において限定することを意図されていないことが理解されよう。あらゆる他の適切なセンサ及び/又はセンサの組み合わせは、拡張現実デバイスの特定の実施に係る必要性を満たすように利用され得るからである。例えば、バイオメトリックセンサ(例えば、心拍数と呼吸数、血圧、脳活動、体温、等を検出するためのもの)、または、環境センサ(例えば、温度、湿度、標高、UV(紫外線)レベル、等を検出するためのもの)が、いくつかの実施例において使用されてよい。
ディスプレイシステム1200は、さらに、ロジックサブシステム1222およびセンサと通信するデータストレージサブシステム1224を有しているコントローラ1220、凝視検出サブシステム1210、ディスプレイサブシステム1204、及び/又は、通信サブシステム1226を通じた他のコンポーネント、を含み得る。通信サブシステムは、また、処理、ストレージ、電力、データ、およびサービスといった、離れて置かれているリソースと併せてオペレーションされているディスプレイシステムも促進し得る。つまり、いくつかの実施例において、HMDデバイスは、異なるコンポーネントとサブシステムの中にリソースと機能を分配し得るシステムの一部としてオペレーションされ得るものである。
ストレージサブシステム1224は、ロジックサブシステム1222によって実行可能な保管されたインストラクションを含んでよい。例えば、センサからの入力を受信して解釈すること、ユーザの位置および移動を特定すること、表面再構成および他の技術を使用して現実のオブジェクトを特定すること、および、オブジェクトがユーザによって見ることができるようにオブジェクトまでの距離に基づいてディスプレイを薄暗く/フェードすること、その他のタスクである。
ディスプレイシステム1200は、拡張現実経験の一部としてオーディオが利用され得るように、一つまたはそれ以上のオーディオトランスデューサ1228(例えば、スピーカ、イヤホン、等)を用いて構成されている。電力管理サブシステム1230は、一つまたはそれ以上のバッテリー1232及び/又は保護回路モジュール(PCM)、および、ディスプレイシステム1200におけるコンポーネントに対して電力を供給するための関連の充電器インターフェイス1234、及び/又は、リモート電力インターフェイス、を含んでよい。
示されたディスプレイデバイス104と1200は、例示の目的のために説明されたものであり、従って、限定することを意図するものではないことが正しく理解されよう。さらに、ディスプレイデバイスは、追加的及び/又は代替的なセンサ、カメラ、マイクロフォン、入力デバイス、出力デバイス、等を、本構成の範囲から逸脱することなく示されているものの他に含み得ることが理解されるであろう。加えて、ディスプレイデバイスの物理的なコンフィグレーション、および、様々なセンサとサブコンポーネントは、本構成の範囲から逸脱することなく様々な異なる形状をであってよい。
図14−図18は、HMDデバイスのコンポーネントとして使用され得る複合現実ディスプレイシステム1400のための説明的な代替の実施例を示している。この例において、システム1400は、シースルーディスプレイサブシステムのために利用される内部光学素子アセンブリを保護するように構成されているシースルーシールドバイザー1402を使用する。バイザー1402は、典型的には、HMDデバイスの他のコンポーネント(図示なし)と適合される。ヘッドマウント/保持システム、および、図12と図13と併せて説明的に示されたような、センサ、電力管理コントローラ、等を含んでいる他のサブシステム、といったものである。スナップ(snap)、ボス(boss)、ネジ、および、他のファスナ、等を含んでいる適切なインターフェイスエレメント(図示なし)も、また、バイザー1402の中に組み込まれてよい。
バイザーは、シースルーのフロントシールド1404とリアシールド1405それぞれを含んでいる。透明材料を使用してモールドされ得るものであり、光学ディスプレイおよび周囲の現実世界環境に対する妨害されることのないビジョン(vision)を促進するためである。色付け(tinting)、鏡面化(mirroring)、反射防止、曇り止め、および他のコーティング、といった処理がフロントとリアシールドに対して適用されてよく、そして、また、様々な色と仕上げが、使用されてもよい。フロントとリアシールドは、シャーシに対して貼り付けられている。図15における部分的な分解図において示されるようにであり、そこでは、バイザー1402から取り外されたようにシールドカバー1510が示されている。
シールドバイザー1402は、HMDデバイスが身に付けられ、オペレーションで使用されているとき、および、クリーニングのための通常のハンドリングの最中、等の場合に、光学ディスプレイサブアセンブリ1602(図16における分解図で示されるもの)を含む、敏感な内部コンポーネントを物理的に保護することができる。バイザー1402は、また、HMDデバイスが落とされ、または、ぶつかられ、インパクトを与えられた、等の環境的な要素およびダメージから光学ディスプレイサブアセンブリ1602を保護することもできる。光学ディスプレイサブアセンブリ1602は、落下またはインパクトの際にゆがめられたときにシールドがサブアセンブリと接触しないような方法で、シールドバイザーの中にマウントされている。
図16と図18に示されるように、リアシールド1406は、ユーザの鼻と適合するように人間工学的に正しい形状において構成されており、そして、鼻パッド1804(図18)および他の快適な機能が含まれてよい(例えば、専用コンポーネントとしてモールド形成され、及び/又は、付け加えられたもの)。シールドバイザー1402は、また、いくつかの事例においては、モールドされたシールドの中に光学的ディオプタ(diopter)曲率(つまり、目の処方)に係るいくらかのレベルを組み込むこともできる。
図19は、上述のコンフィグレーション、構成、方法、または、プロセスのうち一つまたはそれ以上を実施するときに使用され得るコンピューティングシステム1900の一つの限定的でない実施例を模式的に示している。HMDデバイス104は、コンピューティングシステム1900に係る一つの限定的でない実施例であり得る。コンピューティングシステム1900は、簡素化された形状において示されている。本構成の範囲から逸脱することなく、事実上あらゆるコンピュータアーキテクチャが使用され得る。異なる実施例において、コンピューティングシステム1900は、ディスプレイデバイス、ウェアラブルコンピューティングデバイス、メインフレームコンピュータ、サーバーコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホームエンターテイメントコンピュータ、ネットワークコンピューティングデバイス、ゲームデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス(例えば、スマートフォン)、等の形状であってよい。
コンピューティングシステム1900は、ロジックサブシステム1902とストレージサブシステム1904を含んでいる。コンピューティングシステム1900は、任意的に、ディスプレイサブシステム1906、入力サブシステム1908、通信サブシステム1910、及び/又は、図19に示されていない他のコンポーネント、を含んでよい。
ロジックサブシステム1902は、インストラクションを実行するように構成されている一つまたはそれ以上の物理的デバイスを含んでいる。例えば、ロジックサブシステム1902は、一つまたはそれ以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または、他の論理的構築、の一部であるインストラクションを実行するように構成されてよい。そうしたインストラクションは、タスクを実行し、データタイプを実施し、一つまたはそれ以上のコンポーネントの状態を変換し、または、そうでなければ所望の結果に到達するために実施され得るものである。
ロジックサブシステム1902は、ソフトウェアインストラクションを実行するように構成されている一つまたはそれ以上のプロセッサを含んでよい。追加的または代替的に、ロジックサブシステム1902は、ハードウェアまたはファームウェアインストラクションを実行するように構成されている一つまたはそれ以上のハードウェアまたはファームウェア論理マシンを含んでよい。ロジックサブシステム1902のプロセッサは、シングルコアまたはマルチコアであってよく、そして、実行されるプログラムは、順次処理、並行処理、または分散処理のために構成されてよい。ロジックサブシステム1902は、任意的に、2つまたはそれ以上のデバイスの中に分散される個別のコンポーネントを含んでよい。離れて配置され、及び/又は、調整された処理のために構成され得るものである。ロジックサブシステム1902の態様は、クラウドコンピューティング(cloud−computing)コンフィグレーションにおいて構成された、離れてアクセス可能であり、ネットワーク化された、コンピューティングデバイスによって、仮想化され、かつ、実行され得るものである。
ストレージサブシステム1904は、データ、及び/又は、ここにおいて説明された方法とプロセスを実施するためにロジックサブシステム1902によって実行可能なインストラクションを保持するように構成されている一つまたはそれ以上の物理的デバイスを含んでいる。そうした方法とプロセスが実施されるとき、ストレージサブシステム1904の状態は変換され得る。例えば、異なるデータを保持するようにである。
ストレージサブシステム1904は、リムーバブルメディア及び/又は内蔵(built−in)デバイスを含んでよい。ストレージサブシステム1904は、光記憶デバイス(例えば、CD(コンパクトディスク)、DVD(デジタル多目的ディスク)、HD−DVD(ハイデフィニションDVD)、ブルーレイ(登録商標)ディスク、等)、半導体メモリデバイス(例えば、RAM(ランダムアクセスメモリ)、ROM(読出し専用メモリ)、EPROM(消去可能プログラム可能なROM)、EEPROM(電気的消去可能ROM)、等)、及び/又は、磁気メモリデバイス(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAM(磁気抵抗RAM))、等を含んでよい。ストレージサブシステム1904は、揮発性、不揮発性、ダイナミック、スタティック、リード/ライト、リードオンリー、ランダムアクセス、シーケンシャルアクセス、ロケーションアドレス可能、ファイルアドレス可能、及び/又は、コンテンツアドレス可能なデバイスを含んでよい。
ストレージサブシステム1904は、一つまたはそれ以上の物理的デバイスを含み、そして、それ自体が伝播していく信号を除外することが正しく理解されよう。しかしながら、いくつかの実施例において、ここにおいて説明されたインストラクションの態様は、ストレージデバイス上に保管されていることとは反対に、通信媒体を使用して、きれいな信号(pure signal)(例えば、電磁気信号、光信号、等)によって伝播されてよい。さらに、本構成に関連するデータ、及び/又は、情報の他の形状が、きれいな信号によって伝播されてよい。
いくつかの実施例において、ロジックサブシステム1902およびストレージサブシステム1904の態様は、一つまたはそれ以上のハードウェアロジックコンポーネントの中へ一緒に統合されてよく、それを通じてここにおいて説明された機能性が制定され得る。そうしたハードウェアロジックコンポーネントは、例えば、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラムおよびアプリケーション向け集積回路(PASIC/ASIC)、システムオンチップ(SOC)システム、および、複合プログラマブルロジックデバイス(CPLD)を含んでよい。
ディスプレイサブシステム1906は、含まれるとき、ストレージサブシステム1904によって保持されているデータベースの視覚的表現を表わすために使用されてよい。この視覚的表現は、グラフィカルユーザインターフェイス(GUI)の形であってよい。説明された本方法およびプロセスが、ストレージサブシステムによって保持されるデータを変更し、そして、従って、ストレージサブシステムの状態を変換すると、同様に、ディスプレイサブシステム1906の状態が、根底のデータ(underlying data)における変更を視覚的に表現するように変換され得る。ディスプレイサブシステム1906は、あらゆるタイプの技術を仮想的に利用している一つまたはそれ以上のディスプレイデバイスを含んでよい。そうしたディスプレイデバイスは、いくつかの事例において、共有の筐体(enclosure)においてロジックサブシステム1902及び/又はストレージサブシステム1904と組み合わされてよく、もしくは、そうしたディスプレイデバイスは、他のものにおけるペリフェラルディスプレイデバイスであってよい。
入力サブシステム1908は、含まれるとき、キーボード、マウス、タッチスクリーン、または、ゲームコントローラといった一つまたはそれ以上のユーザ入力デバイスを含み、または、それらとインターフェイスしてよい。いくつかの実施例において、入力サブシステムは、選択されたユーザ入力(NUI)コンポーネントを含み、または、インターフェイスしてよい。そうしたコンポーネントは、統合されるか、または、周辺機器であってよく、そして、入力動作の変換及び/又は処理は、オンボードまたはオフボードで扱われてよい。典型的なNUIコンポーネントは、スピーチ及び/又は音声認識のためのマイクロフォン;マシンビジョン(machine vision)及び/又はジェスチャ認識のための赤外線、カラー、ステレオスコープ、及び/又は、深度カメラ;モーション検出及び/又は意図認識のための頭トラッカー(tracker)、目トラッカー、加速度計、及び/又は、ジャイロスコープ;同様に脳活動をアセスするための電界検出コンポーネント、を含んでよい。
通信サブシステム1910は、含まれるとき、コンピューティングシステム1900を一つまたはそれ以上の他のコンピューティングデバイスと通信できるように接続するよう構成されてよい。通信サブシステム1910は、一つまたはそれ以上の異なる通信プロトコルとコンパチブル(compatible)な有線及び/又は無線通信デバイスを含んでよい。限定的でない例として、通信サブシステムは、無線電話ネットワーク、もしくは、有線または無線のローカルエリアネットワークまたはワイドエリアネットワークを介した通信のために構成されてよい。いくつかの実施例において、通信サブシステムによって、コンピューティングシステム1900は、インターネットといったネットワークを使用して、他のデバイスへメッセージを送信、及び/又は、他のデバイスからメッセージを受信することができる。
仮想現実環境の中に没入したときの本つまずき対抗に係る様々な典型的な実施例は、ここで説明として示されるものであり、全ての実施例に係る網羅的なリストとしてのものではない。一つの例は、仮想現実環境のレンダリングを支援するヘッドマウントディスプレイ(HMD)によって実施される方法を含んでいる。本方法は、HMDデバイスのユーザに隣接する物理的空間を記述するセンサデータを獲得するステップと、センサデータを使用して物理的空間に置かれた現実世界オブジェクトのジオメトリを再構成するステップと、再構成されたジオメトリを使用してユーザと現実世界オブジェクトとの間の距離を判断するステップと、を含む。そして、距離が既定の閾値と等しいか小さい場合には、ユーザが仮想現実環境からの妨害なしに現実世界オブジェクトを見ることができるように、HMDデバイスを操作する。
別の例において、センサデータは深度データを含む。そして、本方法は、さらに、深度センサを使用してセンサデータを生成するステップと、現実世界オブジェクトのジオメトリを再構成するために表面再構成技術を適用するステップと、を含む。別の例において、本方法は、さらに、一つまたはそれ以上の立体から深度への画像化解析を使用して深度データを生成するステップと、を含む。別の例において、本方法は、さらに、操作の最中にHMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を薄暗くするステップと、を含む。別の例において、本方法は、さらに、HMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を実質的に透明になるようにするステップと、を含む。別の例において、本方法は、さらに、ユーザを体積形状を用いて表現するステップと、ユーザと現実世界オブジェクトとの間の距離を判断するときに体積形状を使用するステップと、を含む。別の例において、本方法は、さらに、物理的空間のグラウンドの上でのユーザの頭の高さに応じて、体積形状をサイズ合わせするステップと、を含む。別の例において、本方法は、さらに、体積形状のサイズ、形状、または他の特性に応じて、既定の閾値を変えるステップと、を含む。別の例において、本方法は、さらに、ユーザが座っているときは、ユーザが立っているときと比較して相対的に小さくなるように既定の閾値を構成するステップと、を含む。別の例において、本方法は、さらに、ユーザの現在の高さを判断するためにセンサデータを使用するステップと、を含む。
さらなる例は、物理的環境におけるユーザによって操作可能なヘッドマウントディスプレイ(HMD)デバイスを含む。本デバイスは、一つまたはそれ以上のプロセッサと、現実世界と仮想世界の表示エレメントとの間の付加的な混合を使用するシースルーディスプレイと、コンピュータで読取り可能なインストラクションを保管している一つまたはそれ以上のメモリデバイスと、を含む。一つまたはそれ以上のプロセッサによって実行されると、深度センサまたはカメラシステムを使用して表面再構成データを生成するステップと、表面再構成データを使用してユーザを表現する体積形状から物理的環境における現実世界オブジェクトまでの距離を判断するステップと、現実世界オブジェクトが体積形状から閾値距離の範囲内にあるときシースルーディスプレイの少なくとも一部がユーザによって見通せるようにHMDを操作するステップ、を実施する。
別の例において、HMDデバイスは、さらに、仮想世界の少なくとも一部が現実世界オブジェクトの表示を妨害しないように、仮想世界の表示について暗いピクセルをレンダリングすることによってシースルーディスプレイを操作すること、を含む。別の例において、HMDデバイスは、さらに、表面再構成データを収集するために構成された深度センサを含む。別の例において、HMDデバイスは、さらに、ユーザが立っているか、または、座っているかに関する判断に応じて、閾値距離を変えること、を含む。別の例において、HMDデバイスは、さらに、表面再構成データパイプラインを使用して物理的環境をモデル化することであり、統合される複数のオーバーラップしている表面を生成する容積法を実施すること、を含む。別の例において、HMDデバイスは、さらに、シースルーディスプレイを実質的に包み込むシールド保護バイザーを含む。
さらなる実施例は、コンピュータで実行可能なインストラクションを保管している一つまたはそれ以上のコンピュータで読取り可能なメモリを含む。インストラクションは、物理的環境におけるヘッドマウントディスプレイ(HMD)デバイスのユーザに対して示された没入させる仮想環境について、つまずき対抗機能を提供するための方法を実施するものである。本方法は、仮想環境のレンダリングのディミングによる選択的な透明オペレーションのためにHDMデバイスの中に組み込まれるディスプレイ光学素子を構成すること、表面再構成を使用して物理的環境とその中に含まれる現実世界オブジェクトを動的にモデル化すること、表面再構成モデルにおけるユーザから現実世界オブジェクトまでの距離を判断すること、そして、距離が既定の閾値と等しいか小さいときに、ユーザがディスプレイ光学素子を通じて現実世界を見ることができるようにディスプレイ光学素子を透明オペレーションのためにディミングすること、を含む。
別の例において、一つまたはそれ以上のコンピュータで読取り可能なメモリは、さらに、動的なモデル化と判断のステップを反復して実行することを含む。別の例において、一つまたはそれ以上のコンピュータで読取り可能なメモリは、さらに、距離が既定の閾値を超えるときに、仮想現実環境のレンダリングを再開するためにディスプレイ光学素子をディミングしないこと、を含む。別の例において、既定の閾値は、物理的環境におけるユーザの頭の高さに依存している。
技術的事項が構造的特徴及び/又は方法論的アクトに特有の言葉で説明されてきたが、添付の特許請求の範囲において定められる技術的事項は、上述された特定の特徴またはアクトに必ずしも限定される必要はないことが理解されるべきである。むしろ、上述の特定の特徴およびアクトは、請求項に係る発明の実施例として開示されたものである。
Claims (15)
- 仮想現実環境のレンダリングを支援するヘッドマウントディスプレイ(HMD)によって実施される方法であって、
前記HMDデバイスのユーザに隣接する物理的空間を記述するセンサデータを獲得するステップと、
前記センサデータを使用して、前記物理的空間に置かれた現実世界オブジェクトのジオメトリを再構成するステップと、
前記再構成されたジオメトリを使用して、前記ユーザと前記現実世界オブジェクトとの間の距離を判断するステップと、
を含み、
前記距離が既定の閾値と等しいか小さい場合には、前記ユーザが、前記仮想現実環境からの妨害なしに前記現実世界オブジェクトを見ることができるように、前記HMDデバイスを操作する、
方法。 - 前記センサデータは、深度データを含み、
前記方法は、さらに、
深度センサを使用して前記センサデータを生成するステップと、
前記現実世界オブジェクトのジオメトリを再構成するために表面再構成技術を適用するステップと、を含む、
請求項1に記載の方法。 - 前記方法は、さらに、
一つまたはそれ以上の、立体から深度への画像化解析を使用して、深度データを生成するステップと、を含む、
請求項1に記載の方法。 - 前記方法は、さらに、
前記操作の最中に、前記HMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を薄暗くするステップと、を含む、
請求項1に記載の方法。 - 前記方法は、さらに、
前記HMDデバイスの中に組み込まれているシースルーディスプレイの少なくとも一部を実質的に透明になるようにするステップと、を含む、
請求項1に記載の方法。 - 前記方法は、さらに、
前記ユーザを体積形状を用いて表現するステップと、
前記ユーザと前記現実世界オブジェクトとの間の前記距離を判断するときに、前記体積形状を使用するステップと、を含む、
請求項1に記載の方法。 - 前記方法は、さらに、
前記物理的空間のグラウンドの上での前記ユーザの頭の高さに応じて、前記体積形状をサイズ合わせするステップと、を含む、
請求項6に記載の方法。 - 前記方法は、さらに、
前記体積形状のサイズ、形状、または他の特性に応じて、前記既定の閾値を変えるステップと、を含む、
請求項7に記載の方法。 - 前記方法は、さらに、
前記ユーザが座っているときは、前記ユーザが立っているときと比較して相対的に小さくなるように、前記既定の閾値を構成するステップと、を含む、
請求項8に記載の方法。 - 前記方法は、さらに、
前記ユーザの現在の高さを判断するために前記センサデータを使用するステップと、を含む、
請求項1に記載の方法。 - 物理的環境におけるユーザによって操作可能なヘッドマウントディスプレイ(HMD)デバイスであって、
一つまたはそれ以上のプロセッサと、
現実世界と仮想世界の表示エレメントとの間の付加的な混合を使用するシースルーディスプレイと、
コンピュータで読取り可能なインストラクションを保管している一つまたはそれ以上のメモリデバイスであり、前記インストラクションが前記一つまたはそれ以上のプロセッサによって実行されると方法を実施する、メモリデバイスと、
を含み、
前記方法は、
深度センサまたはカメラシステムを使用して表面再構成データを生成するステップと、
前記表面再構成データを使用して、前記ユーザを表現する体積形状から前記物理的環境における現実世界オブジェクトまでの距離を判断するステップと、
前記現実世界オブジェクトが前記体積形状から閾値距離の範囲内にあるとき、前記シースルーディスプレイの少なくとも一部が前記ユーザによって見通せるように、前記HMDを操作するステップと、
を含む、
HMDデバイス。 - 前記方法は、さらに、
前記仮想世界の少なくとも一部が前記現実世界オブジェクトの表示を妨害しないように、前記仮想世界の表示について暗いピクセルをレンダリングすることによって前記シースルーディスプレイを操作するステップと、含む、
請求項11に記載のHMDデバイス。 - 前記HMDデバイスは、さらに、
前記表面再構成データを収集するために構成された深度センサと、を含む、
請求項11に記載のHMDデバイス。 - 前記方法は、さらに、
前記ユーザが立っているか、または、座っているかに関する判断に応じて、前記閾値距離を変えるステップと、を含む、
請求項11に記載のHMDデバイス。 - 前記方法は、さらに、
表面再構成データパイプラインを使用して前記物理的環境をモデル化するステップであり、統合される複数のオーバーラップしている表面を生成する容積法を実施する、ステップと、を含む、
請求項11に記載のHMDデバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462029351P | 2014-07-25 | 2014-07-25 | |
US62/029,351 | 2014-07-25 | ||
US14/600,774 US10311638B2 (en) | 2014-07-25 | 2015-01-20 | Anti-trip when immersed in a virtual reality environment |
US14/600,774 | 2015-01-20 | ||
PCT/US2015/041867 WO2016014877A1 (en) | 2014-07-25 | 2015-07-24 | Anti-trip when immersed in a virtual reality environment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017531221A true JP2017531221A (ja) | 2017-10-19 |
Family
ID=53801186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503989A Pending JP2017531221A (ja) | 2014-07-25 | 2015-07-24 | 仮想現実環境の中に没入したときのつまずき対抗 |
Country Status (11)
Country | Link |
---|---|
US (1) | US10311638B2 (ja) |
EP (1) | EP3172649B1 (ja) |
JP (1) | JP2017531221A (ja) |
KR (1) | KR102385756B1 (ja) |
CN (1) | CN106575155A (ja) |
AU (1) | AU2015292490A1 (ja) |
BR (1) | BR112017000069A2 (ja) |
CA (1) | CA2954727A1 (ja) |
MX (1) | MX2017001129A (ja) |
RU (1) | RU2017102204A (ja) |
WO (1) | WO2016014877A1 (ja) |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9392212B1 (en) | 2014-04-17 | 2016-07-12 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US10389992B2 (en) * | 2014-08-05 | 2019-08-20 | Utherverse Digital Inc. | Immersive display and method of operating immersive display for real-world object alert |
US10943395B1 (en) | 2014-10-03 | 2021-03-09 | Virtex Apps, Llc | Dynamic integration of a virtual environment with a physical environment |
US9665170B1 (en) * | 2015-06-10 | 2017-05-30 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user based on body posture |
US10685211B2 (en) | 2015-08-04 | 2020-06-16 | Sony Interactive Entertainment Inc. | Head-mounted display, display control method, and program |
US10133345B2 (en) * | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US10665019B2 (en) * | 2016-03-24 | 2020-05-26 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
US10722800B2 (en) | 2016-05-16 | 2020-07-28 | Google Llc | Co-presence handling in virtual reality |
WO2017201191A1 (en) * | 2016-05-17 | 2017-11-23 | Google Llc | Methods and apparatus to project contact with real objects in virtual reality environments |
KR20170135267A (ko) * | 2016-05-31 | 2017-12-08 | 엘지전자 주식회사 | 글래스 타입의 이동 단말기 |
US20170372499A1 (en) * | 2016-06-27 | 2017-12-28 | Google Inc. | Generating visual cues related to virtual objects in an augmented and/or virtual reality environment |
CN106200947B (zh) * | 2016-06-30 | 2020-05-26 | 联想(北京)有限公司 | 一种电子设备以及虚拟环境图像展示方法 |
CN106249882B (zh) * | 2016-07-26 | 2022-07-12 | 华为技术有限公司 | 一种应用于vr设备的手势操控方法与装置 |
KR20180021515A (ko) * | 2016-08-22 | 2018-03-05 | 삼성전자주식회사 | 영상 표시 장치 및 영상 표시 장치의 동작 방법 |
US10032314B2 (en) | 2016-10-11 | 2018-07-24 | Microsoft Technology Licensing, Llc | Virtual reality headset |
FR3058534B1 (fr) | 2016-11-09 | 2019-02-01 | Stereolabs | Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles |
CN106530620A (zh) * | 2016-12-26 | 2017-03-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种安全监测方法、装置、系统及虚拟现实设备 |
JP7190434B2 (ja) * | 2016-12-29 | 2022-12-15 | マジック リープ, インコーポレイテッド | 外部条件に基づくウェアラブルディスプレイデバイスの自動制御 |
EP3367210A1 (en) | 2017-02-24 | 2018-08-29 | Thomson Licensing | Method for operating a device and corresponding device, system, computer readable program product and computer readable storage medium |
CN106971501B (zh) * | 2017-03-09 | 2019-07-26 | 广州三星通信技术研究有限公司 | 用于虚拟现实设备的提醒方法和提醒装置 |
US10475243B2 (en) * | 2017-03-31 | 2019-11-12 | Intel Corporation | Transition between virtual reality and real world |
US10514801B2 (en) * | 2017-06-15 | 2019-12-24 | Microsoft Technology Licensing, Llc | Hover-based user-interactions with virtual objects within immersive environments |
US10627635B2 (en) * | 2017-08-02 | 2020-04-21 | Microsoft Technology Licensing, Llc | Transitioning into a VR environment and warning HMD users of real-world physical obstacles |
KR102552403B1 (ko) | 2017-09-29 | 2023-07-07 | 애플 인크. | 물리적 경계 검출 |
DE102017218215B4 (de) * | 2017-10-12 | 2024-08-01 | Audi Ag | Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts |
EP3714438B1 (en) * | 2017-11-21 | 2023-08-16 | Volvo Truck Corporation | Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product |
CN108156669A (zh) * | 2017-12-04 | 2018-06-12 | 捷开通讯(深圳)有限公司 | 智能终端通信方法、智能终端及具有存储功能的装置 |
US11164380B2 (en) | 2017-12-05 | 2021-11-02 | Samsung Electronics Co., Ltd. | System and method for transition boundaries and distance responsive interfaces in augmented and virtual reality |
EP3540570A1 (en) * | 2018-03-13 | 2019-09-18 | Thomson Licensing | Method for generating an augmented representation of a real environment, corresponding device, computer program product, and computer-readable carrier medium |
US10853946B2 (en) * | 2018-05-18 | 2020-12-01 | Ebay Inc. | Physical object boundary detection techniques and systems |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
US11430215B2 (en) | 2018-06-20 | 2022-08-30 | Hewlett-Packard Development Company, L.P. | Alerts of mixed reality devices |
WO2019245543A1 (en) * | 2018-06-20 | 2019-12-26 | Hewlett-Packard Development Company, L.P. | Alerts of mixed reality devices |
US11816886B1 (en) * | 2018-06-28 | 2023-11-14 | Meta Platforms Technologies, Llc | Apparatus, system, and method for machine perception |
WO2020023404A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Flicker mitigation when toggling eyepiece display illumination in augmented reality systems |
US10901081B2 (en) | 2018-10-02 | 2021-01-26 | International Business Machines Corporation | Virtual reality safety |
DE102018217834A1 (de) | 2018-10-18 | 2020-04-23 | Robert Bosch Gmbh | Verfahren und System zum Betreiben einer Erfassungs- und Anzeigevorrichtung |
US11004269B2 (en) * | 2019-04-22 | 2021-05-11 | Microsoft Technology Licensing, Llc | Blending virtual environments with situated physical reality |
JP7356827B2 (ja) | 2019-06-26 | 2023-10-05 | 株式会社コロプラ | プログラム、情報処理方法、及び情報処理装置 |
US11842449B2 (en) | 2019-09-26 | 2023-12-12 | Apple Inc. | Presenting an environment based on user movement |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11126850B1 (en) | 2020-04-09 | 2021-09-21 | Facebook Technologies, Llc | Systems and methods for detecting objects within the boundary of a defined space while in artificial reality |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11493764B2 (en) | 2020-06-04 | 2022-11-08 | Htc Corporation | Method for dynamically displaying real-world scene, electronic device, and computer readable medium |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11475652B2 (en) | 2020-06-30 | 2022-10-18 | Samsung Electronics Co., Ltd. | Automatic representation toggling based on depth camera field of view |
US12026901B2 (en) | 2020-07-01 | 2024-07-02 | Samsung Electronics Co., Ltd. | Efficient encoding of depth data across devices |
US11893206B2 (en) * | 2020-09-02 | 2024-02-06 | Autodesk, Inc. | Transitions between states in a hybrid virtual reality desktop computing environment |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11507246B2 (en) * | 2020-10-07 | 2022-11-22 | Htc Corporation | Method for dynamically showing virtual boundary, electronic device and computer readable storage medium thereof |
CN112269472A (zh) * | 2020-11-27 | 2021-01-26 | 上海影创信息科技有限公司 | 构建虚拟边界对象的方法和系统及其vr眼镜 |
CN112363628A (zh) * | 2020-11-27 | 2021-02-12 | 上海影创信息科技有限公司 | 虚拟对象互动处理的方法和系统及其vr眼镜 |
CN112419509A (zh) * | 2020-11-27 | 2021-02-26 | 上海影创信息科技有限公司 | 虚拟对象生成处理的方法和系统及其vr眼镜 |
CN112579029A (zh) * | 2020-12-11 | 2021-03-30 | 上海影创信息科技有限公司 | Vr眼镜的显示控制方法和系统 |
US11232644B1 (en) | 2020-12-31 | 2022-01-25 | Facebook Technologies, Llc | Systems and methods for providing spatial awareness in virtual reality |
US11461986B2 (en) | 2021-01-27 | 2022-10-04 | Qualcomm Incorporated | Context-aware extended reality systems |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
US11449137B2 (en) * | 2021-02-12 | 2022-09-20 | Rockwell Collins, Inc. | Soldier and surface vehicle heads-up display imagery compensation system to align imagery with surroundings |
US12164741B2 (en) | 2022-04-11 | 2024-12-10 | Meta Platforms Technologies, Llc | Activating a snap point in an artificial reality environment |
Family Cites Families (166)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061064A (en) | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
US5615132A (en) | 1994-01-21 | 1997-03-25 | Crossbow Technology, Inc. | Method and apparatus for determining position and orientation of a moveable object using accelerometers |
US5748189A (en) | 1995-09-19 | 1998-05-05 | Sony Corp | Method and apparatus for sharing input devices amongst plural independent graphic display devices |
US5877748A (en) | 1995-11-20 | 1999-03-02 | Redlich; Sanford I. | Computer control input interface system |
US6127990A (en) | 1995-11-28 | 2000-10-03 | Vega Vista, Inc. | Wearable display and methods for controlling same |
US6012926A (en) | 1996-03-27 | 2000-01-11 | Emory University | Virtual reality system for treating patients with anxiety disorders |
US5880733A (en) | 1996-04-30 | 1999-03-09 | Microsoft Corporation | Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system |
GB2334643A (en) | 1998-02-20 | 1999-08-25 | Discreet Logic Inc | Generating registration data for a virtual set |
US6329986B1 (en) | 1998-02-21 | 2001-12-11 | U.S. Philips Corporation | Priority-based virtual environment |
GB2336057B (en) | 1998-04-02 | 2002-05-08 | Discreet Logic Inc | Producing image data in a virtual set |
AU2001233019A1 (en) | 2000-01-28 | 2001-08-07 | Intersense, Inc. | Self-referenced tracking |
US6552698B1 (en) | 2000-05-02 | 2003-04-22 | Agilent Technologies, Inc. | Immersive display system |
US20020044152A1 (en) | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US20020154214A1 (en) | 2000-11-02 | 2002-10-24 | Laurent Scallie | Virtual reality game system using pseudo 3D display driver |
US6898266B2 (en) | 2000-11-13 | 2005-05-24 | Digitome Corporation | 3D projection method |
US6804607B1 (en) * | 2001-04-17 | 2004-10-12 | Derek Wood | Collision avoidance system and method utilizing variable surveillance envelope |
US6529331B2 (en) | 2001-04-20 | 2003-03-04 | Johns Hopkins University | Head mounted display with full field of view and high resolution |
US7274380B2 (en) | 2001-10-04 | 2007-09-25 | Siemens Corporate Research, Inc. | Augmented reality system |
US7010158B2 (en) | 2001-11-13 | 2006-03-07 | Eastman Kodak Company | Method and apparatus for three-dimensional scene modeling and reconstruction |
US7386799B1 (en) | 2002-11-21 | 2008-06-10 | Forterra Systems, Inc. | Cinematic techniques in avatar-centric communication during a multi-user online simulation |
ATE404952T1 (de) * | 2003-07-24 | 2008-08-15 | Cognitens Ltd | Verfahren und system zur dreidimensionalen oberflächenrekonstruktion eines objekts |
JP4262011B2 (ja) | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | 画像提示方法及び装置 |
JP4401727B2 (ja) | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
JP4638143B2 (ja) * | 2003-12-26 | 2011-02-23 | 富士重工業株式会社 | 車両用運転支援装置 |
US7487463B2 (en) | 2004-02-17 | 2009-02-03 | Sun Microsystems, Inc. | Multiprocess input redirection in a 3D window system |
JP4125252B2 (ja) | 2004-03-02 | 2008-07-30 | 株式会社東芝 | 画像生成装置、画像生成方法、及び画像生成プログラム |
EP1754201A1 (en) | 2004-05-27 | 2007-02-21 | Canon Kabushiki Kaisha | Information processing method, information processing apparatus, and image sensing apparatus |
CN1922651A (zh) | 2004-06-10 | 2007-02-28 | 松下电器产业株式会社 | 穿戴型信息提示装置 |
US7950026B1 (en) | 2004-06-24 | 2011-05-24 | Julian Michael Urbach | Virtual application execution system and method |
US7557774B2 (en) | 2004-08-13 | 2009-07-07 | Microsoft Corporation | Displaying visually correct pointer movements on a multi-monitor display system |
US20060050070A1 (en) | 2004-09-07 | 2006-03-09 | Canon Kabushiki Kaisha | Information processing apparatus and method for presenting image combined with virtual image |
WO2006035755A1 (ja) | 2004-09-28 | 2006-04-06 | National University Corporation Kumamoto University | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
US7248968B2 (en) * | 2004-10-29 | 2007-07-24 | Deere & Company | Obstacle detection using stereo vision |
US20060092178A1 (en) | 2004-10-29 | 2006-05-04 | Tanguay Donald O Jr | Method and system for communicating through shared media |
JP2006239844A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
JP4660357B2 (ja) * | 2005-11-18 | 2011-03-30 | 任天堂株式会社 | 画像処理プログラムおよび画像処理装置 |
US8793620B2 (en) | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US7542210B2 (en) | 2006-06-29 | 2009-06-02 | Chirieleison Sr Anthony | Eye tracking head mounted display |
JP4789745B2 (ja) | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
JP5154775B2 (ja) | 2006-08-18 | 2013-02-27 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
JP4999408B2 (ja) | 2006-09-11 | 2012-08-15 | スカラ株式会社 | ヘッドマウント型表示装置、及び画像表示装置 |
AU2007317538A1 (en) * | 2006-11-03 | 2008-05-15 | University Of Georgia Research Foundation | Interfacing with virtual reality |
US20080174659A1 (en) | 2007-01-18 | 2008-07-24 | Mcdowall Ian | Wide field of view display device and method |
EP2095296B1 (en) * | 2007-04-20 | 2014-01-01 | Softkinetic Software | A method and system for providing a three-dimensional model of an object of interest. |
US8605008B1 (en) * | 2007-05-04 | 2013-12-10 | Apple Inc. | Head-mounted display |
US8576247B2 (en) | 2007-08-03 | 2013-11-05 | Apple Inc. | Method and apparatus for adjusting pixel values |
US8049750B2 (en) | 2007-11-16 | 2011-11-01 | Sportvision, Inc. | Fading techniques for virtual viewpoint animations |
US20090160985A1 (en) * | 2007-12-10 | 2009-06-25 | The University Of Connecticut | Method and system for recognition of a target in a three dimensional scene |
US9355493B2 (en) | 2007-12-31 | 2016-05-31 | Advanced Micro Devices, Inc. | Device and method for compositing video planes |
US8786675B2 (en) | 2008-01-23 | 2014-07-22 | Michael F. Deering | Systems using eye mounted displays |
US20090199275A1 (en) | 2008-02-06 | 2009-08-06 | David Brock | Web-browser based three-dimensional media aggregation social networking application |
NL1035303C2 (nl) | 2008-04-16 | 2009-10-19 | Virtual Proteins B V | Interactieve virtuele reality eenheid. |
WO2009128781A1 (en) | 2008-04-17 | 2009-10-22 | Lundgren & Nordstrand Ab | A method and a device for remote visualization |
JP5111312B2 (ja) | 2008-09-16 | 2013-01-09 | 任天堂株式会社 | 3次元画像処理プログラム、3次元画像処理装置、3次元画像処理システムおよび3次元画像処理方法 |
US8266536B2 (en) | 2008-11-20 | 2012-09-11 | Palo Alto Research Center Incorporated | Physical-virtual environment interface |
US8970690B2 (en) | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
US8004769B2 (en) | 2009-03-05 | 2011-08-23 | Nabes, Llc | Binocular apparatus and system |
CN101540020B (zh) | 2009-04-01 | 2012-09-26 | 江西省交通设计院 | 一种公路三维选线方法 |
US20100315413A1 (en) | 2009-06-16 | 2010-12-16 | Microsoft Corporation | Surface Computer User Interaction |
JP5263049B2 (ja) | 2009-07-21 | 2013-08-14 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
US9286720B2 (en) | 2009-08-20 | 2016-03-15 | Northrop Grumman Systems Corporation | Locative video for situation awareness |
KR101627214B1 (ko) | 2009-11-12 | 2016-06-03 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
JP4679661B1 (ja) | 2009-12-15 | 2011-04-27 | 株式会社東芝 | 情報提示装置、情報提示方法及びプログラム |
WO2011084895A1 (en) | 2010-01-08 | 2011-07-14 | Kopin Corporation | Video eyewear for smart phone games |
US8964298B2 (en) | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
CN101813976A (zh) | 2010-03-09 | 2010-08-25 | 华南理工大学 | 基于soc的视线跟踪人机交互方法及装置 |
US8570344B2 (en) | 2010-04-02 | 2013-10-29 | Qualcomm Incorporated | Augmented reality direction orientation mask |
US8405680B1 (en) * | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
US9798436B2 (en) | 2010-07-08 | 2017-10-24 | Red Hat Israel, Ltd. | Remote computing with a low latency mouse mode |
JP5791131B2 (ja) | 2010-07-20 | 2015-10-07 | アップル インコーポレイテッド | 自然な相互作用のための相互作用的現実拡張 |
EP2418865A3 (en) | 2010-08-09 | 2014-08-06 | LG Electronics Inc. | 3D viewing device, image display apparatus, and method for operating the same |
US8780014B2 (en) | 2010-08-25 | 2014-07-15 | Eastman Kodak Company | Switchable head-mounted display |
KR101674957B1 (ko) | 2010-08-31 | 2016-11-10 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US8675993B2 (en) | 2010-09-03 | 2014-03-18 | Adobe Systems Incorporated | Methods and apparatus for patch-based shape from shading |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
EP2625845B1 (en) | 2010-10-04 | 2021-03-03 | Gerard Dirk Smits | System and method for 3-d projection and enhancements for interactivity |
US8884984B2 (en) | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8401225B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8606010B2 (en) | 2011-03-18 | 2013-12-10 | Seiko Epson Corporation | Identifying text pixels in scanned images |
EP3654146A1 (en) | 2011-03-29 | 2020-05-20 | QUALCOMM Incorporated | Anchoring virtual images to real world surfaces in augmented reality systems |
US9030425B2 (en) | 2011-04-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Detection of interaction with virtual object from finger color change |
US9022864B2 (en) | 2011-06-03 | 2015-05-05 | Nintendo Co., Ltd. | Apparatus and method for controlling objects on a stereoscopic display |
US8692738B2 (en) | 2011-06-10 | 2014-04-08 | Disney Enterprises, Inc. | Advanced Pepper's ghost projection system with a multiview and multiplanar display |
US20120327116A1 (en) | 2011-06-23 | 2012-12-27 | Microsoft Corporation | Total field of view classification for head-mounted display |
JP5145444B2 (ja) | 2011-06-27 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
WO2013014919A1 (ja) | 2011-07-27 | 2013-01-31 | 株式会社ブリヂストン | 空気入りタイヤおよび、空気入りタイヤの製造方法 |
US10019962B2 (en) | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US9342610B2 (en) | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
EP2751775B1 (en) | 2011-08-30 | 2016-07-06 | Monash University | System and method for processing sensor data for the visually impaired |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
WO2013033842A1 (en) | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
US20130083007A1 (en) | 2011-09-30 | 2013-04-04 | Kevin A. Geisner | Changing experience using personal a/v system |
US20130083018A1 (en) | 2011-09-30 | 2013-04-04 | Kevin A. Geisner | Personal audio/visual system with holographic objects |
EP2579128B1 (en) | 2011-10-05 | 2017-11-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Portable device, virtual reality system and method |
US20130088413A1 (en) | 2011-10-05 | 2013-04-11 | Google Inc. | Method to Autofocus on Near-Eye Display |
US9081177B2 (en) | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
JP6157486B2 (ja) | 2011-10-20 | 2017-07-05 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療処置のためのホログラフィユーザインターフェース |
US9454849B2 (en) | 2011-11-03 | 2016-09-27 | Microsoft Technology Licensing, Llc | Augmented reality playspaces with adaptive game rules |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US20130137076A1 (en) | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US20130141419A1 (en) | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
WO2013085193A1 (ko) | 2011-12-06 | 2013-06-13 | 경북대학교 산학협력단 | 사용자 인지 향상 장치 및 그 인지 향상 방법 |
US20130147686A1 (en) | 2011-12-12 | 2013-06-13 | John Clavin | Connecting Head Mounted Displays To External Displays And Other Communication Networks |
US20160011724A1 (en) | 2012-01-06 | 2016-01-14 | Google Inc. | Hands-Free Selection Using a Ring-Based User-Interface |
US9734633B2 (en) | 2012-01-27 | 2017-08-15 | Microsoft Technology Licensing, Llc | Virtual environment generating system |
CN102646117B (zh) | 2012-02-20 | 2015-07-08 | 华为技术有限公司 | 文件数据传送的方法与装置 |
US10008002B2 (en) * | 2012-02-28 | 2018-06-26 | NXP Canada, Inc. | Single-camera distance estimation |
JP6066037B2 (ja) | 2012-03-27 | 2017-01-25 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US8988465B2 (en) | 2012-03-30 | 2015-03-24 | Ford Global Technologies, Llc | Physical-virtual hybrid representation |
CN103472909B (zh) | 2012-04-10 | 2017-04-12 | 微软技术许可有限责任公司 | 用于头戴式、增强现实显示器的逼真遮挡 |
US8855442B2 (en) | 2012-04-30 | 2014-10-07 | Yuri Owechko | Image registration of multimodal data using 3D-GeoArcs |
JP2013238693A (ja) | 2012-05-14 | 2013-11-28 | Sharp Corp | 画像表示装置、画像表示方法及びプログラム |
US20130307855A1 (en) | 2012-05-16 | 2013-11-21 | Mathew J. Lamb | Holographic story telling |
US20130326364A1 (en) | 2012-05-31 | 2013-12-05 | Stephen G. Latta | Position relative hologram interactions |
JP5953963B2 (ja) | 2012-06-13 | 2016-07-20 | ソニー株式会社 | 頭部装着型映像表示装置 |
US9389420B2 (en) | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
US9219901B2 (en) | 2012-06-19 | 2015-12-22 | Qualcomm Incorporated | Reactive user interface for head-mounted display |
US9767720B2 (en) | 2012-06-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Object-centric mixed reality space |
US9645394B2 (en) | 2012-06-25 | 2017-05-09 | Microsoft Technology Licensing, Llc | Configured virtual environments |
US9292085B2 (en) | 2012-06-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Configuring an interaction zone within an augmented reality environment |
EP2872967B1 (en) | 2012-07-13 | 2018-11-21 | Sony Depthsensing Solutions SA/NV | Method and system for detecting hand-related parameters for human-to-computer gesture-based interaction |
US9429912B2 (en) | 2012-08-17 | 2016-08-30 | Microsoft Technology Licensing, Llc | Mixed reality holographic object development |
US8994614B2 (en) | 2012-10-11 | 2015-03-31 | Sony Computer Entertainment Europe Limited | Head mountable display |
US10241638B2 (en) | 2012-11-02 | 2019-03-26 | Atheer, Inc. | Method and apparatus for a three dimensional interface |
US9135052B2 (en) | 2012-11-06 | 2015-09-15 | Red Hat Israel, Ltd. | Distributed multiple monitor display split using multiple client devices in a virtualization system |
GB2499694B8 (en) | 2012-11-09 | 2017-06-07 | Sony Computer Entertainment Europe Ltd | System and method of image reconstruction |
US9619911B2 (en) | 2012-11-13 | 2017-04-11 | Qualcomm Incorporated | Modifying virtual object display properties |
JP5818773B2 (ja) | 2012-11-22 | 2015-11-18 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6271960B2 (ja) | 2012-11-26 | 2018-01-31 | キヤノン株式会社 | 情報処理システム |
US20140168264A1 (en) | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
US9058693B2 (en) | 2012-12-21 | 2015-06-16 | Dassault Systemes Americas Corp. | Location correction of virtual objects |
US9443352B1 (en) | 2012-12-21 | 2016-09-13 | Motion Reality, Inc. | Navigating through a virtual environment having a real-world elevation characteristics using motion capture |
JP6029453B2 (ja) | 2012-12-21 | 2016-11-24 | 京セラ株式会社 | 携帯端末、カーソル表示制御プログラム、カーソル表示制御方法、カーソル発生制御プログラム、カーソル発生制御方法、アイコン表示プログラムおよびアイコン表示方法 |
US9412201B2 (en) | 2013-01-22 | 2016-08-09 | Microsoft Technology Licensing, Llc | Mixed reality filtering |
US9083960B2 (en) * | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
US10529134B2 (en) | 2013-02-01 | 2020-01-07 | Sony Corporation | Information processing device, client device, information processing method, and program |
WO2014129105A1 (ja) | 2013-02-22 | 2014-08-28 | ソニー株式会社 | ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ及びヘッドマウントディスプレイ制御プログラム |
US20140240351A1 (en) | 2013-02-27 | 2014-08-28 | Michael Scavezze | Mixed reality augmentation |
US20140253605A1 (en) | 2013-03-05 | 2014-09-11 | John N. Border | Controlling brightness of a displayed image |
US9041741B2 (en) | 2013-03-14 | 2015-05-26 | Qualcomm Incorporated | User interface for a head mounted display |
KR102148809B1 (ko) | 2013-04-22 | 2020-08-27 | 삼성전자주식회사 | 단축 아이콘 윈도우 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 |
JPWO2014188798A1 (ja) | 2013-05-21 | 2017-02-23 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
US20140363073A1 (en) | 2013-06-11 | 2014-12-11 | Microsoft Corporation | High-performance plane detection with depth camera data |
WO2014204330A1 (en) | 2013-06-17 | 2014-12-24 | 3Divi Company | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements |
US9329682B2 (en) | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US9256072B2 (en) | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US9679144B2 (en) | 2013-11-15 | 2017-06-13 | Microsoft Technology Licensing, Llc | Protecting privacy in web-based immersive augmented reality |
JP6119570B2 (ja) | 2013-11-19 | 2017-04-26 | ソニー株式会社 | 表示装置、表示方法およびプログラム |
US20150145887A1 (en) | 2013-11-25 | 2015-05-28 | Qualcomm Incorporated | Persistent head-mounted content display |
WO2015082015A1 (en) | 2013-12-06 | 2015-06-11 | Longsand Limited | Occluding augmented reality objects |
CN103761085B (zh) | 2013-12-18 | 2018-01-19 | 微软技术许可有限责任公司 | 混合现实全息对象开发 |
US9626776B2 (en) | 2013-12-20 | 2017-04-18 | Cognex Corporation | Apparatus, systems, and methods for processing a height map |
CN104750440B (zh) | 2013-12-30 | 2017-09-29 | 纬创资通股份有限公司 | 多屏幕的窗口管理方法、电子装置与计算机程序产品 |
US10001645B2 (en) | 2014-01-17 | 2018-06-19 | Sony Interactive Entertainment America Llc | Using a second screen as a private tracking heads-up display |
US9691181B2 (en) | 2014-02-24 | 2017-06-27 | Sony Interactive Entertainment Inc. | Methods and systems for social sharing head mounted display (HMD) content with a second screen |
US20150261293A1 (en) | 2014-03-12 | 2015-09-17 | Weerapan Wilairat | Remote device control via gaze detection |
KR20150141461A (ko) | 2014-06-10 | 2015-12-18 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 및 그 제어 방법 |
US20160027218A1 (en) | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US20160027214A1 (en) | 2014-07-25 | 2016-01-28 | Robert Memmott | Mouse sharing between a desktop and a virtual world |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US9904055B2 (en) | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
-
2015
- 2015-01-20 US US14/600,774 patent/US10311638B2/en active Active
- 2015-07-24 BR BR112017000069A patent/BR112017000069A2/pt not_active Application Discontinuation
- 2015-07-24 AU AU2015292490A patent/AU2015292490A1/en not_active Abandoned
- 2015-07-24 CA CA2954727A patent/CA2954727A1/en not_active Abandoned
- 2015-07-24 MX MX2017001129A patent/MX2017001129A/es unknown
- 2015-07-24 RU RU2017102204A patent/RU2017102204A/ru not_active Application Discontinuation
- 2015-07-24 WO PCT/US2015/041867 patent/WO2016014877A1/en active Application Filing
- 2015-07-24 CN CN201580041349.2A patent/CN106575155A/zh active Pending
- 2015-07-24 KR KR1020177004813A patent/KR102385756B1/ko active IP Right Grant
- 2015-07-24 EP EP15748370.2A patent/EP3172649B1/en active Active
- 2015-07-24 JP JP2017503989A patent/JP2017531221A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20170035995A (ko) | 2017-03-31 |
EP3172649B1 (en) | 2019-10-02 |
US10311638B2 (en) | 2019-06-04 |
US20160027212A1 (en) | 2016-01-28 |
AU2015292490A1 (en) | 2017-01-12 |
EP3172649A1 (en) | 2017-05-31 |
WO2016014877A1 (en) | 2016-01-28 |
MX2017001129A (es) | 2017-05-09 |
CA2954727A1 (en) | 2016-01-28 |
KR102385756B1 (ko) | 2022-04-11 |
CN106575155A (zh) | 2017-04-19 |
BR112017000069A2 (pt) | 2017-10-31 |
RU2017102204A (ru) | 2018-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10311638B2 (en) | Anti-trip when immersed in a virtual reality environment | |
US10955914B2 (en) | Gaze-based object placement within a virtual reality environment | |
US10096168B2 (en) | Three-dimensional mixed-reality viewport | |
US9645397B2 (en) | Use of surface reconstruction data to identify real world floor | |
US10451875B2 (en) | Smart transparency for virtual objects | |
US9904055B2 (en) | Smart placement of virtual objects to stay in the field of view of a head mounted display | |
CN106575209B (zh) | 具有现实世界对象的虚拟现实环境 | |
US20160027214A1 (en) | Mouse sharing between a desktop and a virtual world |