JP2019502178A - 拡張および/または仮想現実環境におけるテレポーテーション - Google Patents
拡張および/または仮想現実環境におけるテレポーテーション Download PDFInfo
- Publication number
- JP2019502178A JP2019502178A JP2018513627A JP2018513627A JP2019502178A JP 2019502178 A JP2019502178 A JP 2019502178A JP 2018513627 A JP2018513627 A JP 2018513627A JP 2018513627 A JP2018513627 A JP 2018513627A JP 2019502178 A JP2019502178 A JP 2019502178A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- scale
- input device
- detecting
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title description 20
- 230000009471 action Effects 0.000 claims abstract description 12
- 230000000875 corresponding effect Effects 0.000 claims description 49
- 238000000034 method Methods 0.000 claims description 49
- 230000015654 memory Effects 0.000 claims description 44
- 230000004044 response Effects 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 230000000704 physical effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 27
- 238000004590 computer program Methods 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 15
- 230000003993 interaction Effects 0.000 description 13
- 230000007246 mechanism Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000013341 scale-up Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
本願は、2015年12月3日に出願された米国仮出願第62/262,451号に基づく優先権を主張する2016年12月2日に出願された米国出願第15/368,191号の継続出願でありそれに基づく優先権を主張する。これらの開示を本明細書に引用により援用する。
本明細書は、概して、仮想現実環境におけるテレポーテーションおよびスケール変更に関する。
拡張現実(augmented reality:AR)システムおよび/または仮想現実(virtual reality:VR)システムは、3次元(3D)没入型仮想環境を生成することができる。ユーザは、この仮想環境を、さまざまな電子デバイスとの対話を通して体験し得る。これらの電子デバイスは、たとえば、ディスプレイを含むヘルメットまたはその他のヘッドマウントデバイス、ユーザがディスプレイ装置を見るときに用いる眼鏡またはゴーグル、センサが装着された手袋、センサを含む外部ハンドヘルドデバイス、およびその他のこのような電子デバイス等を含む。仮想環境に没入すると、ユーザは身体の動きおよび/または電子デバイスの操作によって仮想環境の中を移動し、仮想環境の他の領域にテレポートし得る。これによりユーザは、仮想環境と対話し、仮想環境との対話を個人専用にする。
一局面において、方法は、仮想環境に対する第1の仮想スケールでの閲覧用に、仮想環境における第1の仮想位置の仮想レンダリングを表示するステップと、第2の仮想位置の選択と、第2の仮想位置の閲覧用の第2の仮想スケールの選択との入力を受け付けるステップとを含み得る。第1の仮想スケールと第2の仮想スケールとは異なっている。方法はさらに、入力を受け付けた後に、第2の仮想スケールで第2の仮想位置にテレポートするステップを含み得る。
たとえばヘッドマウントディスプレイ(head mounted display:HMD)デバイスを装着し、拡張現実および/または仮想現実環境に没入しているユーザは、さまざまな異なる種類の入力によって仮想環境を探検し、仮想環境における仮想オブジェクトおよび仮想特徴等と対話することができる。これらの入力は、たとえば、HMDから分離した電子デバイスの操作(たとえば、電子デバイスおよび/またはHMDから発せられた仮想光線または仮想ビーム等)、電子デバイスおよび/またはHMDの動き、および、電子デバイスおよび/またはHMDのタッチセンシティブ面上になされたタッチ等を含む物理的な対話、および/または、手/腕のジェスチャー、頭の動き、および/または頭および/または方向付けられた視線等を含み得る。ユーザは、これらの各種の対話のうちの1つ以上を実施することにより、たとえば仮想環境の中を移動し、仮想環境の第1の領域から仮想環境の第2の領域へ、または第1の仮想環境から第2の仮想環境へ移動、遷移、またはテレポートする等、仮想環境における特定の動作を実行することができる。
例1:仮想環境に対する第1の仮想スケールでの閲覧用に、仮想環境における第1の仮想位置の仮想レンダリングを表示するステップと、第2の仮想位置の選択と、第2の仮想位置の閲覧用の第2の仮想スケールの選択との入力を受け付けるステップとを含み、第1の仮想スケールと第2の仮想スケールとは異なっており、入力を受け付けた後に、第2の仮想スケールで第2の仮想位置にテレポートするステップを含む、方法。
Claims (20)
- 仮想環境に対する第1の仮想スケールでの閲覧用に、前記仮想環境における第1の仮想位置の仮想レンダリングを表示するステップと、
第2の仮想位置の選択と、前記第2の仮想位置の閲覧用の第2の仮想スケールの選択との入力を受け付けるステップとを含み、前記第1の仮想スケールと前記第2の仮想スケールとは異なっており、
前記入力を受け付けた後に、前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップを含む、方法。 - 前記入力を受け付けるステップは、
入力デバイスの操作を検出するステップと、
前記入力デバイスから前記第2の仮想位置に向けられた仮想ビームの部分の位置に基づいて、前記第2の仮想位置の前記選択を検出するステップと、
前記入力デバイスのスケール変更動作、および前記仮想ビームの対応する動作を検出するステップとを含み、前記入力デバイスの前記スケール変更動作は前記第2の仮想スケールの選択に対応している、請求項1に記載の方法。 - 前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップは、
前記第2の仮想位置の前記選択および前記第2の仮想スケールの前記選択を検出した後に、前記入力デバイスの前記操作の解放を検出するステップと、
前記入力デバイスの前記操作の前記検出された解放に応答して、前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップとを含む、請求項2に記載の方法。 - 前記入力デバイスを操作するステップは、前記第2の仮想位置および前記第2の仮想スケールが選択されるまでは前記入力デバイスの前記操作を解放せずに前記入力デバイスの前記操作を維持するステップを含む、請求項3に記載の方法。
- 前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップは、前記入力デバイスの前記操作の解放時に同時に前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップを含む、請求項4に記載の方法。
- 前記入力デバイスは、ハンドヘルド電子デバイスのトリガ、前記ハンドヘルド電子デバイスのタッチセンシティブ面、前記ハンドヘルド電子デバイスのボタン、前記ハンドヘルド電子デバイスのジョイスティック、または前記ハンドヘルド電子デバイスのトグルスイッチのうちの少なくとも1つを含む、請求項5に記載の方法。
- 前記第2の仮想位置の前記選択および前記仮想スケールの前記選択を検出した後、かつ、前記入力デバイスの前記操作の前記解放を検出する前に、前記入力デバイスの取消し動作と、前記第2の仮想位置から離れる方向への前記仮想ビームの対応する動作とを検出するステップと、
前記検出された前記入力デバイスの取消し動作および前記仮想ビームの対応する動作に応答して、前記第2の仮想位置および前記第2の仮想スケールの選択を取消すステップとをさらに含む、請求項3に記載の方法。 - 前記入力デバイスの取消し動作と前記仮想ビームの対応する動作とを検出するステップは、予め設定された閾値を上回る前記入力デバイスの動作を検出するステップを含む、請求項7に記載の方法。
- 前記予め設定された閾値を上回る前記入力デバイスの動作を検出するステップは、予め設定された角度距離よりも大きい前記入力デバイスの動作を検出するステップを含む、請求項8に記載の方法。
- 前記入力デバイスの物理的動作を検出するステップは、前記第2のスケールの前記選択に対応する前記入力デバイスの第1の動作を検出するステップを含み、前記第1の動作を検出するステップは、
前記仮想ビームの前記部分の初期仮想位置に対応する前記入力デバイスの初期位置を検出するステップと、
前記仮想ビームの前記部分の前記初期仮想位置から上方向への仮想動作に対応し、かつ前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの拡大に対応する、前記入力デバイスの前記初期位置から上方向への第1の物理的動作を検出するステップ、または
前記仮想ビームの前記部分の前記初期仮想位置から下方向への仮想動作に対応し、かつ前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの縮小に対応する、前記入力デバイスの前記初期位置から下方向への第2の物理的動作を検出するステップ
のうちの少なくとも1つとを含む、請求項2に記載の方法。 - 前記入力デバイスの物理的動作を検出するステップは、前記選択された第2の仮想位置に対するテレポート到着位置のシフトに対応する前記入力デバイスの第3の物理的動作を検出するステップを含み、前記第3の物理的動作を検出するステップは、
前記ビームの前記部分の横方向への仮想シフトに対応する前記入力デバイスの物理的動作を検出するステップ、または
前記ビームの前記部分の前方向および後方向への仮想シフトに対応する前記入力デバイスの物理的動作を検出するステップ、
のうちの少なくとも1つと、
前記検出された前記入力デバイスの第3の物理的動作および前記ビームの前記部分の対応する仮想シフトに基づいて、前記選択された第2の仮想位置に対して前記テレポート到着位置をシフトするステップとを含む、請求項10に記載の方法。 - 前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップは、
前記第2の仮想位置の前記選択を検出した後に、前記入力デバイスの前記操作デバイスの前記操作の解放を検出し、前記第2の仮想スケールの前記選択を検出し、前記テレポート到着位置をシフトするステップと、
前記入力デバイスの前記操作デバイスの前記操作の前記検出された解放に応答して、前記第2の仮想スケールかつ前記シフトしたテレポート到着位置で、前記第2の仮想位置にテレポートするステップとを含む、請求項11に記載の方法。 - 前記第2の仮想スケールかつ前記シフトしたテレポート到着位置で前記第2の仮想位置にテレポートするステップは、同時に前記第2の仮想スケールかつ前記シフトしたテレポート到着位置で前記第2の仮想位置にテレポートするステップとを含む、請求項12に記載の方法。
- 仮想環境を生成するように構成されたコンピューティングデバイスを備えるシステムであって、前記コンピューティングデバイスは、
実行可能な命令を格納するメモリと、
前記コンピューティングデバイスに、
前記仮想環境において第1の仮想スケールでの閲覧用に前記仮想環境の第1の仮想位置の仮想レンダリングを表示すること、
前記仮想環境における第2の仮想位置の選択と、前記第2の仮想位置の閲覧用の第2の仮想スケールの選択とを示す入力を受け付けること、および
前記入力を受け付けた後に、前記第2の仮想スケールで前記第2の仮想位置にテレポートすること
を行なわせるための前記命令を実行するように構成されたプロセッサとを含む、システム。 - 前記プロセッサは前記入力を検出するように構成され、
前記入力は、前記コンピューティングデバイスに動作可能に結合されたハンドヘルド電子デバイスにおいて受け付けられ、
前記入力は、前記ハンドヘルド電子デバイスの入力デバイスの操作を含む、請求項14に記載のシステム。 - 前記入力を検出することはさらに、
前記入力デバイスの前記操作に応答して生成される仮想ビームの部分を検出することを含み、前記仮想ビームの前記検出された部分は、前記第2の仮想位置の前記選択に対応しており、
前記入力を検出することはさらに、
前記第2の仮想スケールの前記選択に対応する前記仮想ビームの前記部分の仮想動作を検出することを含む、請求項15に記載のシステム。 - 前記仮想ビームの前記部分の前記検出された仮想動作は、
前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの拡大に対応する前記仮想ビームの前記部分の上方向への仮想動作、もしくは
前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの縮小に対応する前記仮想ビームの前記部分の下方向への仮想動作
のうちの少なくとも1つを含む前記仮想ビームの前記部分の第1の仮想動作、または
前記仮想ビームの前記部分の横方向への仮想動作、もしくは
前記仮想ビームの前記部分の前方向および後方向への仮想動作
のうちの少なくとも1つを含み、前記選択された第2の仮想位置に対するテレポート到着位置の仮想シフトに対応する前記仮想ビームの前記部分の第2の仮想動作
のうちの少なくとも1つを含む、請求項16に記載のシステム。 - 前記プロセッサは、さらに前記コンピューティングデバイスに、
前記第2の仮想位置の前記選択および前記仮想スケールの前記選択を検出した後、かつ、前記入力に応答して前記第2の仮想位置にテレポートする前に、前記入力デバイスの取消し動作と、前記仮想ビームの前記部分の前記第2の仮想位置から離れる方向への対応する動作とを検出すること、および
前記検出された前記入力デバイスの取消し動作および前記仮想ビームの前記部分の対応する動作に応答して、前記第2の仮想位置および前記第2の仮想スケールの選択を取消すこと
を行なわせるための前記命令を実行するように構成されている、請求項16に記載のシステム。 - 前記入力デバイスの前記取消し動作、および前記仮想ビームの前記部分の対応する動作は、予め設定された角度距離よりも大きい前記入力デバイスの動作の検出を含む、請求項18に記載のシステム。
- 前記入力デバイスは、前記ハンドヘルド電子デバイスのトリガ、前記ハンドヘルド電子デバイスのボタン、前記ハンドヘルド電子デバイスのジョイスティック、前記ハンドヘルド電子デバイスのトグルスイッチ、または前記ハンドヘルド電子デバイスのタッチセンシティブ面のうちの少なくとも1つを含む、請求項15に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562262451P | 2015-12-03 | 2015-12-03 | |
US62/262,451 | 2015-12-03 | ||
US15/368,191 US10338687B2 (en) | 2015-12-03 | 2016-12-02 | Teleportation in an augmented and/or virtual reality environment |
US15/368,191 | 2016-12-02 | ||
PCT/US2016/064919 WO2017096351A1 (en) | 2015-12-03 | 2016-12-05 | Teleportation in an augmented and/or virtual reality environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019502178A true JP2019502178A (ja) | 2019-01-24 |
JP6682623B2 JP6682623B2 (ja) | 2020-04-15 |
Family
ID=57590883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018513627A Active JP6682623B2 (ja) | 2015-12-03 | 2016-12-05 | 拡張および/または仮想現実環境におけるテレポーテーション |
Country Status (10)
Country | Link |
---|---|
US (2) | US10338687B2 (ja) |
EP (1) | EP3384365B1 (ja) |
JP (1) | JP6682623B2 (ja) |
KR (1) | KR102098316B1 (ja) |
CN (1) | CN108027658B (ja) |
AU (1) | AU2016364985B2 (ja) |
CA (1) | CA2998733C (ja) |
DE (1) | DE112016004135T5 (ja) |
GB (1) | GB2558100A (ja) |
WO (1) | WO2017096351A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024101038A1 (ja) * | 2022-11-11 | 2024-05-16 | 株式会社Nttドコモ | アバター移動装置 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170309070A1 (en) * | 2016-04-20 | 2017-10-26 | Sangiovanni John | System and method for very large-scale communication and asynchronous documentation in virtual reality and augmented reality environments |
US10506221B2 (en) | 2016-08-03 | 2019-12-10 | Adobe Inc. | Field of view rendering control of digital content |
US20180046363A1 (en) * | 2016-08-10 | 2018-02-15 | Adobe Systems Incorporated | Digital Content View Control |
US11461820B2 (en) | 2016-08-16 | 2022-10-04 | Adobe Inc. | Navigation and rewards involving physical goods and services |
US10198846B2 (en) | 2016-08-22 | 2019-02-05 | Adobe Inc. | Digital Image Animation |
US10068378B2 (en) | 2016-09-12 | 2018-09-04 | Adobe Systems Incorporated | Digital content interaction and navigation in virtual and augmented reality |
US10430559B2 (en) | 2016-10-18 | 2019-10-01 | Adobe Inc. | Digital rights management in virtual and augmented reality |
US10593105B2 (en) * | 2016-11-10 | 2020-03-17 | Karan Singh | Method and system for linking a first virtual reality (VR) immersive space with a second VR immersive space |
DE202017006742U1 (de) * | 2016-11-15 | 2019-02-19 | Google Llc | Eingabegerät-Stabilisierungstechniken für virtuelle Realitätssysteme |
US10449453B2 (en) * | 2017-03-08 | 2019-10-22 | Robolox Corporation | Third person camera and avatar motion controller for virtual reality players of avatar-based games |
US10391408B2 (en) | 2017-06-19 | 2019-08-27 | Disney Enterprises, Inc. | Systems and methods to facilitate user interactions with virtual objects depicted as being present in a real-world space |
US10296080B2 (en) | 2017-06-19 | 2019-05-21 | Disney Enterprises, Inc. | Systems and methods to simulate user presence in a real-world three-dimensional space |
WO2018234318A1 (en) * | 2017-06-20 | 2018-12-27 | Soccer Science, S.L. | REDUCING VIRTUAL DISEASE IN VIRTUAL REALITY APPLICATIONS |
US10180735B1 (en) * | 2017-06-29 | 2019-01-15 | Trimble Inc. | Navigation methods for three dimensional (3D) models in mixed reality (MR) environments |
US10817128B2 (en) * | 2017-07-11 | 2020-10-27 | Logitech Europe S.A. | Input device for VR/AR applications |
US20190188910A1 (en) * | 2017-12-17 | 2019-06-20 | Tsunami VR, Inc. | Systems and methods for teleporting a virtual position of a user in a virtual environment to a teleportable point of a virtual object |
JP7155291B2 (ja) * | 2018-05-02 | 2022-10-18 | アップル インコーポレイテッド | 環境の動き回り |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
US11301110B2 (en) * | 2018-12-27 | 2022-04-12 | Home Box Office, Inc. | Pull locomotion in a virtual reality environment |
US10839607B2 (en) | 2019-01-07 | 2020-11-17 | Disney Enterprises, Inc. | Systems and methods to provide views of a virtual space |
DE102020104415A1 (de) * | 2019-02-22 | 2020-08-27 | Apple Inc. | Bewegung in einer umgebung |
US10983662B2 (en) * | 2019-04-01 | 2021-04-20 | Wormhole Labs, Inc. | Distally shared, augmented reality space |
JP6776400B1 (ja) * | 2019-04-26 | 2020-10-28 | 株式会社コロプラ | プログラム、方法、および情報端末装置 |
WO2020250106A1 (en) * | 2019-06-08 | 2020-12-17 | Pankaj Raut | A system and a method for teleportation for enhanced audio-visual interaction in mixed reality (mr) using a head mounted device (hmd) |
US10897564B1 (en) | 2019-06-17 | 2021-01-19 | Snap Inc. | Shared control of camera device by multiple devices |
US11023035B1 (en) | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual pinboard interaction using a peripheral device in artificial reality environments |
US11023036B1 (en) | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual drawing surface interaction using a peripheral device in artificial reality environments |
US10976804B1 (en) * | 2019-07-09 | 2021-04-13 | Facebook Technologies, Llc | Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments |
US11340857B1 (en) | 2019-07-19 | 2022-05-24 | Snap Inc. | Shared control of a virtual object by multiple devices |
US11985175B2 (en) | 2020-03-25 | 2024-05-14 | Snap Inc. | Virtual interaction session to facilitate time limited augmented reality based communication between multiple users |
JP2021157277A (ja) * | 2020-03-25 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
US12101360B2 (en) | 2020-03-25 | 2024-09-24 | Snap Inc. | Virtual interaction session to facilitate augmented reality based communication between multiple users |
US11593997B2 (en) * | 2020-03-31 | 2023-02-28 | Snap Inc. | Context based augmented reality communication |
CN111803947A (zh) * | 2020-07-15 | 2020-10-23 | 广州玖的数码科技有限公司 | 虚拟空间中的游戏角色移动控制方法、存储介质和服务器 |
CN112308980B (zh) * | 2020-10-30 | 2024-05-28 | 脸萌有限公司 | 增强现实交互显示方法及设备 |
EP4224289A1 (en) * | 2022-02-08 | 2023-08-09 | Nokia Technologies Oy | Mediated reality |
US12093462B2 (en) | 2022-04-11 | 2024-09-17 | Meta Platforms Technologies, Llc | Virtual keyboard selections using multiple input modalities |
US12052813B2 (en) | 2022-09-13 | 2024-07-30 | Hamilton Sundstrand Corporation | Circuit mounting assemblies |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09212686A (ja) * | 1996-02-05 | 1997-08-15 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間内での任意画面抽出システム |
JP2008040556A (ja) * | 2006-08-01 | 2008-02-21 | Canon Inc | 複合現実感提示装置及びその制御方法、プログラム |
US20110164059A1 (en) * | 2009-12-03 | 2011-07-07 | International Business Machines Corporation | Rescaling for interoperability in virtual environments |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060119598A1 (en) | 2004-12-08 | 2006-06-08 | Evil Twin Studios, Inc. | System and method for communicating travel progress within a virtual environment |
DE102007025069B4 (de) * | 2007-05-21 | 2018-05-24 | Seereal Technologies S.A. | Holographisches Rekonstruktionssystem |
KR20110025216A (ko) | 2008-06-24 | 2011-03-09 | 올레그 스탄니슬라보비치 루린 | 가상 오브젝트들 상에 효과를 발생시키는 방법 |
US20100088600A1 (en) * | 2008-10-07 | 2010-04-08 | Hamilton Ii Rick A | Redirection of an avatar |
KR101666995B1 (ko) * | 2009-03-23 | 2016-10-17 | 삼성전자주식회사 | 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법 |
US8812475B2 (en) | 2009-04-20 | 2014-08-19 | International Business Machines Corporation | Facilitating object searches in virtual worlds |
KR20100138700A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
US8392853B2 (en) | 2009-07-17 | 2013-03-05 | Wxanalyst, Ltd. | Transparent interface used to independently manipulate and interrogate N-dimensional focus objects in virtual and real visualization systems |
US8473852B2 (en) | 2009-07-31 | 2013-06-25 | Siemens Corporation | Virtual world building operations center |
US8392839B2 (en) * | 2009-08-27 | 2013-03-05 | International Business Machines Corporation | System and method for using partial teleportation or relocation in virtual worlds |
CN102054289B (zh) * | 2009-11-04 | 2014-06-11 | 沈阳迅景科技有限公司 | 一种基于全景实景和地理信息的3d虚拟社区构建方法 |
JP6101267B2 (ja) * | 2011-08-18 | 2017-03-22 | アザーヴァース デジタル インコーポレーテッドUtherverse Digital, Inc. | 仮想世界の相互作用のシステムおよび方法 |
KR101463540B1 (ko) * | 2012-05-23 | 2014-11-20 | 한국과학기술연구원 | 휴대용 전자 기기를 이용한 3차원 가상 커서 제어 방법 |
US20130326364A1 (en) | 2012-05-31 | 2013-12-05 | Stephen G. Latta | Position relative hologram interactions |
US9116666B2 (en) | 2012-06-01 | 2015-08-25 | Microsoft Technology Licensing, Llc | Gesture based region identification for holograms |
US9594877B2 (en) | 2012-08-31 | 2017-03-14 | Nuvectra Corporation | Virtual reality representation of medical devices |
US9428449B2 (en) | 2013-01-16 | 2016-08-30 | Alstom Technology Ltd | Method of forming urea by integration of an ammonia production process in a urea production process and a system therefor |
US9685005B2 (en) * | 2015-01-02 | 2017-06-20 | Eon Reality, Inc. | Virtual lasers for interacting with augmented reality environments |
US10062208B2 (en) * | 2015-04-09 | 2018-08-28 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
CN104933753A (zh) * | 2015-07-09 | 2015-09-23 | 上海苗实信息科技有限公司 | 一种基于互联网的三维虚拟漫游场景构建平台 |
-
2016
- 2016-12-02 US US15/368,191 patent/US10338687B2/en active Active
- 2016-12-05 GB GB1803619.4A patent/GB2558100A/en not_active Withdrawn
- 2016-12-05 KR KR1020187006688A patent/KR102098316B1/ko active IP Right Grant
- 2016-12-05 EP EP16816548.8A patent/EP3384365B1/en active Active
- 2016-12-05 DE DE112016004135.7T patent/DE112016004135T5/de not_active Withdrawn
- 2016-12-05 AU AU2016364985A patent/AU2016364985B2/en active Active
- 2016-12-05 WO PCT/US2016/064919 patent/WO2017096351A1/en active Application Filing
- 2016-12-05 CN CN201680053722.0A patent/CN108027658B/zh active Active
- 2016-12-05 JP JP2018513627A patent/JP6682623B2/ja active Active
- 2016-12-05 CA CA2998733A patent/CA2998733C/en active Active
-
2019
- 2019-05-14 US US16/411,429 patent/US10558274B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09212686A (ja) * | 1996-02-05 | 1997-08-15 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間内での任意画面抽出システム |
JP2008040556A (ja) * | 2006-08-01 | 2008-02-21 | Canon Inc | 複合現実感提示装置及びその制御方法、プログラム |
US20110164059A1 (en) * | 2009-12-03 | 2011-07-07 | International Business Machines Corporation | Rescaling for interoperability in virtual environments |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024101038A1 (ja) * | 2022-11-11 | 2024-05-16 | 株式会社Nttドコモ | アバター移動装置 |
Also Published As
Publication number | Publication date |
---|---|
DE112016004135T5 (de) | 2018-06-07 |
US10558274B2 (en) | 2020-02-11 |
CA2998733C (en) | 2020-06-09 |
EP3384365B1 (en) | 2019-09-04 |
AU2016364985A1 (en) | 2018-03-22 |
WO2017096351A1 (en) | 2017-06-08 |
AU2016364985B2 (en) | 2018-12-06 |
KR20180038521A (ko) | 2018-04-16 |
CN108027658B (zh) | 2021-08-03 |
KR102098316B1 (ko) | 2020-04-07 |
CA2998733A1 (en) | 2017-06-08 |
CN108027658A (zh) | 2018-05-11 |
GB2558100A (en) | 2018-07-04 |
US20170160815A1 (en) | 2017-06-08 |
JP6682623B2 (ja) | 2020-04-15 |
US20190265804A1 (en) | 2019-08-29 |
US10338687B2 (en) | 2019-07-02 |
EP3384365A1 (en) | 2018-10-10 |
GB201803619D0 (en) | 2018-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6682623B2 (ja) | 拡張および/または仮想現実環境におけるテレポーテーション | |
US10559117B2 (en) | Interactions and scaling in virtual reality | |
US10509487B2 (en) | Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment | |
EP3414644B1 (en) | Control system for navigation in virtual reality environment | |
US10620720B2 (en) | Input controller stabilization techniques for virtual reality systems | |
US10635259B2 (en) | Location globe in virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180528 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180528 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6682623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |