JP6535819B2 - 仮想現実環境におけるナビゲーション用制御システム - Google Patents
仮想現実環境におけるナビゲーション用制御システム Download PDFInfo
- Publication number
- JP6535819B2 JP6535819B2 JP2018524722A JP2018524722A JP6535819B2 JP 6535819 B2 JP6535819 B2 JP 6535819B2 JP 2018524722 A JP2018524722 A JP 2018524722A JP 2018524722 A JP2018524722 A JP 2018524722A JP 6535819 B2 JP6535819 B2 JP 6535819B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- reference point
- user
- point
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/20—Linear translation of a whole image or part thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
Description
3D仮想環境に没入した、例えば、ヘッドマウントディスプレイ(HMD)装置を装着したユーザは、様々な異なる種類の入力を通じて3D仮想環境を探検し、また3D仮想環境と対話してよい。これらの入力は、例えば、HMDと別個の電子装置の操作、HMD自体の操作、および/または手/腕のジェスチャーを通じた、頭の動きおよび/または頭および/または眼の方向的な注視、その他を含む、例えば物理的な対話を含んでよい。ユーザは、これらの異なる種類の対話のうちの1つまたは複数を実装して、仮想環境における特定の動作、例えば仮想環境中の移動もしくはユーザに関しての仮想環境の移動、仮想環境の第1エリアから仮想環境の第2エリアへの移動、遷移、またはテレポーティング、仮想環境が体験されるパースペクティブの調整、その他を実行してよい。
加えて、図に記載された論理の流れは、望ましい結果を得るために、示された特定の順序や順番を必要としない。加えて、他の工程が提供されてよく、または工程は記載された流れから省略されてよい。また、他の構成要素は、記載されたシステムに追加されるか省略されてよい。したがって、他の実施形態は、以下の請求項の範囲内である。
例1: 方法であって、ヘッドマウントディスプレイ装置のディスプレイ内で仮想環境を生成する工程と、ヘッドマウントディスプレイ装置と通信をするコントローラのユーザインターフェイスにおいて、第1入力を検出する工程と、第1入力に応答して、仮想環境において、選択された仮想フィーチャにアンカーポイントを設定する、アンカーポイント設定工程と、第2入力を検出する工程と、第2入力に応答して、アンカーポイントに関連付けられた仮想フィーチャを含む仮想環境内に、エリアを定義する工程と、仮想環境のユーザ視界内で、定義されたエリア内に仮想フィーチャの一部を維持しつつ、仮想環境における仮想フィーチャの位置およびスケールのうちの少なくとも一方を調整する、調整工程と、を備える方法。
例6: 位置基準エリア定義工程は、設定されたコントローラリファレンスポイントにより定義される中心を有する第1仮想ディスクを定義する、第1仮想ディスク定義工程と、設定されたユーザリファレンスポイントおよび第1仮想ディスクに基づき仮想円錐を定義する工程であって、仮想円錐は、設定されたユーザリファレンスポイントを始点として仮想フィーチャに向かって延び、第1仮想ディスクに接触する、仮想円錐定義工程と、仮想円錐と仮想フィーチャとの交差箇所に第2仮想ディスクを定義する、第2仮想ディスク定義工程と、を含む例2乃至5のいずれか1例に記載の方法。
例9: 設定されたコントローラリファレンスポイントが設定されたユーザリファレンスポイントに対して移動するとき、第1仮想ディスクの第1半径および第2仮想ディスクの第2仮想半径は、各々一定のままであり、設定されたコントローラリファレンスポイントが設定されたユーザリファレンスポイントに対して移動するとき、半頂角の角度が変わる例7または8に記載の方法。
Claims (20)
- 方法であって、
ヘッドマウントディスプレイ装置のディスプレイ内で仮想環境を生成する工程と、
前記ヘッドマウントディスプレイ装置と通信をするハンドヘルドのコントローラのユーザインターフェイスにおいて受信される第1入力を検出する工程と、
前記第1入力に応答して、前記仮想環境において、選択された仮想フィーチャにアンカーポイントを設定する、アンカーポイント設定工程と、
第2入力を検出する工程と、
前記第2入力に応答して、
設定されたユーザリファレンスポイントに対する設定されたコントローラリファレンスポイントの位置に基づき、前記アンカーポイントに関連付けられた前記仮想フィーチャを含む前記仮想環境内に、エリアを定義する工程であって、前記設定されたユーザリファレンスポイントは前記ヘッドマウントディスプレイ装置に対する固定点に対応し、前記設定されたコントローラリファレンスポイントはハンドヘルドの前記コントローラに対する固定点に対応し、前記設定されたユーザリファレンスポイントと前記設定されたコントローラリファレンスポイントと前記アンカーポイントとは仮想線上にある、前記工程と、
前記仮想環境のユーザ視界内で、定義された前記エリアを維持しつつ、前記仮想環境における前記仮想フィーチャの位置およびスケールのうちの少なくとも一方を調整する、調整工程と、を備える方法。 - 前記アンカーポイント設定工程は、
仮想ターゲット線と前記仮想フィーチャとの交差箇所を検出する、交差箇所検出工程と、
前記仮想ターゲット線と前記仮想フィーチャとの検出した前記交差箇所に、前記アンカーポイントを設定する工程と、を含む請求項1に記載の方法。 - 前記設定されたユーザリファレンスポイントは、前記ヘッドマウントディスプレイ装置上の固定点に対応し、前記設定されたコントローラリファレンスポイントは、ハンドヘルドの前記コントローラに対する固定点に対応する請求項2に記載の方法。
- 前記交差箇所検出工程は、前記仮想ターゲット線を定義する工程であって、前記仮想ターゲット線は、前記設定されたユーザリファレンスポイントを始点とし、前記仮想ターゲット線は、前記設定されたユーザリファレンスポイントにおける前記始点から前記設定されたコントローラリファレンスポイントを通じて延びる、工程を含む請求項3に記載の方法。
- 前記設定されたコントローラリファレンスポイントは、仮想閉曲線の中心を定義する請求項4に記載の方法。
- 前記仮想環境内に前記エリアを定義する工程は、
前記設定されたコントローラリファレンスポイントにより定義される中心を有する第1仮想ディスクを定義する、第1仮想ディスク定義工程と、
前記設定されたユーザリファレンスポイントおよび前記第1仮想ディスクに基づき仮想円錐を定義する工程であって、前記仮想円錐は、前記設定されたユーザリファレンスポイントを始点として前記仮想フィーチャに向かって延び、前記第1仮想ディスクに接触する、仮想円錐定義工程と、
前記仮想円錐と前記仮想フィーチャとの交差箇所に第2仮想ディスクを定義する、第2仮想ディスク定義工程と、を含む請求項1に記載の方法。 - 前記第1仮想ディスク定義工程は、前記第1仮想ディスクの第1半径を定義する工程であって、前記第1半径は、前記設定されたコントローラリファレンスポイントから前記第1仮想ディスクの円周まで延びる、工程を含み、前記第2仮想ディスク定義工程は、
前記第2仮想ディスクの中心を定義する工程であって、前記第2仮想ディスクの中心は、前記アンカーポイントに対応する、工程と、
前記第2仮想ディスクの円周を定義する工程であって、該円周は、前記円錐と前記アンカーポイントに位置する仮想平面との交差箇所に対応し、前記仮想平面は仮想ターゲット線と垂直である、工程と、
前記第2仮想ディスクの第2半径を定義する工程であって、前記第2半径は、前記第2仮想ディスクの前記中心から前記第2仮想ディスクの前記円周まで延びる、工程と、を含む請求項6に記載の方法。 - 前記仮想円錐定義工程は、前記仮想ターゲット線と前記仮想円錐の外周との間の半頂角を定義する工程を含む請求項7に記載の方法。
- 前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記第1仮想ディスクの前記第1半径は前記ユーザに対して一定のままであり、前記第2仮想ディスクの仮想の前記第2半径は前記仮想環境に対して一定のままであり、前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記半頂角の角度が変わる請求項8に記載の方法。
- 前記第2入力を受信する工程は、前記設定されたユーザリファレンスポイントに対する前記設定されたコントローラリファレンスポイントの移動を検出する工程を含み、前記調整工程は、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記アンカーポイントを前記仮想ターゲット線上に維持する工程と、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記第1仮想ディスクの前記第1半径を前記ユーザに対して一定に維持する工程と、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動し、かつ前記仮想フィーチャの前記位置および前記スケールのうちの少なくとも一方が調整されるとき、前記第2仮想ディスクの前記第2半径を前記仮想環境に対して一定に維持する工程と、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動し、かつ前記仮想フィーチャの前記位置および前記スケールのうちの少なくとも一方が調整されるとき、前記半頂角を調整する工程と、を含む請求項8に記載の方法。 - 前記第2入力を受信する工程は、前記設定されたユーザリファレンスポイントに対する前記設定されたコントローラリファレンスポイントの移動を検出する工程を含み、前記調整工程は、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記アンカーポイントを前記仮想ターゲット線上に維持して、前記アンカーポイントを移動させる工程と、
前記アンカーポイントが移動するとき、前記アンカーポイントを囲む定義された前記エリアにおける前記仮想フィーチャの前記一部を、定義された前記エリア内に維持する、工程と、
前記アンカーポイントが移動するとき、前記アンカーポイントを囲む定義された前記エリアにおける前記仮想フィーチャの前記一部の前記位置および前記スケールのうちの少なくとも一方を調整する工程と、を含む請求項8に記載の方法。 - 前記アンカーポイントを囲む、前記仮想フィーチャの定義された前記エリアは、前記第2仮想ディスクに対応し、前記アンカーポイントの移動に応答して前記仮想フィーチャの前記位置および前記スケールのうちの少なくとも一方が調整されるとき、前記第2仮想ディスクの仮想の前記半径は、前記仮想環境に関して一定のままである請求項11に記載の方法。
- システムであって、
没入型仮想環境を生成するよう構成されたコンピュータ装置を備え、前記コンピュータ装置は、
実行可能な命令を記憶するメモリと、
前記命令を実行するよう構成されたプロセッサと、を有し、前記コンピュータ装置に、
ヘッドマウントディスプレイ装置のディスプレイ中に仮想環境を生成する工程と、
前記ヘッドマウントディスプレイ装置と通信をするハンドヘルドのコントローラのユーザインターフェイスにおいて受信される第1入力を検出する工程と、
前記第1入力に応答して、前記仮想環境において、選択された仮想フィーチャにアンカーポイントを設定する、アンカーポイント設定工程と、
第2入力を検出する工程と、
前記第2入力に応答して、
設定されたユーザリファレンスポイントに対する設定されたコントローラリファレンスポイントの位置に基づき、前記フィーチャのエリアを、前記アンカーポイントが前記エリア内に配置されるように定義する工程であって、前記設定されたユーザリファレンスポイントは前記ヘッドマウントディスプレイ装置に対する固定点に対応し、前記設定されたコントローラリファレンスポイントはハンドヘルドの前記コントローラに対する固定点に対応し、前記設定されたユーザリファレンスポイントと前記設定されたコントローラリファレンスポイントと前記アンカーポイントとは仮想線上にある、前記工程と、
前記仮想環境のユーザ視界内で、定義された前記エリアを維持しつつ、前記仮想環境における前記仮想フィーチャの位置およびスケールのうちの少なくとも一方を調整する、調整工程と、を実行させるシステム。 - 前記アンカーポイント設定工程において、前記プロセッサは、
仮想ターゲット線と前記仮想フィーチャとの交差箇所を検出する工程であって、前記仮想ターゲット線は、ユーザヘッドマウントディスプレイ上の固定点に対応する、設定されたユーザリファレンスポイントにおける始点に基づき定義され、前記コントローラに対する固定点に対応する設定されたコントローラリファレンスポイントを通じて延びる、工程と、
前記アンカーポイントを、前記仮想ターゲット線と前記仮想フィーチャとの検出した前記交差箇所に設定する工程と、を実行するよう構成される請求項13に記載のシステム。 - 前記アンカーポイントを囲む、前記フィーチャの前記エリアを定義する工程において、前記プロセッサは、
第1仮想ディスクを、前記設定されたコントローラリファレンスポイントに定義する工程と、
前記設定されたユーザリファレンスポイントおよび前記第1仮想ディスクに基づき仮想円錐を定義する工程であって、前記仮想円錐は、前記設定されたユーザリファレンスポイントを始点として前記仮想フィーチャに向かって延び、前記第1仮想ディスクに接触する、仮想円錐定義工程と、
前記仮想円錐と前記仮想フィーチャとの交差箇所に第2仮想ディスクを定義する、第2仮想ディスク定義工程と、を実行するよう構成される請求項14に記載のシステム。 - 前記第1仮想ディスクを、仮想クロスヘアに定義する工程において、前記プロセッサは、
前記第1仮想ディスクの中心を定義する工程であって、前記第1仮想ディスクの前記中心は、前記設定されたコントローラリファレンスポイントに対応する、工程と、
前記第1仮想ディスクの第1半径を定義する工程であって、前記第1半径は、前記設定されたコントローラリファレンスポイントにおける前記第1仮想ディスクの前記中心から前記第1仮想ディスクの円周まで延びる、工程と、を実行するよう構成される請求項15に記載のシステム。 - 前記第2仮想ディスク定義工程において、前記プロセッサは、
前記第2仮想ディスクの中心を定義する工程であって、前記第2仮想ディスクの前記中心は、前記アンカーポイントに対応する、工程と、
前記第2仮想ディスクの円周を定義する工程であって、該円周は、前記円錐と前記仮想フィーチャとの交差箇所に対応する、工程と、
前記第2仮想ディスクの第2半径を定義する工程であって、前記第2半径は、前記第2仮想ディスクの前記中心から前記第2仮想ディスクの前記円周まで延びる、工程と、
前記仮想ターゲット線と前記仮想円錐の外周との間の半頂角を定義する工程と、を実行するよう構成される請求項16に記載のシステム。 - 前記調整工程において、前記プロセッサは、
前記設定されたユーザリファレンスポイントに対する前記設定されたコントローラリファレンスポイントの移動を、第2入力として検出する工程と、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記アンカーポイントを前記仮想ターゲット線上に維持する工程と、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記第1仮想ディスクの前記第1半径を前記ユーザに対して一定に維持する工程と、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動し、かつ前記仮想フィーチャの前記位置および前記スケールのうちの少なくとも一方が調整されるとき、前記第2仮想ディスクの前記第2半径を前記仮想環境に対して一定に維持する、第2半径維持工程と、
前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動し、かつ前記仮想フィーチャの前記位置および前記スケールのうちの少なくとも一方が調整されるとき、前記半頂角を調整する工程と、を実行するよう構成される請求項17に記載のシステム。 - 前記設定されたコントローラリファレンスポイントが前記設定されたユーザリファレンスポイントに対して移動するとき、前記第2仮想ディスクの前記第2半径を前記仮想環境に対して関して一定に維持する工程において、前記プロセッサは、
前記アンカーポイントが移動するとき、前記アンカーポイントを囲む定義された前記エリアにおける前記仮想フィーチャの前記一部を、定義された前記エリア内に維持する、工程と、
前記仮想フィーチャの前記位置および前記スケールのうちの少なくとも一方の調整と共に前記アンカーポイントが移動するとき、前記アンカーポイントを囲む定義された前記エリアにおける前記仮想フィーチャの前記一部の前記位置および前記スケールのうちの少なくとも一方を調整する工程と、を実行するよう構成される請求項17に記載のシステム。 - 前記アンカーポイントを囲む、前記仮想フィーチャの定義された前記エリアは、前記第2仮想ディスクに対応し、前記アンカーポイントの移動に応答して前記仮想フィーチャの前記位置および前記スケールのうちの少なくとも一方が調整されるとき、前記第2仮想ディスクの仮想の前記半径は、前記仮想環境に関して一定のままである請求項19に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662292602P | 2016-02-08 | 2016-02-08 | |
US62/292,602 | 2016-02-08 | ||
US15/352,162 | 2016-11-15 | ||
US15/352,162 US10083539B2 (en) | 2016-02-08 | 2016-11-15 | Control system for navigation in virtual reality environment |
PCT/US2016/065058 WO2017139009A1 (en) | 2016-02-08 | 2016-12-06 | Control system for navigation in virtual reality environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019502193A JP2019502193A (ja) | 2019-01-24 |
JP6535819B2 true JP6535819B2 (ja) | 2019-06-26 |
Family
ID=59497863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018524722A Active JP6535819B2 (ja) | 2016-02-08 | 2016-12-06 | 仮想現実環境におけるナビゲーション用制御システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10083539B2 (ja) |
EP (1) | EP3414644B1 (ja) |
JP (1) | JP6535819B2 (ja) |
KR (1) | KR102021135B1 (ja) |
CN (1) | CN108139805B (ja) |
WO (1) | WO2017139009A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
EP3605300A4 (en) * | 2017-03-22 | 2020-02-26 | Sony Corporation | IMAGE PROCESSING DEVICE AND METHOD AND PROGRAM |
US10326933B2 (en) * | 2017-06-14 | 2019-06-18 | Google Llc | Pose estimation of 360-degree photos using annotations |
KR102479052B1 (ko) * | 2017-08-29 | 2022-12-20 | 삼성전자주식회사 | 복수의 컨트롤러를 이용한 전자 장치의 디스플레이 제어 방법 및 그 장치 |
KR102374408B1 (ko) * | 2017-09-08 | 2022-03-15 | 삼성전자주식회사 | 가상 현실에서의 포인터 제어 방법 및 전자 장치 |
US10712899B2 (en) * | 2017-10-17 | 2020-07-14 | Microsoft Technology Licensing, Llc | Human-machine interface tethered to a user position in a three-dimensional VR or AR environment |
KR102572675B1 (ko) * | 2017-11-22 | 2023-08-30 | 삼성전자주식회사 | 사용자 인터페이스를 적응적으로 구성하기 위한 장치 및 방법 |
CN108519676B (zh) * | 2018-04-09 | 2020-04-28 | 杭州瑞杰珑科技有限公司 | 一种头戴式助视装置 |
US11353967B2 (en) * | 2018-05-31 | 2022-06-07 | Arkh Litho Holdings, LLC | Interacting with a virtual environment using a pointing controller |
CN110825279A (zh) * | 2018-08-09 | 2020-02-21 | 北京微播视界科技有限公司 | 平面间无缝切换的方法、装置和计算机可读存储介质 |
US11397463B2 (en) | 2019-01-12 | 2022-07-26 | Microsoft Technology Licensing, Llc | Discrete and continuous gestures for enabling hand rays |
US11386872B2 (en) | 2019-02-15 | 2022-07-12 | Microsoft Technology Licensing, Llc | Experiencing a virtual object at a plurality of sizes |
CN110456907A (zh) * | 2019-07-24 | 2019-11-15 | 广东虚拟现实科技有限公司 | 虚拟画面的控制方法、装置、终端设备及存储介质 |
US20230297166A1 (en) * | 2020-03-10 | 2023-09-21 | Arkh Litho Holdings, LLC | Barometric Sensing of Arm Position in a Pointing Controller System |
US11120639B1 (en) | 2020-04-24 | 2021-09-14 | Microsoft Technology Licensing, Llc | Projecting telemetry data to visualization models |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001128134A (ja) * | 1999-11-01 | 2001-05-11 | Atr Media Integration & Communications Res Lab | プレゼンテーション装置 |
US7646394B1 (en) | 2004-03-05 | 2010-01-12 | Hrl Laboratories, Llc | System and method for operating in a virtual environment |
JP5681850B2 (ja) * | 2010-03-09 | 2015-03-11 | レノボ・イノベーションズ・リミテッド(香港) | ヘッドマウントディスプレイを外部表示装置として使用する携帯端末 |
EP2506118A1 (en) * | 2011-03-29 | 2012-10-03 | Sony Ericsson Mobile Communications AB | Virtual pointer |
WO2013085639A1 (en) * | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
JP5868886B2 (ja) * | 2013-03-11 | 2016-02-24 | 東芝三菱電機産業システム株式会社 | ウェアラブルコンピュータ入力装置 |
US9041741B2 (en) * | 2013-03-14 | 2015-05-26 | Qualcomm Incorporated | User interface for a head mounted display |
US10514767B2 (en) * | 2013-04-02 | 2019-12-24 | Sony Corporation | Information processing apparatus and information processing method |
US9245387B2 (en) * | 2013-04-12 | 2016-01-26 | Microsoft Technology Licensing, Llc | Holographic snap grid |
US20160291687A1 (en) * | 2013-05-21 | 2016-10-06 | Sony Corporation | Display control device, display control method, and recording medium |
US20160004300A1 (en) | 2014-07-07 | 2016-01-07 | PinchVR Inc. | System, Method, Device and Computer Readable Medium for Use with Virtual Environments |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
CN206650796U (zh) * | 2017-08-04 | 2017-11-17 | 深圳超多维科技有限公司 | 虚拟现实装置 |
-
2016
- 2016-11-15 US US15/352,162 patent/US10083539B2/en active Active
- 2016-12-06 KR KR1020187013796A patent/KR102021135B1/ko active IP Right Grant
- 2016-12-06 EP EP16822811.2A patent/EP3414644B1/en active Active
- 2016-12-06 JP JP2018524722A patent/JP6535819B2/ja active Active
- 2016-12-06 CN CN201680059255.2A patent/CN108139805B/zh active Active
- 2016-12-06 WO PCT/US2016/065058 patent/WO2017139009A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
KR102021135B1 (ko) | 2019-09-11 |
US20170228921A1 (en) | 2017-08-10 |
WO2017139009A1 (en) | 2017-08-17 |
CN108139805B (zh) | 2021-05-25 |
EP3414644A1 (en) | 2018-12-19 |
KR20180069041A (ko) | 2018-06-22 |
CN108139805A (zh) | 2018-06-08 |
EP3414644B1 (en) | 2022-05-25 |
US10083539B2 (en) | 2018-09-25 |
JP2019502193A (ja) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6535819B2 (ja) | 仮想現実環境におけるナビゲーション用制御システム | |
US10559117B2 (en) | Interactions and scaling in virtual reality | |
KR102098316B1 (ko) | 증강 및/또는 가상 현실 환경에서의 텔레포테이션 | |
KR102245245B1 (ko) | 증강된 그리고/또는 가상의 현실 환경에서 6 자유도 제어기들을 이용한 가상 객체들의 조작 | |
JP6676213B2 (ja) | 仮想現実ユーザインターフェイスのためのユーザの動きの範囲の検出 | |
US10509487B2 (en) | Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment | |
CN108073276B (zh) | 增强和/或虚拟现实环境的拖拽虚拟元件 | |
US10620720B2 (en) | Input controller stabilization techniques for virtual reality systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6535819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |