JP6931068B2 - 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース - Google Patents
向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース Download PDFInfo
- Publication number
- JP6931068B2 JP6931068B2 JP2019543275A JP2019543275A JP6931068B2 JP 6931068 B2 JP6931068 B2 JP 6931068B2 JP 2019543275 A JP2019543275 A JP 2019543275A JP 2019543275 A JP2019543275 A JP 2019543275A JP 6931068 B2 JP6931068 B2 JP 6931068B2
- Authority
- JP
- Japan
- Prior art keywords
- user interface
- user
- global
- local
- image element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/533—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本出願は、2017年2月10日に出願された、PAIRED LOCAL AND GLOBAL USER INTERFACES FOR AN IMPROVED AUGMENTED REALITY EXPERIENCEと題する、米国特許出願第15/429,781号の優先権を主張する。この文献は、これにより、すべての目的に関し、本明細書に全体が説明されているかのように、参照することによって組み込まれる。
Claims (19)
- 外部環境内の移動が自由であるユーザの拡張現実の体験の向上方法であって、
ローカルユーザインターフェースを形成し、前記ローカルユーザインターフェースを前記ユーザに対し、第1の視認可能な領域内に表示することと、
グローバルユーザインターフェースを形成し、前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に表示することと、を含み、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、
前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、
前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止しており、
さらに、前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成することと、
前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にすること、
を含む、前記方法。 - 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示される、請求項1に記載の方法。
- 前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項1に記載の方法。
- 前記第2のバーチャル画像要素が3次元的であり、それにより、前記ユーザが位置及び方向を変更した場合、それに応じて、前記第2のバーチャル画像要素の異なる特徴が、前記ユーザによって認識される、請求項2に記載の方法。
- 前記第2のバーチャル画像要素が3次元的であり、それにより、前記第2のバーチャル画像要素が、前記グローバルユーザインターフェースと相互作用する前記ユーザによる制御、または、前記拡張現実の体験を実行するソフトウェアによる制御に応じて、位置及び方向を変更した場合、それに応じて、前記第2のバーチャル画像要素の異なる特徴が、前記ユーザによって認識される、請求項2に記載の方法。
- 前記第2のバーチャル画像要素が、前記ユーザにより、不透明であるものと認識される、請求項2に記載の方法。
- 前記第2のバーチャル画像要素が、前記ユーザによる意図的なジェスチャに応じて前記外部環境内で移動し、前記グローバルユーザインターフェースと相互作用する、請求項2に記載の方法。
- 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施される、請求項1に記載の方法。
- 前記光学的ヘッドマウントディスプレイデバイスが、
OLEDディスプレイと、
頭部の位置センサと、
頭部の方向センサと、
前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項8に記載の方法。 - 前記外部環境における、前記ユーザによって視認される現実の対象の、前記ユーザからの距離が、前記第1のカメラ及び前記第2のカメラによって取得された画像の画像処理によって判定される、請求項9に記載の方法。
- 前記光学的ヘッドマウントディスプレイデバイスが、前記ユーザに向けられた第3のカメラをさらに備え、前記第3のカメラが、前記電磁スペクトルの前記可視領域において、前記ユーザの眼球の画像を取得する、請求項9に記載の方法。
- 外部環境内の移動が自由であるユーザの拡張現実の体験を向上させるためのシステムであって、
ディスプレイデバイスと、
前記ディスプレイデバイスに結合された、少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
ローカルユーザインターフェースを形成することと、
前記ローカルユーザインターフェースを前記ユーザに、第1の視認可能な領域内に提供するように前記ディスプレイデバイスを制御することと、
グローバルユーザインターフェースを形成することと、
前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に提供するように、前記ディスプレイデバイスを制御することと、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、
前記ユーザの動きに応じて、前記ディスプレイデバイスを、
前記ローカルユーザインターフェースを第1の空間的位置に維持することであって、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止している、前記維持し、
前記グローバルユーザインターフェースを、第2の空間的位置に維持することであって、前記第2の空間的位置が、前記外部環境に対して静止している、前記維持し、
前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成し、
前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にする、
よう制御を行うように構成された、前記システム。 - 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示される、請求項12に記載のシステム。
- 前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項12に記載のシステム。
- 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施され、前記光学的ヘッドマウントディスプレイデバイスが、
OLEDディスプレイと、
頭部の位置センサと、
頭部の方向センサと、
前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項12に記載のシステム。 - 外部環境内の移動が自由であるユーザの拡張現実の体験を向上させるための、1つまたは複数のプロセッサによって実行可能である1つまたは複数の命令を含む非一時的なコンピュータ可読貯蔵デバイスであって、前記1つまたは複数の命令が、実行される場合、
ローカルユーザインターフェースを形成し、前記ローカルユーザインターフェースを前記ユーザに対し、第1の視認可能な領域内に表示することと、
グローバルユーザインターフェースを形成し、前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に表示することと、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、
前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止しており、
前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成することと、
前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にすることと、
を実施するように操作可能である、前記非一時的なコンピュータ可読貯蔵デバイス。 - 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示され、
前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項16に記載の非一時的なコンピュータ可読貯蔵デバイス。 - 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施され、前記光学的ヘッドマウントディスプレイデバイスが、
OLEDディスプレイと、
頭部の位置センサと、
頭部の方向センサと、
前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項16に記載の非一時的なコンピュータ可読貯蔵デバイス。 - ローカルユーザインターフェース及びグローバルユーザインターフェースを形成するための手段と、
前記ローカルユーザインターフェースを、第1の視認可能な領域内において、外部環境内の移動の自由を有するユーザに対して表示するための手段と、
前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に表示するための手段と、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止しており、
前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成する手段と、
前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にする手段と、
を備えた装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/429,781 US10438399B2 (en) | 2017-02-10 | 2017-02-10 | Paired local and global user interfaces for an improved augmented reality experience |
US15/429,781 | 2017-02-10 | ||
PCT/US2018/016201 WO2018148077A1 (en) | 2017-02-10 | 2018-01-31 | Paired local and global user interfaces for an improved augmented reality experience |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020511709A JP2020511709A (ja) | 2020-04-16 |
JP6931068B2 true JP6931068B2 (ja) | 2021-09-01 |
Family
ID=63105324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019543275A Active JP6931068B2 (ja) | 2017-02-10 | 2018-01-31 | 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース |
Country Status (5)
Country | Link |
---|---|
US (1) | US10438399B2 (ja) |
EP (1) | EP3580747A4 (ja) |
JP (1) | JP6931068B2 (ja) |
CN (1) | CN110291577B (ja) |
WO (1) | WO2018148077A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6736944B2 (ja) * | 2016-03-29 | 2020-08-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN110347471B (zh) * | 2019-07-15 | 2020-10-23 | 珠海格力电器股份有限公司 | 层级式显示组件系统、显示组件调用方法和装置 |
JP6710845B1 (ja) | 2019-10-07 | 2020-06-17 | 株式会社mediVR | リハビリテーション支援装置、その方法およびプログラム |
CN110882537B (zh) * | 2019-11-12 | 2023-07-25 | 北京字节跳动网络技术有限公司 | 一种交互方法、装置、介质和电子设备 |
WO2023173285A1 (zh) * | 2022-03-15 | 2023-09-21 | 深圳市大疆创新科技有限公司 | 音频处理方法、装置、电子设备及计算机可读存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2377147A (en) * | 2001-06-27 | 2002-12-31 | Nokia Corp | A virtual reality user interface |
WO2006035816A1 (ja) * | 2004-09-30 | 2006-04-06 | Pioneer Corporation | 立体的二次元画像表示装置 |
US8726154B2 (en) * | 2006-11-27 | 2014-05-13 | Sony Corporation | Methods and apparatus for controlling transition behavior of graphical user interface elements based on a dynamic recording |
US20100207950A1 (en) * | 2009-02-17 | 2010-08-19 | Microsoft Corporation | Defining simple and complex animations |
US8990682B1 (en) * | 2011-10-05 | 2015-03-24 | Google Inc. | Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display |
EP2813069A4 (en) * | 2012-02-08 | 2016-12-07 | Intel Corp | CREATING AN ADVANCED REALITY WITH A REAL SCENE |
KR101307609B1 (ko) * | 2012-03-13 | 2013-09-12 | 동신대학교산학협력단 | 실감형 콘텐츠 기반 스킨스쿠버 교육장치 |
US8954890B2 (en) * | 2012-04-12 | 2015-02-10 | Supercell Oy | System, method and graphical user interface for controlling a game |
US9389420B2 (en) * | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
US8922557B2 (en) * | 2012-06-29 | 2014-12-30 | Embarcadero Technologies, Inc. | Creating a three dimensional user interface |
US9591295B2 (en) * | 2013-09-24 | 2017-03-07 | Amazon Technologies, Inc. | Approaches for simulating three-dimensional views |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9361732B2 (en) | 2014-05-01 | 2016-06-07 | Microsoft Technology Licensing, Llc | Transitions between body-locked and world-locked augmented reality |
US9430038B2 (en) * | 2014-05-01 | 2016-08-30 | Microsoft Technology Licensing, Llc | World-locked display quality feedback |
JP6629499B2 (ja) * | 2014-06-09 | 2020-01-15 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
EP4206870A1 (en) * | 2014-06-14 | 2023-07-05 | Magic Leap, Inc. | Method for updating a virtual world |
US9508195B2 (en) | 2014-09-03 | 2016-11-29 | Microsoft Technology Licensing, Llc | Management of content in a 3D holographic environment |
US20160109952A1 (en) * | 2014-10-17 | 2016-04-21 | Top Victory Investments Ltd. | Method of Controlling Operating Interface of Display Device by User's Motion |
US10740971B2 (en) | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
CN107683497B (zh) * | 2015-06-15 | 2022-04-08 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
JP6629528B2 (ja) * | 2015-06-16 | 2020-01-15 | 株式会社ファイン | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム |
-
2017
- 2017-02-10 US US15/429,781 patent/US10438399B2/en active Active
-
2018
- 2018-01-31 JP JP2019543275A patent/JP6931068B2/ja active Active
- 2018-01-31 CN CN201880011209.4A patent/CN110291577B/zh active Active
- 2018-01-31 EP EP18750684.5A patent/EP3580747A4/en active Pending
- 2018-01-31 WO PCT/US2018/016201 patent/WO2018148077A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
CN110291577A (zh) | 2019-09-27 |
JP2020511709A (ja) | 2020-04-16 |
CN110291577B (zh) | 2023-03-28 |
EP3580747A4 (en) | 2021-01-06 |
EP3580747A1 (en) | 2019-12-18 |
US20180232941A1 (en) | 2018-08-16 |
WO2018148077A1 (en) | 2018-08-16 |
US10438399B2 (en) | 2019-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6931068B2 (ja) | 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース | |
US11810244B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
CN107209386B (zh) | 增强现实视野对象跟随器 | |
US9864495B2 (en) | Indirect 3D scene positioning control | |
CN108780360A (zh) | 虚拟现实导航 | |
JP2012161604A (ja) | 空間相関したマルチディスプレイヒューマンマシンインターフェース | |
JP6220937B1 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
US20170293412A1 (en) | Apparatus and method for controlling the apparatus | |
JP6684746B2 (ja) | 情報処理方法、コンピュータ及びプログラム | |
JP6140871B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6113897B1 (ja) | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 | |
JP2023116432A (ja) | アニメーション制作システム | |
JP6159455B1 (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP6893532B2 (ja) | 情報処理方法、コンピュータ及びプログラム | |
JP2018026105A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6934374B2 (ja) | プロセッサを備えるコンピュータにより実行される方法 | |
WO2018201150A1 (en) | Control system for a three dimensional environment | |
JP2018028900A (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP2018018499A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018045338A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
WO2021059370A1 (ja) | アニメーション制作システム | |
JP6448478B2 (ja) | ヘッドマウントディスプレイを制御するプログラム。 | |
JP2022025473A (ja) | 動画配信方法 | |
JP2022025475A (ja) | アニメーション制作システム | |
JP2022025470A (ja) | アニメーション制作システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201007 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6931068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |