JP6931068B2 - 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース - Google Patents

向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース Download PDF

Info

Publication number
JP6931068B2
JP6931068B2 JP2019543275A JP2019543275A JP6931068B2 JP 6931068 B2 JP6931068 B2 JP 6931068B2 JP 2019543275 A JP2019543275 A JP 2019543275A JP 2019543275 A JP2019543275 A JP 2019543275A JP 6931068 B2 JP6931068 B2 JP 6931068B2
Authority
JP
Japan
Prior art keywords
user interface
user
global
local
image element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019543275A
Other languages
English (en)
Other versions
JP2020511709A (ja
Inventor
ツバサ ツカハラ
ツバサ ツカハラ
アンソニー ロジャーズ
アンソニー ロジャーズ
ヒロノブ アオキ
ヒロノブ アオキ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2020511709A publication Critical patent/JP2020511709A/ja
Application granted granted Critical
Publication of JP6931068B2 publication Critical patent/JP6931068B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

関連出願の相互参照
本出願は、2017年2月10日に出願された、PAIRED LOCAL AND GLOBAL USER INTERFACES FOR AN IMPROVED AUGMENTED REALITY EXPERIENCEと題する、米国特許出願第15/429,781号の優先権を主張する。この文献は、これにより、すべての目的に関し、本明細書に全体が説明されているかのように、参照することによって組み込まれる。
拡張現実システムに関するユーザインターフェースのカテゴリの1つが、専用の光学ディスプレイデバイスによって生成された、視認可能なバーチャル画像によって形成されている。いくつかのケースでは、デバイスは、ユーザの頭部上か、頭部の周囲にマウントされる。他のケースでは、デバイスは、スマートフォンなどのハンドヘルドデバイスである場合がある。ユーザは通常、ポインティング、スワイプ、または、指、手、もしくは腕の他の制御された動きのようなジェスチャを行うことにより、ユーザインターフェースの1つまたは複数の画像要素と相互作用する。
この種類の現在の拡張現実システムは、通常、ユーザによって視認可能な単一のインターフェースを作り上げる、1つまたは複数のバーチャル画像を形成する。ヘッドマウントディスプレイデバイスのケースでは、システムのコントローラが、ディスプレイデバイスのピクセルを制御することにより、このことを達成する。ディスプレイデバイスを通して、ユーザは、外部の環境を観察する。ユーザインターフェースを形成する画像または複数の画像は、ユーザには、ディスプレイスクリーンを越えたある距離であるが、所望のように都合よく操作するには十分に近くに位置するように見える。現在のシステムは、通常、ユーザの身体の特定の部分の位置を追跡し、それに応じてユーザインターフェースを移動する、いくつかの手段をも採用しており、それにより、インターフェースは、その身体の部分に対して静止したままであるようになっている。これにより、ユーザ自身の位置の変化に関わらず、ユーザが都合よく、インターフェースを視認し、相互作用することが可能になる。多くのケースでは、追跡されるのはユーザの頭部の位置であり、それにより、頭部が傾けられたか回転された場合であっても、ユーザインターフェースが、ユーザの目にとって都合のよい方向、及び、ユーザの目から都合のよい距離に提供されるようになっている。いくつかの他のケースでは、ユーザのウエストの位置が追跡される場合があり、それにより、ユーザが、ある位置から別の位置に歩行する際に、ユーザインターフェースがそれに応じて移動し、ユーザに対して近接したままであるようになっている。
しかし、教育、ビジネス、または娯楽において、拡張現実のアプリケーションを予見することができる。ここでは、ユーザの位置の変化に関わらず、外部環境の物理的な対象または特徴に対して決まっているか静止した位置において、その環境内に位置する1つまたは複数のバーチャル画像で形成された第2のユーザインターフェースを提供することが有用である。関連する所望の特徴は、ユーザが画像を、画像がユーザに対して有効に結びつけられている、「ローカル」インターフェースと呼ばれる場合がある、第1の標準的なユーザインターフェースから、画像が外部の環境に対して有効に結びつけられている、第2の、または「グローバル」ユーザインターフェースにシフトさせること、または、逆の方向に、グローバルインターフェースからローカルインターフェースにシフトさせることを可能にする手段である。
現在利用可能である拡張現実システムでの、ユーザのジェスチャの追跡及び解析は、概して、深さ、形状、及びモーションの必要な情報を取得するために、赤外プロジェクタ及び赤外線カメラを使用することに依存している。これにより、これらシステムの使用の範囲が、非常に明るい光、または、自然の明るい屋外の環境よりむしろ、比較的低い周辺光の環境、通常は屋内に制限されている。そのようなシステムは、IR撮像を使用せずに重要な情報を収集できる場合、潜在的に著しく向上させることができ、システムを、屋外及び屋内で首尾良く使用することを可能にする。
したがって、屋内または屋外の環境において、広い範囲の周辺光レベルにわたって、ユーザが、都合良く、かつ、直感的に相互作用することができる、対になっているローカルユーザインターフェースとグローバルユーザインターフェースとをユーザに提供する、向上された拡張現実のシステム及び方法に関する要請が存在する。ユーザが、2つのインターフェース間で所望のように画像を移動することを可能にすることが望ましいが、ローカルインターフェースにおける画像のデフォルトの状態は、ユーザの身体または頭部に対して静止したままであり、グローバルインターフェースにおける画像のデフォルトの状態は、外部の物理的な環境に対して静止したままである。別の所望の特徴は、ユーザが、ローカルインターフェースとグローバルインターフェースとの一方または両方において、画像の形状、サイズ、または次元(2Dまたは3D)などの、視認可能な態様を容易に変更することを可能にすることである。
本発明の実施形態は、概して、外部環境内の移動が自由であるユーザの拡張現実の体験を向上させるための方法、システム、及びユーザインターフェースに関する。一実施形態では、本方法は、ローカルユーザインターフェースを形成し、ローカルユーザインターフェースをユーザに対し、第1の視認可能な領域内に表示することと、グローバルユーザインターフェースを形成し、グローバルユーザインターフェースをユーザに対し、第1の視認可能な領域よりもユーザから離れている、第2の視認可能な領域内に表示することと、を含んでいる。ローカルユーザインターフェースは、第1の空間的位置に維持されており、第1の空間的位置は、ユーザの身体の一部に対して静止しており、グローバルユーザインターフェースは、第2の空間的位置に維持されており、第2の空間的位置は、外部環境に対して静止している。
一態様では、ローカルユーザインターフェースは、第1のバーチャル画像要素を備え、ユーザが、第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、ユーザによって視認されるように、所望の位置において、グローバルユーザインターフェース内に表示される。
別の態様では、グローバルユーザインターフェースは、第1のバーチャル画像要素を備え、ユーザが、第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、ユーザによって視認されるように、所望の位置において、ローカルユーザインターフェース内に表示される。
一実施形態では、本システムは、ディスプレイと、このディスプレイに結合された少なくとも1つのプロセッサとを備えている。プロセッサまたは複数のプロセッサは、ローカルユーザインターフェースを形成することと、ローカルユーザインターフェースをユーザに、第1の視認可能な領域内に提供するように、ディスプレイを制御することと、グローバルユーザインターフェースを形成することと、グローバルユーザインターフェースをユーザに対し、第1の視認可能な領域よりもユーザから離れている、第2の視認可能な領域内に提供するように、ディスプレイを制御することと、ユーザの動きに応じて、ディスプレイを、ローカルユーザインターフェースを第1の空間的位置に維持することであって、第1の空間的位置が、ユーザの身体の一部に対して静止している、維持すること、及び、グローバルユーザインターフェースを、第2の空間的位置に維持することであって、第2の空間的位置が、外部環境に対して静止している、維持することを行うように、さらに制御することと、を行うように構成されている。
本明細書に開示の特定の実施形態の性質及び利点のさらなる理解は、本明細書及び添付の図面の、残りの部分を参照することによって実現され得る。
一実施形態に係る、拡張現実システムを示す図である。 一実施形態に係る、ローカルユーザインターフェース及びグローバルユーザインターフェースを示す図である。 一実施形態に係る、システムのヘッドマウントディスプレイを示す図である。 一実施形態に係る、拡張現実システムの概略ブロック図である。
本明細書に記載の実施形態は、ユーザが、迅速かつ直感的に、拡張現実システムと相互作用することを可能にする。これにより、ユーザの外部環境を、ローカルユーザインターフェース内、または、このローカルユーザインターフェースと対になっているグローバルユーザインターフェース内にある場合がある、バーチャル画像で補う。各実施形態は、概して、ローカルユーザインターフェースが、ユーザの身体の一部に対して静止したままであり、一方、グローバルユーザインターフェースが、外部の環境に対して静止したままであるような方法で、対になっているユーザインターフェースをユーザに提供することに関する。
本発明の実施形態によって対処される主要な課題は、現在の拡張現実システムのユーザが、概して、外部の環境の特徴に対し、空間内にバーチャル画像を配置することが不可能であることである。この理由は、提供された単一のユーザインターフェースが、ユーザに近いままであり、通常は、ユーザの身体の一部(通常は頭部)のモーションに追従するためである。したがって、すべてのバーチャル画像は、ユーザの身体とともに「移動」する。しかし、本発明は、ユーザが、ローカルインターフェース内の画像と都合良く相互作用することができるのみならず、ユーザの身体よりむしろ、外部環境の特徴に対して、係留されているか配置された他の画像と相互作用することもできるように、操作可能に結合された対になっているローカルユーザインターフェースとグローバルユーザインターフェースとを提供する。
図1は、本発明のいくつかの実施形態に係る、動作時の拡張現実システム100を概略的に示している。プロセッサ104は、ディスプレイデバイス102に操作可能に(通常は、有線接続によって)接続されている。ディスプレイデバイス102は、ユーザ106の視線に位置する、眼鏡またはゴーグルの形態を取る場合がある。プロセッサ104は、バーチャルローカルユーザインターフェース108を形成し、ディスプレイデバイス102を制御して、そのインターフェースを、視認可能な領域110内に提供する。領域110は、ユーザ106の前方の、ユーザ106の近位に位置しており、それにより、ユーザ106は、ポインティング、ツイストなどのジェスチャにより、所望のように、インターフェース108の要素を容易に選択し、作動させることができるようになっている。いくつかの実施形態では、ジェスチャには、フリースペースのジェスチャよりむしろ、または、フリースペースのジェスチャに加え、ノブ、ジョイスティックなどの物理的デバイスの直接の操作が含まれる場合がある。いくつかの実施形態では、ユーザが凝視する方向は、ユーザインターフェースと相互作用するユーザの手段として、ジェスチャを観察及び解析する代わりに、(ユーザの顔に向けられたカメラを使用して)判定される場合がある。
プロセッサ104は、バーチャルグローバルユーザインターフェース112をも形成し、ディスプレイデバイス102を制御して、そのインターフェースを、視認可能な領域114内に提供する。領域114は、外部環境において、ユーザから、領域110よりも離れて位置している。この外部環境は、概して、現実の3次元の対象を含んでおり、ユーザによって認識されるように、いくつかは領域114の後方に置かれているが、他のものは、領域114の前方に置かれている。シンプルな立方体形状及び円柱形状が、便宜的に、家具、本、玩具などのアイテムなどの、無限の様々な現実世界の対象の任意のものを示すために、図に示されている。ユーザ106は、ローカルインターフェース108に関して上述した方法と同じ方法で、グローバルインターフェース112の要素と相互作用する場合がある。
プロセッサ104は、ユーザが位置を変更する間であっても、ローカルインターフェース108がユーザに対して静止したままであるように、ローカルインターフェース108の配置を制御する。このことは、ユーザの身体の一部、通常は頭部を追跡し、それに応じて、インターフェース108の位置を変更するようにディスプレイデバイスを制御することによって達成される。たとえば、ユーザが自身の頭部を右に向けると、インターフェース108は、マッチするように回転する。ユーザが自身の頭部を前方か後方に突き出すか、頭部を傾ける場合、インターフェース108は、それに応じて変位されるか傾けられる場合がある。いくつかの実施形態では、ユーザの頭部に関する6つすべての自由度(x軸、y軸、及びz軸に沿う自由度、ならびに、ヨー軸、ピッチ軸、及びロール軸周りの回転の自由度)が追跡され、それに応じて、ローカルインターフェースの位置及び方向を制御するために使用される場合がある。
いくつかの実施形態では、身体の別の部分が追跡される場合がある。たとえば、ユーザのウエストにセンサがある場合があり、プロセッサに追跡情報を提供し、それにより、ユーザ106が室内を歩くと、ローカルユーザインターフェース108も移動し、ユーザとペースを合わせ、また、ユーザに有効に「係留」されているようになっている。
ユーザ106の位置とローカルインターフェース108の位置とは、縦の破線Aと縦の破線Bとによってそれぞれ概略的に図示されており、これら縦の破線間の傾いた破線は、これら位置の間の「係留された」関係を示している。上述のように、プロセッサ104は、ユーザを追跡するセンサ(図示せず)、及び、ディスプレイデバイス102と関連して作動して、2つの位置の間の距離を、決まった、所定の値に維持するとともに、必要に応じて、ヨー、ピッチ、及びロールの1つまたは複数を調整する。グローバルユーザインターフェース112の位置は、縦の破線Cによって図中に概略的に示されている。インターフェース108とインターフェース112との間、または、インターフェース112とユーザとの間に、位置的な「係留」は存在しないが、一対の曲線状の矢印によって示されるように、インターフェースの対の間には、強い機能的または動作的な関係が存在することに留意されたい。この関係は、以下により詳細に記載される。
図2は、本発明の拡張現実システムの実施形態によって生成及び操作される、バーチャルローカルユーザインターフェース208及びバーチャルグローバルユーザインターフェース214を概略的に示す図である。(視認可能な領域210における)ローカルユーザインターフェース208は、いくつかの異なる形状のバーチャル画像要素またはアイコン216で示されている。いくつかの実施形態では、2つ以上の画像要素216が、同じ形状及びサイズであるが、これら画像要素216を区別し、それらの個別の機能をユーザに知らせるために、いくつかの方法で、たとえば、文字通りのシンボルで、または色によってコードが付されている場合がある。図に示すケースでは、インターフェース214の1つの画像要素が星の形状であり、ユーザによるその画像要素の選択は、視認可能な領域212内の、グローバルユーザインターフェース214における、対応する星の形状の画像要素を生成する結果となる場合がある。グローバルインターフェース内の星の画像要素は、特定のサイズ、及び、色または表面パターンの2次元的なものとして示されるが、システムは、ユーザに、星の画像要素を3次元的にする、そのサイズ、色、不透明度などを変更するなどの、多くのオプションを与える場合がある。
オプションの別のセットにより、ユーザが、グローバルインターフェース214に形成された画像要素のモーションの態様を制御することを可能にする場合がある。たとえば、星の画像要素は、視認可能な領域210内の実際の物理的対象の周りで動いて、部分的または全体的に対象の後方に消え、次いで、ふたたび現れるか、対象から「跳ね返る」か、対象と衝突すると粉々に割れるように見えるようにされる場合がある。多くの他の関連するオプションが、容易に予見され得る。
これら視覚的効果は、ユーザと、ローカルインターフェース208の要素との間のジェスチャの相互作用、または、ユーザとグローバルインターフェース214との間のジェスチャの相互作用によって開始される場合がある。ジェスチャは、ディスプレイデバイスに取り付けられた2つ以上のカメラによって取得された、リアル画像上で行われる画像処理によって検出される。ユーザが、仮想現実システムを通して音楽を聴いているか、音響効果で没入型のゲームをプレイしている、いくつかの用途では、音源のボリューム、ピッチ、または明らかな位置などの音声の特性も、ユーザのジェスチャによって調整または制御される場合がある。
いくつかの実施形態では、視認可能な領域212内の画像の表現及びモーション、及び/または、これら画像に関連する音声の態様は、ユーザからの直接の入力を必要とすることなく、プロセッサによって自動的に制御される場合がある。これら画像に関する音響効果も、自動的に制御される場合がある。
視認可能な領域210内の実際の対象の位置は、1つまたは複数のカメラを使用して判定される場合がある。2つの横方向にオフセットしたカメラを使用することにより、深さを判定するための、人間の視覚システムによって使用される視差と基本的に同じ原理を使用して、ユーザの位置からの、対象の3次元的な位置を、非常に好都合に、リアルタイムで判定することが可能になる。このことは、各判定に関し、時間的に連続して起こる2つの画像の取得の必要性を避けることから、単一のカメラが深度情報を提供する実施形態には好ましい。
いくつかの実施形態では、グローバルユーザインターフェース214内の画像要素と相互作用するユーザのジェスチャは、カメラによって検出され、また、画像処理によって解析される場合があり、対応する画像要素を、ローカルインターフェース208内に生成させる。この(逆のプロセスよりむしろ、または逆のプロセスとともに、ローカルインターフェースに効果を生じさせるグローバルインターフェースの動作の)可能性は、図中に両頭矢印によって示されており、一実施例では、インターフェース214における星の画像要素の選択が、インターフェース208内の対応する星の画像要素を生成する結果となる場合があることを示している。画像要素が、2次元の形態か3次元の形態で形成される場合があり、また、対になっているローカルインターフェースとグローバルインターフェースとのいずれかにおいて、一方から他方に変化する場合がある。
グローバルインターフェース内で生成された画像要素が3次元的であるいくつかのケースでは、ユーザが位置及び向きを変更した場合、ユーザ上の、追跡センサによって提供されるデータは、システムのプロセッサまたは複数のプロセッサによって分析される場合があり、また、それに応じて、グローバルインターフェース内で画像要素によって表示される、仮想的な対象の異なる視野を生成するために、ディスプレイデバイスを制御するために使用される場合がある。たとえば、画像要素が最初に、前面がユーザによって完全に視認可能であるプレイングカードとしてユーザによって読み取られた場合、ユーザは、自身の頭部の向きを変え、カードは、外部環境における任意の決まった対象に対する、その最初の位置にあるままであるように見えるが、カードの縁部、またはその背面が見える場合がある。
グローバルインターフェースに生成された画像要素が3次元であり、その位置及び/または向きを変更する他のケースでは、それに応じて異なっている第2の画像要素の特徴が、ユーザによって認識される。位置及び/または方向の変化は、グローバルユーザインターフェースと相互作用するユーザによる制御、または、ユーザのための拡張現実の体験を実行しているソフトウェアによる制御に応じて生じる場合がある。ユーザによる制御のケースでは、相互作用は、通常はジェスチャであり、その画像は、カメラによって取得され、画像処理によって解析され、また、それに応じて、ディスプレイデバイスを制御するために使用される。
図3は、ディスプレイスクリーン320及びカメラ322を含む、ヘッドマウントディスプレイデバイス302を概略的に示す図である。いくつかの特に望ましい実施形態では、ディスプレイスクリーン320は、有機発光ダイオード(OLED)の技術を使用する。この技術は、有機LEDからの光を収束及びガイドするための、導波管の光学的特性、及び/または、バルク光学要素を含んでいる。他の実施形態では、他のタイプの光源及び光学的特性が使用される場合がある。頭部の位置センサ324及び頭部の方向センサ326は、ディスプレイデバイス302に組み込まれて示されているが、いくつかの実施形態では、これらの一方または両方は、ユーザによって着用された他のサポートの上に別に取り付けられている場合がある。
図4は、拡張現実システム400の概略ブロック図である。システム400は、センサユニット402を含んでいる。次に、このセンサユニット402は、2つの外側に向いたカメラ(上述のように、3次元の対象の位置をリアルタイムで判定することを可能にする)と、GPS、WiFi、Bluetooth、または他の良好に確立された技術に依存する場合がある、位置判定センサと、ジャイロスコープ、加速度計、または磁気センサなどの方向判定センサと、任意選択的には、(たとえば、ボイスコマンドのための)マイクまたはバイオセンサなどの1つまたは複数の他のセンサとを備えている。内側に向いたカメラは、凝視する方向の判定のために使用される場合がある。いくつかの実施形態では、外向きのカメラなどの、これらセンサの小さいサブセットと、1つの頭部の位置決めセンサとが、センサユニット402には十分である場合がある。
センサシステム400は、制御ユニット404をも含む。この制御ユニット404は、センサユニット402、メモリシステム405、及びディスプレイデバイス406に操作可能に接続された1つまたは複数のプロセッサを備えている。制御ユニット404内のプロセッサまたは複数のプロセッサは、メモリシステム405、ネットワークシステム408、及び入力インターフェース410(電源ボタン、輝度制御ノブなどのシンプルなハードウェアデバイス)からの命令及びデータと関連して動作して、センサユニット402から収集された情報を、ユニット404の出力制御システムによって使用可能であるデータに変換する。このデータは、次いで、ディスプレイ406に供給されて、本発明の、対になっているローカルユーザインターフェースとグローバルユーザインターフェースとを生成する。いくつかのデータも、スピーカなどの補助デバイスに供給される場合があり、また、いくつかは、実行される特定のアプリケーションに従って、ネットワークシステム408に提供される場合がある。
本明細書に記載の実施形態は、拡張現実システムのユーザに、様々な利益を提供する。具体的には、各実施形態は、外部環境をバーチャル画像で補うことにより、ユーザが、直感的かつ好都合に、リアルタイムでシステムと相互作用することを可能にする。バーチャル画像は、ローカルユーザインターフェース内か、このローカルユーザインターフェースと対になっているグローバルユーザインターフェース内にある場合があり、それにより、グローバルユーザインターフェースが外部環境内の対象に対して静止したままである一方、ローカルユーザインターフェースが、ユーザの身体の一部に対して、静止したままとなるようになっている。これら利点は、様々なゲーミング、教育、及び商業またはビジネスのアプリケーションのいずれかでのユーザの関与に関わり、維持することにおいて、特に価値がある場合がある。
詳細な説明が、この説明の特定の実施形態に関して記載されてきたが、これら特定の実施形態は、単に説明的ものであり、限定的ものではない。
C、C++、Java、アセンブリ言語などを含み、任意の適切なプログラミング言語を、特定の実施形態のルーチンを実施するために使用することができる。手続型、または、オブジェクト指向型など、様々なプログラミング技術が採用され得る。ルーチンは、単一の処理デバイスまたは複数のプロセッサで実行することができる。ステップ、操作、または計算が、特定の順番で提供される場合があるが、この順番は、異なる特定の実施形態においては、変更される場合がある。いくつかの特定の実施形態では、本明細書では連続するものとして示される複数のステップを、同時に実施することができる。
特定の実施形態は、命令実行システム、装置、システム、またはデバイスによる使用のために、または関連して、コンピュータ可読貯蔵媒体内で実施される場合がある。特定の実施形態は、ソフトウェアもしくはハードウェア、または、ソフトウェアとハードウェアとの両方の組合せで、制御ロジックの形態で実施することができる。制御ロジックは、1つまたは複数のプロセッサによって実行される場合、特定の実施形態に記載されるものを実施するように、操作可能である場合がある。たとえば、ハードウェア貯蔵デバイスなどの有形的媒体は、実行可能な命令を含むことができる、制御ロジックを貯蔵するために使用することができる。
特定の実施形態は、プログラムされた多目的デジタルコンピュータを使用すること、特定用途の集積回路、プログラマブル論理デバイス、フィールドプログラマブルゲートアレイを使用することによって実施される場合があり、光学的、化学的、生物学的、量子的、またはナノ技術のシステム、構成要素、及び機構が使用され得る。概して、特定の実施形態の機能は、当該技術で既知であるような任意の手段によって達成することができる。分配された、ネットワーク化されたシステム、構成要素、及び/または回路を使用することができる。データの通信、または移送は、有線であるか、無線であるか、任意の他の手段によるものである場合がある。
図面/図に示された1つまたは複数の要素を、さらに分けられたか、統合された方式でも実施することができるか、特定のアプリケーションに応じて、有用であるように、特定のケースでは、除去されるか、実施できないものとさえされることをも理解されたい。コンピュータが、上述の方法のいずれかを実施することを可能にするように、機械読取り可能な媒体に貯蔵できるプログラムまたはコードを実施することも、精神及び範囲内にある。
「プロセッサ(processor)」は、データ、信号、または他の情報を処理する、任意の適切なハードウェア及び/またはソフトウェアシステム、機構、または構成要素を含んでいる。プロセッサには、多目的中央処理ユニット、複数処理ユニット、機能を達成するための専用の回路を有するシステム、または他のシステムを含むことができる。処理は、ある地理的位置に限定されるか、時間的に制限される必要はない。たとえば、プロセッサは、「リアルタイム」、「オフライン」、「バッチモード」などで、その機能を実施することができる。処理の一部は、異なる(または同じ)処理システムにより、異なる時点で、また、異なる位置で、実施することができる。処理システムの実施例は、サーバ、クライアント、エンドユーザデバイス、ルータ、スイッチ、ネットワーク化されたストレージなどを含むことができる。コンピュータは、メモリと通信している任意のプロセッサである場合がある。メモリは、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、磁気もしくは光学ディスク、または、プロセッサによって実行するための命令を貯蔵するために適切な他の有形的媒体などの、任意の適切なプロセッサ読取り可能な貯蔵媒体である場合がある。
本明細書の記載内、及び、添付の特許請求の範囲を通して使用される場合、「a」、「an」、及び「the」は、文脈によって明確に別様に指示されていない限り、複数の参照を含んでいる。さらに、本明細書の記載内、及び、添付の特許請求の範囲を通して使用される場合、「in(内)」の意味は、文脈によって明確に別様に指示されていない限り、「in(内)」及び「on(上)」を含んでいる。
このため、本明細書に特定の実施形態が記載されてきたが、修正、様々な変更、及び代用の許容範囲は、前述の開示内にあるものと意図されており、また、いくつかの例では、特定の実施形態のいくつかの特徴が、説明されている範囲及び精神から逸脱することなく、他の特徴をそれに応じて使用することなく、採用されることを理解されたい。したがって、多くの変更が、特定の状況または材料を基本的な範囲及び精神に適用するために、行われる場合がある。

Claims (19)

  1. 外部環境内の移動が自由であるユーザの拡張現実の体験の向上方法であって、
    ローカルユーザインターフェースを形成し、前記ローカルユーザインターフェースを前記ユーザに対し、第1の視認可能な領域内に表示することと、
    グローバルユーザインターフェースを形成し、前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に表示することと、を含み、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、
    前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、
    前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止しており、
    さらに、前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成することと、
    前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にすること、
    を含む、前記方法。
  2. 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示される、請求項1に記載の方法。
  3. 前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項1に記載の方法。
  4. 前記第2のバーチャル画像要素が3次元的であり、それにより、前記ユーザが位置及び方向を変更した場合、それに応じて、前記第2のバーチャル画像要素の異なる特徴が、前記ユーザによって認識される、請求項2に記載の方法。
  5. 前記第2のバーチャル画像要素が3次元的であり、それにより、前記第2のバーチャル画像要素が、前記グローバルユーザインターフェースと相互作用する前記ユーザによる制御、または、前記拡張現実の体験を実行するソフトウェアによる制御に応じて、位置及び方向を変更した場合、それに応じて、前記第2のバーチャル画像要素の異なる特徴が、前記ユーザによって認識される、請求項2に記載の方法。
  6. 前記第2のバーチャル画像要素が、前記ユーザにより、不透明であるものと認識される、請求項2に記載の方法。
  7. 前記第2のバーチャル画像要素が、前記ユーザによる意図的なジェスチャに応じて前記外部環境内で移動し、前記グローバルユーザインターフェースと相互作用する、請求項2に記載の方法。
  8. 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施される、請求項1に記載の方法。
  9. 前記光学的ヘッドマウントディスプレイデバイスが、
    OLEDディスプレイと、
    頭部の位置センサと、
    頭部の方向センサと、
    前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
    前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項8に記載の方法。
  10. 前記外部環境における、前記ユーザによって視認される現実の対象の、前記ユーザからの距離が、前記第1のカメラ及び前記第2のカメラによって取得された画像の画像処理によって判定される、請求項9に記載の方法。
  11. 前記光学的ヘッドマウントディスプレイデバイスが、前記ユーザに向けられた第3のカメラをさらに備え、前記第3のカメラが、前記電磁スペクトルの前記可視領域において、前記ユーザの眼球の画像を取得する、請求項9に記載の方法。
  12. 外部環境内の移動が自由であるユーザの拡張現実の体験を向上させるためのシステムであって、
    ディスプレイデバイスと、
    前記ディスプレイデバイスに結合された、少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    ローカルユーザインターフェースを形成することと、
    前記ローカルユーザインターフェースを前記ユーザに、第1の視認可能な領域内に提供するように前記ディスプレイデバイスを制御することと、
    グローバルユーザインターフェースを形成することと、
    前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に提供するように、前記ディスプレイデバイスを制御することと、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、
    前記ユーザの動きに応じて、前記ディスプレイデバイスを、
    前記ローカルユーザインターフェースを第1の空間的位置に維持することであって、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止している、前記維持し、
    前記グローバルユーザインターフェースを、第2の空間的位置に維持することであって、前記第2の空間的位置が、前記外部環境に対して静止している、前記維持し、
    前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成し、
    前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にする、
    よう制御を行うように構成された、前記システム。
  13. 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示される、請求項12に記載のシステム。
  14. 前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項12に記載のシステム。
  15. 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施され、前記光学的ヘッドマウントディスプレイデバイスが、
    OLEDディスプレイと、
    頭部の位置センサと、
    頭部の方向センサと、
    前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
    前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項12に記載のシステム。
  16. 外部環境内の移動が自由であるユーザの拡張現実の体験を向上させるための、1つまたは複数のプロセッサによって実行可能である1つまたは複数の命令を含む非一時的なコンピュータ可読貯蔵デバイスであって、前記1つまたは複数の命令が、実行される場合、
    ローカルユーザインターフェースを形成し、前記ローカルユーザインターフェースを前記ユーザに対し、第1の視認可能な領域内に表示することと、
    グローバルユーザインターフェースを形成し、前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に表示することと、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、
    前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止しており、
    前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成することと、
    前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にすることと、
    を実施するように操作可能である、前記非一時的なコンピュータ可読貯蔵デバイス。
  17. 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示され、
    前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項16に記載の非一時的なコンピュータ可読貯蔵デバイス。
  18. 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施され、前記光学的ヘッドマウントディスプレイデバイスが、
    OLEDディスプレイと、
    頭部の位置センサと、
    頭部の方向センサと、
    前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
    前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項16に記載の非一時的なコンピュータ可読貯蔵デバイス。
  19. ローカルユーザインターフェース及びグローバルユーザインターフェースを形成するための手段と、
    前記ローカルユーザインターフェースを、第1の視認可能な領域内において、外部環境内の移動の自由を有するユーザに対して表示するための手段と、
    前記グローバルユーザインターフェースを前記ユーザに対し、第2の視認可能な領域内に表示するための手段と、ここで、前記第2の視認可能な領域はユーザにとって前記第1の視認可能な領域とは異なる深さに位置し、前記グローバルユーザインターフェースは前記ローカルユーザインターフェースよりも前記ユーザから離れており、前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止しており、
    前記グローバルユーザインターフェースに、前記ローカルユーザインターフェースにおける対象に対応する仮想的な対象を生成する手段と、
    前記グローバルユーザインターフェースの前記仮想的な対象が移動するように現れ、又は、前記グローバルユーザインターフェースの前記第2の視認可能な領域内に示される1又は2以上の物理的な対象と相互作用するように、前記グローバルユーザインターフェースの前記仮想的な対象のモーションの態様を前記ユーザに制御可能にする手段と、
    を備えた装置。
JP2019543275A 2017-02-10 2018-01-31 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース Active JP6931068B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/429,781 US10438399B2 (en) 2017-02-10 2017-02-10 Paired local and global user interfaces for an improved augmented reality experience
US15/429,781 2017-02-10
PCT/US2018/016201 WO2018148077A1 (en) 2017-02-10 2018-01-31 Paired local and global user interfaces for an improved augmented reality experience

Publications (2)

Publication Number Publication Date
JP2020511709A JP2020511709A (ja) 2020-04-16
JP6931068B2 true JP6931068B2 (ja) 2021-09-01

Family

ID=63105324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019543275A Active JP6931068B2 (ja) 2017-02-10 2018-01-31 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース

Country Status (5)

Country Link
US (1) US10438399B2 (ja)
EP (1) EP3580747A4 (ja)
JP (1) JP6931068B2 (ja)
CN (1) CN110291577B (ja)
WO (1) WO2018148077A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6736944B2 (ja) * 2016-03-29 2020-08-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN110347471B (zh) * 2019-07-15 2020-10-23 珠海格力电器股份有限公司 层级式显示组件系统、显示组件调用方法和装置
JP6710845B1 (ja) 2019-10-07 2020-06-17 株式会社mediVR リハビリテーション支援装置、その方法およびプログラム
CN110882537B (zh) * 2019-11-12 2023-07-25 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备
WO2023173285A1 (zh) * 2022-03-15 2023-09-21 深圳市大疆创新科技有限公司 音频处理方法、装置、电子设备及计算机可读存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
WO2006035816A1 (ja) * 2004-09-30 2006-04-06 Pioneer Corporation 立体的二次元画像表示装置
US8726154B2 (en) * 2006-11-27 2014-05-13 Sony Corporation Methods and apparatus for controlling transition behavior of graphical user interface elements based on a dynamic recording
US20100207950A1 (en) * 2009-02-17 2010-08-19 Microsoft Corporation Defining simple and complex animations
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
EP2813069A4 (en) * 2012-02-08 2016-12-07 Intel Corp CREATING AN ADVANCED REALITY WITH A REAL SCENE
KR101307609B1 (ko) * 2012-03-13 2013-09-12 동신대학교산학협력단 실감형 콘텐츠 기반 스킨스쿠버 교육장치
US8954890B2 (en) * 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US8922557B2 (en) * 2012-06-29 2014-12-30 Embarcadero Technologies, Inc. Creating a three dimensional user interface
US9591295B2 (en) * 2013-09-24 2017-03-07 Amazon Technologies, Inc. Approaches for simulating three-dimensional views
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9361732B2 (en) 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality
US9430038B2 (en) * 2014-05-01 2016-08-30 Microsoft Technology Licensing, Llc World-locked display quality feedback
JP6629499B2 (ja) * 2014-06-09 2020-01-15 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
EP4206870A1 (en) * 2014-06-14 2023-07-05 Magic Leap, Inc. Method for updating a virtual world
US9508195B2 (en) 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
US20160109952A1 (en) * 2014-10-17 2016-04-21 Top Victory Investments Ltd. Method of Controlling Operating Interface of Display Device by User's Motion
US10740971B2 (en) 2015-01-20 2020-08-11 Microsoft Technology Licensing, Llc Augmented reality field of view object follower
CN107683497B (zh) * 2015-06-15 2022-04-08 索尼公司 信息处理设备、信息处理方法及程序
JP6629528B2 (ja) * 2015-06-16 2020-01-15 株式会社ファイン 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム

Also Published As

Publication number Publication date
CN110291577A (zh) 2019-09-27
JP2020511709A (ja) 2020-04-16
CN110291577B (zh) 2023-03-28
EP3580747A4 (en) 2021-01-06
EP3580747A1 (en) 2019-12-18
US20180232941A1 (en) 2018-08-16
WO2018148077A1 (en) 2018-08-16
US10438399B2 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
JP6931068B2 (ja) 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース
US11810244B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN107209386B (zh) 增强现实视野对象跟随器
US9864495B2 (en) Indirect 3D scene positioning control
CN108780360A (zh) 虚拟现实导航
JP2012161604A (ja) 空間相関したマルチディスプレイヒューマンマシンインターフェース
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
US20170293412A1 (en) Apparatus and method for controlling the apparatus
JP6684746B2 (ja) 情報処理方法、コンピュータ及びプログラム
JP6140871B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6113897B1 (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP2023116432A (ja) アニメーション制作システム
JP6159455B1 (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP6893532B2 (ja) 情報処理方法、コンピュータ及びプログラム
JP2018026105A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6934374B2 (ja) プロセッサを備えるコンピュータにより実行される方法
WO2018201150A1 (en) Control system for a three dimensional environment
JP2018028900A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP2018018499A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018045338A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2021059370A1 (ja) アニメーション制作システム
JP6448478B2 (ja) ヘッドマウントディスプレイを制御するプログラム。
JP2022025473A (ja) 動画配信方法
JP2022025475A (ja) アニメーション制作システム
JP2022025470A (ja) アニメーション制作システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201007

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210812

R150 Certificate of patent or registration of utility model

Ref document number: 6931068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150