JP2019530064A - 仮想現実におけるロケーショングローブ - Google Patents

仮想現実におけるロケーショングローブ Download PDF

Info

Publication number
JP2019530064A
JP2019530064A JP2019508246A JP2019508246A JP2019530064A JP 2019530064 A JP2019530064 A JP 2019530064A JP 2019508246 A JP2019508246 A JP 2019508246A JP 2019508246 A JP2019508246 A JP 2019508246A JP 2019530064 A JP2019530064 A JP 2019530064A
Authority
JP
Japan
Prior art keywords
virtual object
user
controller
location
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019508246A
Other languages
English (en)
Other versions
JP6778815B2 (ja
Inventor
タオ,ラン
アブデル−ガワド,タリーク
グレイザー,アダム
ケーザー,ドミニク・フィレモン
シーグミラー,マシュー
レ,アンドレ
アシュケナジ,ナダブ
チュ,ハン−ウェイ
キム,ジョアンナ
ポッドワル,マイケル
ジャグナウ,ロバート・カール
ワン,チュン−ポ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019530064A publication Critical patent/JP2019530064A/ja
Application granted granted Critical
Publication of JP6778815B2 publication Critical patent/JP6778815B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Databases & Information Systems (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Materials For Photolithography (AREA)
  • Chairs Characterized By Structure (AREA)

Abstract

1つの一般的な局面では、方法は、物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガすることと、第2の仮想オブジェクトを表わす第1の仮想オブジェクトの表示をトリガすることとを含むことができ、第1の仮想オブジェクトのサイズは第2の仮想オブジェクトのサイズよりも小さく、方法はさらに、第1の仮想オブジェクトとのユーザの対話の指示を受信することを含むことができ、ユーザは第1の仮想オブジェクトのサイズよりも大きな第1のサイズを有し、方法はさらに、第1の仮想オブジェクトとの対話に応答して第2の仮想オブジェクトとの対話をトリガすることを含むことができ、ユーザは、第2の仮想オブジェクトと対話する際は、第1のサイズよりも大きな第2のサイズを有する。

Description

関連出願
この出願は、2016年11月15日に出願されかつ「仮想現実におけるロケーショングローブ」と題された米国仮特許出願第62/422,563号の優先権を主張し、その全体が本明細書中に引用により援用される。
分野
この開示は概して、仮想現実または拡張現実環境におけるロケーショングローブ(location globe)に関する。
背景
拡張現実(AR)および/または仮想現実(VR)システムは、没入型三次元(3D)仮想環境を生成し得る。ユーザは、たとえば、ディスプレイ、表示装置を見る際にユーザが通し見る眼鏡もしくはゴーグルを含むヘルメットまたは他のヘッドマウント装置などのさまざまな電子デバイス、コントローラ、ジョイスティックなどの1つ以上の外部電子デバイス、センサ、キーボード、マウス、および他の電子デバイスが装着される手袋を用いて、この仮想環境で仮想オブジェクト、要素、特徴などと対話(やりとり、インタラクト)し得る。ユーザは、仮想環境に没入しながら仮想環境を進み得、たとえば、物理的移動および/または1つ以上の電子デバイスの操作を通して、仮想環境の仮想要素を操作し得るかつこれと対話し得る。
要約
1つの一般的な局面では、方法は、物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガ(起動)することと、第2の仮想オブジェクトを表わす第1の仮想オブジェクトの表示をトリガすることとを含むことができ、第1の仮想オブジェクトのサイズは第2の仮想オブジェクトのサイズよりも小さく、方法はさらに、第1の仮想オブジェクトとのユーザの対話の指示を受信することを含むことができ、ユーザは第1の仮想オブジェクトのサイズよりも大きな第1のサイズを有し、方法はさらに、第1の仮想オブジェクトとの対話に応答して第2の仮想オブジェクトとの対話をトリガすることを含むことができ、ユーザは、第2の仮想オブジェクトと対話する際は、第1のサイズよりも大きな第2のサイズを有する。
別の一般的な局面では、方法は、物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガすることと、第1のコントローラに関連付けられる第1の仮想オブジェクトの表示をトリガすることとを含み得、第1の仮想オブジェクトは第2の仮想オブジェクトの表現であり、第1の仮想オブジェクトのサイズは第2の仮想オブジェクトのサイズよりも小さく、方法はさらに、第2のコントローラを介して第1の仮想オブジェクト内の場所を選択して第2の仮想オブジェクト中の場所へのユーザの移動をトリガすることと、第2の仮想オブジェクト内の対話の指示を受信することとを含み得る。
別の一般的な局面では、機器は、ヘッドマウントディスプレイ(HMD)装置と、第1のコントローラおよび第2のコントローラと、プロセッサとを含み、プロセッサは、仮想環境を生成し、かつ第2の仮想オブジェクトを表わす第1の仮想オブジェクトを第1のコントローラを介して表示するようにプログラミングされ、第1の仮想オブジェクトのサイズは第2の仮想オブジェクトのサイズに対して小さくされており、プロセッサはさらに、第2のコントローラを介して第1の仮想オブジェクト内の場所を選択して第2の仮想オブジェクト中の場所へユーザを移動させ、かつ第2の仮想オブジェクト内で対話するようにプログラミングされる。
添付の図面および以下の説明で1つ以上の実現例の詳細を述べる。他の特徴は説明および図面ならびに請求項から明らかになるであろう。
本明細書中に記載されるような実現例に従う、ヘッドマウントディスプレイ装置および1つ以上の携帯型電子デバイスを含む拡張現実および/または仮想現実システムの例示的な実現例の三人称視点図である。 本明細書中に記載されるような実現例に従う、ヘッドマウントディスプレイ装置および1つ以上の携帯型電子デバイスを含む拡張現実および/または仮想現実システムの例示的な実現例の三認証視点図である。 本明細書中に記載されるような実現例に従う、ヘッドマウントディスプレイ装置および1つ以上の携帯型電子デバイスを含む拡張現実および/または仮想現実システムの例示的な実現例の三認証視点図である。 第2の仮想オブジェクトに対する第1の仮想オブジェクトを示す図である。 第1のコントローラおよび第2のコントローラを用いるユーザが見る仮想環境を示す図である。 地球儀に関連付けられるインジケータを用いる例を示す図である。 ホバリングおよびトリガ対話を示す状態図である。 コントローラによってトリガ可能な付加的な対話を示す図である。 第2のコントローラを用いるユーザが見る表示メニューを示す図である。 第2のコントローラを用いるユーザが見るキーボードを示す図である。 別の例示的な実施形態に従う、第1のコントローラおよび第2のコントローラを用いるユーザが見る仮想環境を示す図である。 別の例示的な実施形態に従う、第2の仮想オブジェクト内で移動されるユーザが見る図6Aの仮想環境を示す図である。 本明細書中に記載されるような実施形態に従う、仮想現実環境で対話をトリガする方法のフローチャートである。 本明細書中に記載されるような実施形態に従う、仮想現実環境で対話をトリガする方法のフローチャートである。 例示的なヘッドマウントディスプレイ装置の斜視図である。 例示的なヘッドマウントディスプレイ装置の斜視図である。 本明細書中に記載されるような実現例に従う例示的な携帯型電子デバイスを示す図である。 本明細書中に記載される実現例に従う例示的な拡張および/または仮想現実システムのブロック図である。 本明細書中に記載される技術を実現するのに用いることができるコンピュータデバイスおよびモバイルコンピュータデバイスの例を示す図である。
詳細な説明
たとえばヘッドマウントディスプレイ(HMD)装置を着用して拡張現実(AR)および/または仮想現実(VR)環境に没入するユーザは、仮想環境を探検して、さまざまな異なる種類の入力を通して仮想環境中の仮想オブジェクト、特徴などと対話し得る。これらの入力はたとえば、たとえば、HMDおよび/もしくはHMDとは別個の電子デバイスの物理的移動および/もしくは操作、ならびに/または手/腕のジェスチャー、頭の動きおよび/もしくは頭および/もしくは目による方向性をもった注視などを含む物理的対話を含み得る。ユーザは、これらの異なる種類の対話のうち1つ以上を実現して、たとえば、仮想環境の第1の区域から仮想環境の第2の区域へまたは第1の仮想環境から第2の仮想環境へ、たとえば仮想環境を通って移動するなどして、仮想環境で特定の行為を実行し得る。
本明細書中に記載される実現例に従うシステムおよび方法により、ユーザは、仮想現実または拡張現実環境内で自在に移動し得る。具体的に、仮想または拡張環境内の第1のオブジェクトを用いて仮想または拡張環境内の第1のオブジェクト内で自在に移動することができる。第1のオブジェクトは、第2のオブジェクトの少なくとも一部のより小さな縮尺(たとえば小型化)版であることができる。第2のオブジェクトは、第1のオブジェクトと比べて比較的大きいものであることができるため、仮想または拡張現実環境内で直接に自在に移動することが困難であり得る。第1のオブジェクトは、その比較的小さなサイズのために、ユーザがそれと対話して第2のオブジェクト内を自在に移動することができる、はるかにより容易なオブジェクトであり得る。いくつかの実現例では、第1のオブジェクトは、地球全体のより大きな表現であることができる第2のオブジェクト内で自在に移動するのに用いることができる地球の(ロケーショングローブとも称することができる)小型地球儀であり得る。
図1A−図1Cに示される例示的な実現例では、HMD100を着用するユーザは、持ち運び可能な携帯型電子デバイス102を保持している。携帯型電子デバイス102は、たとえば、HMD100が生成しかつたとえばHMD100のディスプレイ上にユーザに対して表示される仮想現実または拡張現実環境内での対話のための、HMD100と対にされ得るかつこれと通信し得る、コントローラ、スマートフォン、ジョイスティック、または別の持ち運び可能な携帯型電子デバイスであり得る。HMD100が生成する没入型仮想現実または拡張現実環境での対話用のHMD100と通信するコントローラとして機能するように携帯型電子デバイス102を用いることができる。
図1Aに示されるように、仮想環境では、HMD100を介して第1のオブジェクト10および第2のオブジェクト15を見ることができる。説明の目的のため、図1Aでは、HMD100を着用するユーザ50、携帯型電子デバイス102、第1のオブジェクト10、および第2のオブジェクト15を第三者の視点から示す。具体的に、HMD100を着用するユーザから第1のオブジェクト10および第2のオブジェクト15が見え、それをこの図1Aに示す。そのため、第1のオブジェクト10および第2のオブジェクト15とのユーザの対話がより容易に図示されかつ説明される。
この実現例では、第1のオブジェクト10を用いて第2のオブジェクト15内で自在に移動することができる。第1のオブジェクト10は、第2のオブジェクト15の少なくとも一部のより小さな縮尺(たとえば小型化)版であることができる。第1のオブジェクト10は、第2のオブジェクト15よりもはるかに小さい(たとえば、10倍小さい、100倍小さいなど)ものであることができる。第2のオブジェクト15は、第1のオブジェクト10と比べて比較的大きいため、それと直接に対話するまたはその中で直接に自在に移動することが困難であり得る。第1のオブジェクト10は、比較的小さいために、ユーザがそれと対話することができるはるかにより容易なオブジェクトであり得る。具体例として、第1のオブジェクト10は、地球(または別の惑星)のより大きな表現であることができる第2のオブジェクト15を用いて自在に移動するのに用いることができる地球(または別の惑星)の小型表現(たとえば地球儀)であることができる。
ユーザ50に対する関係において、第1のオブジェクト10は、図1Aに示されるように、ユーザのサイズよりも小さいものであり得る。たとえば、第1のオブジェクト10は、ユーザ50(および第1のオブジェクト10の外部)よりも10倍小さいものであることができる。このことは、ユーザ50が第1のオブジェクト10内で自在に移動する(たとえば場所選択を行なう)のを助ける。というのも、ユーザ50は第1のオブジェクト10よりも大きいからである。
いくつかの実現例では、第2のオブジェクト15の表面は、(サイズを倍率変更しているにも拘わらず)第1のオブジェクト10の表面に対応することができる。いくつかの実現例では、第1のオブジェクト10との対話を第2のオブジェクト15との対話に変換することができる。いくつかの実現例では、第1のオブジェクト10との対話を第2のオブジェクト15との対応の対話に直接に変換することができる。この実現例では、第2のオブジェクト15は第1のオブジェクト10と同一であり得る。たとえば、第1のオブジェクト10との対話(たとえば、ニューヨーク市の場所を選択すること)により、ユーザは、第2のオブジェクト15中の場所(たとえば、ニューヨーク市)に直接に平行移動される。
いくつかの実現例では、第1のオブジェクト10との対話を用いて、第2のオブジェクト15との後の対話を導くことができる。たとえば、ユーザ50が第1のオブジェクト10内の場所(たとえば、ニューヨーク市)を選択すると、ユーザ50は、(異なる場所で第2のオブジェクト10内で対話しながら)後の予め定められた時間に第2のオブジェクト10内で対話し得る。いくつかの実現例では、選択された場所(たとえば、ニューヨーク市)内で後に対話するように、当該選択された場所をインジケータ(または何らかの形態のマーカ)を用いて識別し得る。
いくつかの実現例では、第1のオブジェクト10との対話は第1のレベルの対話であることができ、その後に第2のオブジェクト15との第2のレベルの対話を伴うことができる。たとえば、第1のレベルの対話は第1のオブジェクト10に関連付けられる対話であり得る。すなわち、ユーザ50は第1のオブジェクト10と対話して、第1のオブジェクト10上の場所を選択する。この(第1の)レベルの対話で、ユーザ50は、図1Aに示されるように、第1のオブジェクト10内で自在に移動するには大きい(たとえば、第1のオブジェクト10よりも大きい)縮尺を有する。第1のレベルでの対話が一旦行なわれると、次に第2のオブジェクト15に関連付けられる第2のレベルの対話を行ない得る。この(第2の)レベルの対話では、ユーザ50は、(第1のレベルの対話を行なう際のユーザ50と比べて)縮尺がより小さいので、ユーザ50は、図1Bまたは図1Cに示されるように第2のオブジェクト15と対話し得る。たとえば、ユーザ50は、第2のオブジェクト15の表面上にまたはその近くに存在し得る。別の例では、ユーザ50は、第2のオブジェクト15内に存在し得、第2のオブジェクト15の環境の中に完全に没入し得る。
いくつかの実現例では、第1のオブジェクト10との対話(たとえば、第1のレベルの対話)は、第1の選択レベルまたは第2の選択レベルにおいてであり得る。たとえば、第1の選択レベルの対話は、第1のオブジェクト上の一般的な場所(たとえば、ヨーロッパに近い場所−たとえばドイツおよびイタリア)であることができ、第2の選択レベルの対話は、第1のオブジェクト10上のより具体的な場所(たとえば、イタリアの中の都市−たとえばミラノおよびフィレンツェ)であることができる。いくつかの実現例では、2つよりも多くの選択レベルの対話が存在し得る。これらの対話により、第2のオブジェクト15内で自在に移動するのに用いられるようなより高い精度および精密さを提供することができる。
いくつかの実現例では、第1のオブジェクト10を、(コントローラと称することができる)携帯型電子デバイス102、別のコントローラ(図示せず)、ならびに/または仮想環境内の別の場所および/もしくは特徴に関連付けることができる。いくつかの実現例では、あたかも第1のオブジェクト10がコントローラ102に固く接続されているかのように、コントローラ102を用いた移動に応答して移動するように第1のオブジェクト10を構成することができる。たとえば、コントローラ102が左または右に移動すれば、第1のオブジェクト10は左または右に移動し、コントローラ102が上または下に移動すれば、第1のオブジェクト10は上または下に移動する。本明細書中に記載されるもの以外の他の方向を用い得る。いくつかの実現例では、コントローラ102が第1のオブジェクト10を移動させると、第2のオブジェクト15は第1のオブジェクト10の対応の移動をトリガし得る。他の実現例では、コントローラ102が第1のオブジェクト10を移動させると、第2のオブジェクト15は、第1のオブジェクト10の対応の移動をトリガせず、固定したビューをユーザに与え得る。
いくつかの実現例では、コントローラ102の一部から遠位の(たとえば、それに近位の)ある距離に位置決めされる(たとえば、浮かんでいる)ように、第1のオブジェクト10を構成することができる。たとえば、第1のオブジェクト10をコントローラ102の真正面に配設することができる。他の例では、第1のオブジェクト10はコントローラ102の上方に存在することができる。本明細書中に記載されるものに加えてまたはその代わりに、コントローラ102に対する第1のオブジェクト10の他の場所を実現し得る。第1のオブジェクト10は、コントローラ102に比較的近いものであり得る。というのも、第1のオブジェクト10と対話すること(たとえば、自在に移動する、操作する、選択するなどのこと)がより容易であり得るからである。
いくつかの実現例では、図1A中の第三者視点から示されるように、ユーザは、第1のオブジェクト10の前にいて対話し得る。換言すると、ユーザ50と第2のオブジェクト15との間に第1のオブジェクト1を配設し得る。いくつかの実現例では、図1Bの第三者視点から示されるように、(より小さな縮尺の)ユーザ50は、第2のオブジェクト15の前にいて対話する。この例では、第1のオブジェクト10は、対話には無関係(たとえば、ユーザには見えないもの)であり得る。いくつかの実現例では、第1のオブジェクト10は完全に見えないものであり得るまたは除かれ得る。いくつかの実現例では、図1Cの第三者視点から示されるように、第1のオブジェクト10をユーザ50と第2のオブジェクト15との間に配設し得る。この例では、(より小さな縮尺の)ユーザ50は第2のオブジェクト15と対話していながら、ユーザ100は第1のオブジェクト10と対話して第1のオブジェクト10上の別の場所を選択し得る。さらに、この例では、第1のオブジェクト10はユーザ50よりも小さい(かつユーザのサイズが大きかった場合、図1Aではより小さい)ものであり得る。
いくつかの実現例では、コントローラ102を用いた対話に応答して状態を変えるように第1のオブジェクト10を構成することができる。たとえば、サイズ拡大、サイズ縮小、回転、消滅、色もしくは形状変更、および/またはそれ以外をするように第1のオブジェクト10を構成することができる。具体例として、第1のオブジェクト10と交差するコントローラ102からのビームによって、第1のオブジェクト10を拡大および/または縮小させることができる。たとえば、場所を選択することに応答する際に第1の仮想オブジェクト10を拡大(たとえばサイズ拡大)し得、反対に、コントローラ102によって場所が選択されない場合は、第1の仮想オブジェクトを縮小(たとえばサイズ縮小)し得る。
ユーザが同時に見る第1のオブジェクト10および第2のオブジェクト15を示す図1Dに示されるように、第1のオブジェクト10は第2のオブジェクト15よりもはるかに小さい。いくつかの実現例では、第1のオブジェクト10との対話を即座に第2オブジェクト15に変換しなくてもよい。たとえば、ユーザは、コントローラ(図示せず)を左もしくは右にまたは±X方向に移動させる(またはコントローラの別の制御機構を同様の態様で操作する)、コントローラを上もしくは下または±Y方向に移動させることによって上もしくは下または±Y方向に(またはコントローラの別の制御機構を同様の態様で操作すること)、ならびにコントローラを前方および/もしくは後方にまたは±Z方向に移動させる(または携帯型電子デバイス102の別の制御機構を同様の態様で操作すること)によって前方および/もしくは後方にまたは±Z方向に、第1のオブジェクト10と対話(たとえば、6自由度(DoF)で対話または3DoFで対話)し得る。第1のオブジェクト10との対話は、第2のオブジェクト15との対話の前に行なわれる。いくつかの実現例では、第1のオブジェクト10をY方向軸に沿って回転させて第1のオブジェクト10を所望の場所に回転させ得る。この例では、第1のオブジェクト10の回転は反時計回りであることができる。
いくつかの実現例では、第1のオブジェクト10との対話を用いて、第2のオブジェクト15上の場所に移動(たとえば、瞬間移動)することができる。たとえば、第2のオブジェクト15の縮小版であることができる第1のオブジェクト10上の場所を携帯型電子デバイス102を用いて選択することができる。第1のオブジェクト10の場所の選択に応答して、ユーザの仮想体験を第2のオブジェクト15の場所に移動させることができる。第2のオブジェクト15上の場所は、第1のオブジェクト10の場所に対応することができる。応じて、第2のオブジェクト15に関連付けられる対話を第1のオブジェクト10との対話を介してトリガすることができる。
図1には示さないが、1つよりも多くのコントローラを用いて第1のオブジェクト10との対話を実現することができる。具体的に、第1のオブジェクトと対話するために、図1に示されるコントローラ102に加えて、第2のコントローラを用いることができる。そのような実現例を少なくとも図2に示す。
図2は、第1のコントローラ210および第2のコントローラ220を用いるユーザが見る仮想環境を示す。仮想環境を見るユーザによって、(仮想環境に示すことができる)第1および第2のコントローラ210,220を制御することができる。(一次コントローラとも称することができる)第1のコントローラ210および第2のコントローラ220は、地球儀25(たとえば、第1のオブジェクト、小型地球儀)と対話するように構成されるため、地球28(たとえば、第2のオブジェクト)に対するユーザの仮想体験を修正することができる。(地球の少なくとも一部の縮尺変更版である)地球儀25および地球28の文脈で図2を論じるが、図2に関連付けられる記載をさまざまな第1および第2のオブジェクトに適用することができる。
いくつかの実現例では、第1のコントローラ210および第2のコントローラ220は、異なる動作もしくは行為をトリガするように構成可能であるか、または異なる(もしくは重なる)機能を有することができる。たとえば、第1のコントローラ210を用いて地球儀25を回転させることができ、第2のコントローラを用いて(地球28上の場所に対応することができる)地球儀25上の場所を識別して瞬間移動することができる。いくつかの実現例では、地球儀25を第1のコントローラ210に関連付けることができる。具体的に、地球儀25があたかも第1のコントローラ210に固く結合されるかまたは第1のコントローラ210の延長であるかのように、第1のコントローラ210を用いて移動するように地球儀25を構成することができる。応じて、ユーザが第1のコントローラ210を移動させると、地球儀25は、第1のコントローラ210に対応した態様で移動することができる。たとえば、第1のコントローラ210が左または右に移動すれば、地球儀25は左または右に移動し、第1のコントローラ210が上または下に移動すれば、地球儀25は上または下に移動する。本明細書中に記載されるもの以外の他の方向を用い得る。
この実現例では、ユーザ(図示せず)は、第2のコントローラ220を用いて地球儀25上の場所26を指し示すことができる。たとえば、ユーザは、第2のコントローラ220から発せられるビーム29を向けて地球儀25上の場所26を識別し得る。いくつかの実現例では、地球儀25上の何らかの種類のマーカを用いて場所26を識別することができる。第2のコントローラ220との対話(たとえば、第2のコントローラ220上のトリガを引くことまたはボタンをクリックすること)に応答して、ユーザの仮想環境を地球儀25上の場所に対応する地球28内の場所に移動(瞬間移動、移送、転送など)させることができる。
いくつかの実現例では、地球儀25との第2のコントローラ220の対話に基づいて、インジケータ(たとえば、カーソルピン、小さい人物、宇宙飛行士)が地球儀25上の場所でホバリングすることができる。具体的に、地球儀25の表面とビーム29とが交差する場所にインジケータを含むことができる。地球儀25に関連付けられるインジケータの別の例を図3に示す。図3のこの実現例では、ユーザが宇宙にいる場合は、インジケータ(たとえば、ロケーションピン)の代わりに宇宙飛行士31が示され、ユーザが宇宙モードに遷移するであろうことをユーザに表わすように、インジケータの代わりのゴースト宇宙飛行士32が示される。この例では、宇宙飛行士31は、地球儀25に関連付けられるユーザの所望の場所を示すインジケータを表わし得、ゴースト宇宙飛行士32は、第2のコントローラ220の対話に基づいて現在の場所を指し示す、地球儀25の周りでホバリングし得るインジケータを表わし得る。たとえば、宇宙飛行士32が地球儀25の周りでホバリングして第2のコントローラ220の対話に基づいて現在の場所を示しながら、ユーザは、地球儀25上の場所を選択して、宇宙飛行士31を用いて場所をマークすることによって場所を示し得る。
いくつかの実現例では、インジケータを用いて、地球儀25および/または地球28に対するユーザの向き設定を容易にすることができる。たとえば、いくつかの実現例では、ユーザはコンパスを用いて地球儀25および/または地球28内で自身の向きを設定することができる。いくつかの実現例では、ユーザの場所を示すピンの代わりに、矢印または視野オブジェクトが回転して、地球儀25および/または地球28内のユーザの現在の頭の方向に倣うことができる。
いくつかの実現例では、地球儀25上の場所26を指し示した後に、ユーザは、場所26に対応する地球28上の場所への移動(たとえば、瞬間移動、遷移)を直接にトリガすることができる。いくつかの実現例では、遷移のトリガは、コントローラ(たとえば、第2のコントローラ220)のトリガ部を引くことであることができる。
いくつかの実現例では、地球儀25上の場所26を指し示した後、ユーザは、フェードするように画面をトリガして、場所26に対応する地球28上の場所でホバリングする(たとえば、はるか上方でホバリングする、上記(宇宙空間で)宇宙モードでホバリングする)ユーザに遷移していくことができる。いくつかの実現例では、フェードするようにトリガすることは、コントローラの(たとえば、第2のコントローラ220の)トリガ部を引くことに応答してのことであることができる。
いくつかの実現例では、地球儀25および/または地球28内の(地面レベルにより近い)地表ビューでの場合、地球儀25および/または地球28の場所上のインジケータ(たとえば、ピン)は、ユーザの頭が向いている方向を示す矢印を有することができる。たとえば、(地面レベルからさらに遠い)惑星ビューの場合、矢印は、ユーザが惑星の中心を見ている場合は、(北極に向いて)上を向くことができ、ユーザが右に向くと、時計回りに回ることができ、ユーザが左に向くと、反時計回りに回ることができる。
いくつかの実現例では、ユーザがコントローラ(たとえば、第2のコントローラ220)から地球儀25の場所26にビームを向ける(たとえば、特定される時間の間向ける)と、コントローラ(たとえば、第1のコントローラ210)の上方で地球儀25を修正(たとえば、拡大)することができる。換言すると、第2のコントローラ220による地球儀25との対話(たとえば、ホバリング、ビーム29の対話)に応答して、図2に示されるサイズに拡大するように地球儀25を構成することができる。いくつかの実現例では、コントローラが地球儀25と直接に対話していない場合は、図2に示されるサイズから地球儀25をサイズ縮小させることができる(図示せず)。いくつかの実現例では、特定されるまたはしきい値時間の間地球儀25にビームを向けることをホバリングまたはホバリング対話と称することができる。
いくつかの実現例では、ユーザがコントローラ(たとえば、第2のコントローラ220)から地球儀25の場所26にビームを向ける(たとえば、特定される時間の間向ける)と、ベクトル画像からより詳細な画像(たとえば、衛星画像、国境の画像)へと地球儀25の質感をクロスフェードさせることができる。いくつかの実現例では、ユーザがコントローラ(たとえば、第2のコントローラ220)から地球儀25の場所26にビームを向ける(たとえば、特定される時間の間向ける)と、ビームが地球儀25と交差する地点でインジケータが地球儀25上に出現することができる。いくつかの実現例では、ユーザがコントローラ(たとえば、第2のコントローラ220)から地球儀25の場所26にビームを向ける(たとえば、特定される時間の間向ける)と、1つ以上のツールチップ(たとえば、第1のコントローラ210のタッチパッドに関連付けられる「回転」、第2のコントローラ220のトリガに関連付けられる「瞬間移動」)をトリガして表示させることができる。
いくつかの実現例では、ユーザが第1のコントローラ210の右回転ボタンを作動させるのに応答して、たとえば、(正面が右に移動するように)反時計回りに地球儀25を北極の周りで回転させることができる。いくつかの実現例では、ユーザが第1のコントローラ210の左回転ボタンを作動させると、逆のことが当てはまることができる。いくつかの実現例では、場所のインジケータは地球儀25の回転に追従することができるので、イニジケータはユーザの場所に留まる。
いくつかの実現例では、ビーム29が地球儀25に交差している間にユーザがたとえば第2のコントローラ220のトリガを作動させると、インジケータ(たとえば、赤いピン)を交差場所で地球儀25に挿入(たとえば、20%まで地球儀に挿入)することができる。いくつかの実現例では、ユーザがたとえば第2のコントローラ220のトリガを作動させると、インジケータ(たとえば、赤いピン)は、ユーザがトリガを作動させて地球儀25とのビーム交差に追従するのを止めたときに、ある場所(たとえば、場所26)に留まることができる。いくつかの実現例では、トリガが依然として作動されていても第2のコントローラ220からのユーザのビームが地球儀25に交差しなくなった場合には、インジケータを削除することができる。
いくつかの実現例では、ビーム(たとえば、ビーム29)が地球儀25に交差している間にユーザがたとえば第2のコントローラ220のトリガ部を離すと、表示は、黒にフェードインする、および地球28の所望の場所の上方の惑星ビューにフェードアウトすることができる。いくつかの実現例では、ビーム(たとえば、ビーム29)が地球儀25に交差している間にユーザがたとえば第2のコントローラ220のトリガ部を離すと、フェードの間に場所26のインジケータが消えることができる。
いくつかの実現例では、ユーザがたとえば第2のコントローラ220のトリガ部を作動させると、ビームが地球儀25に交差する場所で第1のインジケータ(たとえば、赤いピン)を地球儀25に挿入することができる。ビーム(たとえば、ビーム29)が地球儀25に交差している間にユーザがたとえば第2のコントローラ220のトリガ部を離すと、場所の第2のインジケータ(たとえば、青のロケーションピン)が第1のインジケータの位置に移動することができる。いくつかの実現例では、地球儀25上の場所は回転することができるため、ロケーションピンの第2のインジケータは今回第2のコントローラ220前方のデフォルト位置に戻る。
いくつかの実現例では、ビームが地球儀25に交差していない間にユーザがたとえばコントローラ(たとえば、第2のコントローラ220)のトリガ部を離しても、ユーザは地球28内で移動(たとえば、瞬間移動)しない。いくつかの実現例では、地球儀25は、特定される持続時間の間拡大状態に留まり、次に縮小し(たとえば縮み)得る。いくつかの実現例では、地球儀25が回転すると、地球儀25は、縮小し(たとえば縮み)ながらデフォルト回転するようにさっと動く。
図4は、ホバリングおよびトリガ対話を示す状態図である。この状態図に示されるように、ホバリングおよび/またはトリガ対話のさまざまな組合せに基づいて、第1のオブジェクト(たとえば、地球儀)を拡大または縮小させることができる。第1のオブジェクト(たとえば、地球儀)を拡大または縮小させるには、ユーザは、コントローラ(たとえば、第2のコントローラ220)を制御(たとえば、動作)し得る。たとえば、ステップ402に示されるように、インジケータ(たとえば、宇宙飛行士)がコントローラ(たとえば、第2のコントローラ220)の対話に基づいて、第1のオブジェクト(たとえば、地球儀)上の場所の上方でホバリングしている場合、第1のオブジェクト(たとえば、地球儀)は拡大状態にあり得る。別の例では、ステップ403に示されるように、トリガ(たとえば、トリガ部を引くまたはボタンをクリックする)がコントローラに対して行なわれかつインジケータ(たとえば、宇宙飛行士)がコントローラ(たとえば、第2のコントローラ220)の対話に基づいて第1のオブジェクト(たとえば、地球儀)上の場所の上方でホバリングしている場合、第1のオブジェクト(たとえば、地球儀)は拡大状態にあり得る。別の例では、ステップ404に示されるように、コントローラに対してトリガ(たとえば、トリガ部を引くことまたはボタンをクリックすること)が行なわれる場合、第1のオブジェクト(たとえば、地球儀)は拡大状態にあり得る。ステップ401は、トリガが行なわれておらずインジケータ(たとえば、宇宙飛行士)が第1のオブジェクト(たとえば、地球儀)上方の場所の上方でホバリングしていない場合の縮小状態の第1のオブジェクト(たとえば、地球儀)を示す。しかしながら、いくつかの実現例では、トリガが行なわれておらずインジケータが第1のオブジェクト(たとえば、地球儀)上方の場所の上方でホバリングしていない場合でも、第1のオブジェクト(たとえば、地球儀)が拡大状態にあり得る場合が存在し得る。たとえば、ユーザがコントローラ上のトリガ部を離してインジケータ(たとえば、宇宙飛行士)の遅延(予め定められた時間が経過した)が消滅する(たとえば、フェード、満了など)と、第1のオブジェクト(たとえば、地球儀)は拡大状態にあり得る。換言すると、第1のオブジェクト(たとえば、地球儀)は、時間遅延が満了するまで拡大状態にある。
図5Aは、第1のコントローラ210および第2のコントローラ220によってトリガすることができる付加的な対話を示す図である。図5Aに示されるように、第1のオブジェクト(たとえば、地球儀25)は縮小状態にある。対話(たとえば、訪問)すべき地球儀25上の場所を決定するために、ユーザは、第1のコントローラ210を介して地球儀25を回転させて、地球儀25の様々な場所を観察する。いくつかの実現例では、第1のコントローラ210は、さまざまな機能のためのいくつかのボタンおよび/またはトリガ部を含む。たとえば、ボタン/トリガ222は、地球儀25の方向付けを決める地球儀25方向付けボタン(たとえば、地球を上に傾ける)であり、ボタン/トリガ224は、訪問した場所を保存(たとえば、長押しして保存)する保存機能を有する。
地球儀25が拡大(拡張)するために、ユーザは、第2のコントローラ220を地球儀25上の場所に向けて、(たとえば、カーソルピン、小さな人物、または宇宙飛行士を介して)移動(たとえば、瞬間移動)すべき場所を示す。第2のコントローラ220から発せられるビーム(図示せず)は、地球儀25の表面と交差して(かつハイライトされて)、訪問すべき場所を決定し得る。一旦場所が地球儀25上で決定されると、ユーザは、第2のコントローラ220上のボタンおよび/またはトリガ部のうち1つを操作して、所望の場所に瞬間移動する。いくつかの実現例では、第2のコントローラ220は、さまざまな機能のためのいくつかのボタンおよび/またはトリガ部を含む。たとえば、ボタン/トリガ232は、ユーザを保存された場所に向けるためにメニュー窓をユーザに提供するメニュー機能を有し、ボタン/トリガ234は、ユーザが地球儀25を横断して飛行しかつ方向を付与する飛行機能を有し、ボタン/トリガ236は、ユーザがビューをドラッグすることができるようにドラッグ機能を有し、かつボタン/トリガ238は、ユーザが見るようなビューを回転させる回転機能を有する。
いくつかの実現例では、図5Bに示されるように、ユーザはメニュー表示410を通して直接に所望の場所に移動(たとえば、瞬間移動、転送など)し得る。この例示的な実現例では、第2のコントローラ220上のボタン(たとえば、メニューボタン)をクリックしてメニュー表示410をユーザに表示することによってメニュー表示410を表示し得る。メニュー表示410は、所望の場所に移動(たとえば、瞬間移動)されるための、記憶された場所を含み得る。たとえば、図5Bに示されるように、示されるメニュー表示410は、選択対象の6つの目的地(たとえば、イタリアのフィレンツェ、ドイツのノイシュバンシュタイン、日本の東京、ユタ州のベアーズイヤーズ、ニューヨークのマンハッタン、ブラジルのリオデジャネイロ)を含み得る。一旦場所が選択されると、ユーザは選択された場所に直接に移動(たとえば、瞬間移動)され、第2の仮想オブジェクト内で対話される。
いくつかの実現例では、図5Cに示されるように、移動されるべき所望の場所をメニュー表示410が含有していない場合、ユーザは、キーボード440を取出して第2のコントローラ220を介して所望の場所をタイプ入力し得る。この例では、ユーザは、英国のエイムズベリーにあるストーンヘンジに移動(たとえば、瞬間移動)することを試みている。いくつかの実現例では、ユーザは、メニュー表示410を表示させることなく、対話の間の任意の時間にキーボード440を取出して入力窓450の中に所望の場所をタイプ入力し得る。換言すると、ユーザは、キーボード440を取出して、第1の仮想オブジェクトとの対話の間にまたは第2の仮想オブジェクトとの対話の間に、所望の場所をタイプ入力し得る。便宜上、ユーザは、入力窓450中に所望の場所の最初の数文字のみをタイプ入力して、ボックス460中に示されるようなタイプ入力された文字から始まる候補場所の一覧を生成することができる。
図6Aは、別の例示的な実施形態に従う、第1のコントローラおよび第2のコントローラを用いるユーザが見る仮想環境を示す。この例では、ユーザは、世界と比べて比較的サイズが大きい(すなわち、建物、山、地表などがより小さく感知される)。図6Bは、第2の仮想オブジェクト内において対話する(たとえば、没入する)ユーザが見る図6Aの仮想環境を示す。
図6Aに示されるように、第1の仮想オブジェクトは球体601(たとえば、球形にマッピングされるパノラマ画像(たとえばストリートレベル(道路レベル)ビュー))である。球体601は、ストリートビュー場所へのポータルとして働き、かつユーザをストリートビュー(道路ビュー)(たとえば、選択された場所のパノラマ画像(ストリートレベルビュー))に移動(たとえば、瞬間移動)させ得る。球体601は、その上方にユーザが位置する場所に対応し得る。この例では、ユーザは、イタリアのローマ市を選択しかつその中に位置しており、球体601は、それと対話すべきイタリアのローマのピアッツァデルコロッセオ(コロセウム)の場所を表示する。換言すると、ユーザは、球体601と対話して、(図6Aに示されるような)上空飛行モードと、(図6Bに示されるような)ストリートビューモードとの間で切換えし得る。
いくつかの実現例では、球体601と対話することによってストリートビューモードを実現し得る。たとえば、ユーザは、コントローラ(たとえば、第1のコントローラ210)をユーザの顔に近づけて、図6Bに示されるようなストリートビューでコロセウムに移動(たとえば、瞬間移動)し得る。ユーザがコントローラ(たとえば、第1のコントローラ210)をユーザの顔から遠ざけると、球体601は縮小サイズに切換って戻り(ユーザは上空飛行モードに戻るように移動され)、(図6Aに示されるような)球体601のビューを表示する。この方法では、ユーザは、球体601を用いてストリートレベルを見て、場所に移動(たとえば、瞬間移動)することができる。いくつかの実現例では、ユーザは、ストリートビュー場所の中を盗み見て、容易に移動(たとえば、瞬間移動)して戻って来得る。
いくつかの実現例では、ユーザは、球体601と対話して、第2のコントローラ220(図示せず)を用いて球体601上をクリックすることによってストリートビューを選択し得る。この対話も、図6Bに示されるように(球体601中のビューに対応する)ストリートビューにユーザを移動(たとえば、瞬間移動)させる。球体601をユーザに近づける方法と比較して、上述のように、この方法は、ユーザを場所に永久的に瞬間移動させる。いくつかの実現例では、ユーザは、コマンドを選択する(たとえば、図6Aに戻るボタンをクリックする)ことおよび上空飛行モードに戻ることなく、ストリートビューを抜けることはできない。
一旦ストリートビューに入ると、ユーザは、仮想環境中の没入体験を提供するストリートレベルでのさまざまなビューを観察し得る。換言すると、ユーザは、記憶された画像のパノラマ360°ビューにおける画像をストリートレベルで観察する。いくつかの実現例では、ストリートビューで異なる場所に移動するには、ユーザは、ストリートビューから出て、図6A中の所望の場所にインジケータを移動させて、新たな場所でストリートビューを選択する。
いくつかの実現例では、ユーザは、(ストリートビューでの)異なる場所に移動して、依然としてストリートビューにいながら他の場所を観察することができる。たとえば、図6Bを参照して、ユーザがコロセウムの角を曲がったところ(コロセウムに向かって右側)に何があるかを観察したい場合、ユーザは、コロセウムに向けて移動して新たな場所を観察する。このイベントでは、新たな場所を示す新たな画像が生成されかつ表示される。これにより、ストリートビューを離れることなく、仮想環境でのより没入的な体験が創出される。いくつかの実現例では、新しい場所にいながら、ユーザはストリートレベルビューを抜けて、上空飛行モードで新たな場所を見得る。たとえば、ストリートビューで動き回りながら、ユーザは都市全体に対して新たな場所を観察したいと思うことがあり、したがって、ユーザは、(球体601を介して)ストリートビューから抜け出て、上空飛行モードで見られるような新たな場所を決定し得る。
いくつかの実現例では、ユーザは、(図2に示されるような)地球ビューと(図6Aに示されるような)ストリートビューとの間でビューを変更し得る。1つの実現例では、ユーザの縮尺を変更することによってストリートビューを実現し得る。たとえば、地球ビューでは、第1の仮想オブジェクトは地球儀25であり、ユーザは、地球儀25を回転させることによって場所を選択し、訪問する場所を決定し得る。一旦場所を選択すると、ユーザは、ユーザの縮尺を変更してストリートビューに切換え得る。縮尺を変更する1つの方法は、ユーザの縮尺がしきい値を超えるまで第2のコントローラ220を介すること(たとえば、第2のコントローラ上のボタン/トリガをクリックすること)であり得る。たとえば、ユーザの縮尺は、しきい値が満たされて第1の仮想オブジェクトが球体に切換わるまで、どんどん小さくなり得る。このイベントでは、(図2に示されるような)地球儀25は、(図6Aに示されるような)球体601に切換わる。
いくつかの実現例では、ユーザは、第2のコントローラ220を用いてストリートビューを選ぶことによって、ストリートビューに直接に変更し得る。たとえば、第2のコントローラ220は、第1の仮想オブジェクト(たとえば、地球儀25)と対話してメニュー窓(図示せず)を表示させかつストリートビューモードに切換えることによって、ストリートビューを選択し得る。
いくつかの実現例では、さまざまな論理的構築を用いて上述のさまざまな対話を規定することができる。いくつかの実現例では、LocationGlobe、SixDofControllerUi、およびLocationGlobeDisplayを扱うのに2つの主なクラスが関与することができる。いくつかの実現例では、LocationGlobeDisplayは、コントローラ変換(位置および/または場所)ならびにユーザの現在の地理位置情報(GeoLocation)を取得することによって、どこにMiniGlobeRenderableおよび/または2つのShapeRenderableピンを描画するかを決定する。いくつかの実現例では、SixDofControllerUiはLocationGlobeDisplayを有し、更新呼出しのたびに、コントローラの変換、現在の地理位置情報、およびユーザの頭の向け方でこれを更新する。いくつかの実現例では、すべての対話を扱いかつLocationGlobeDisplayがいつ拡大すべきかおよびレーザがどこを指し示しているかについてLocationGlobeDisplayを更新するLocationGlobeInteractableと呼ばれるInteractiveAppModeのメンバーとして新たなクラスを追加することができる。いくつかの実現例では、LocationGlobeInteractableは、LocationGlobeDisplayと通信することができる。いくつかの実現例では、GetLocationGlobeDisplay方法をUiに追加して、InteractiveAppModeにおいて表示を把握することができる。いくつかの実現例では、LocationGlobeDisplayへのポインタを有することにより、Uiインターフェイスをより複雑にすることを犠牲にして、次々に回していくべき付加的な状態オブジェクトの必要性を排除することができる。
いくつかの実現例では、LocationGlobeInteractableは、LocationGlobeDisplayの変換に基づいて位置決めされる球体サイズの加速器とのビーム衝突を検出する。いくつかの実現例では、レーザ衝突の際、InteractiveAppModeは、現在のコントローラレイアウトを更新して、瞬間移動および回転を可能にすることができる。いくつかの実現例では、同時に、インタラクタブル(interactable)は、地球儀を拡大しカーソルピンの更新を開始するようディスプレイに命じる。いくつかの実現例では、それはInteractiveAppModeのメンバーであるので、MenuAppModeなどの別のアプリケーションモードがアプリケーションモードスタックにプッシュされた場合は、または瞬間移動黒フェードアウト遷移、ChangeViewAppModeの間は、更新を停止させることができる。いくつかの実現例では、ロケーショングローブの変換を算出するための方法がこのクラスの中にないということがあり得る、またはそれは、ユーザがメニューを開いたときに位置決めの更新を停止させることができる。いくつかの実現例では、別の制限は、LocationGlobeInteractableが地球儀の回転についての状態情報を保つので、InteractiveAppModeがアプリケーションモードスタックから取出されると、この情報が失われる可能性があるということである。いくつかの実現例では、LocationGlobeInteractableは、LocationGlobeDisplayクラス上の方法を呼出して、それを縮める/拡大する、カーソルピンを更新する、および/または地球儀を回転させる。
いくつかの実現例では、アクターのメンバーとしてLocationGlobeStateを追加することによって、LocationGlobeInteractableとLocationGlobeDisplayとの間の通信を容易にすることができる。この方法は、LocationGlobeInteractableとLocationGlobeDisplayとの間の依存性を排除し、Uiインターフェイス上の混乱を低減する。しかしながら、この結果、この付加的な状態オブジェクトの間接的なメンテナンスが生じる可能性があり、これはアクターのメンバーとして完全に適合しないことがある。
本明細書中に記載されるような実施形態に従う仮想現実環境中の仮想オブジェクトとの対話の方法を図7Aおよび図7Bに示す。ブロック700で、システムおよび方法は、HMD装置において仮想環境の表示をトリガし得る。仮想環境の表示をトリガすると、システムおよび方法は、第2の仮想オブジェクトを表わす第1の仮想オブジェクトの表示をトリガし得る。第1の仮想オブジェクトは、第2の仮想オブジェクトよりも小さなサイズを有し得る(ブロック702)。ユーザが第1のオブジェクトと対話する(たとえば、場所を選択する)と、ユーザは、第1の仮想オブジェクトのサイズよりも大きな第1のサイズを有し得る(ブロック704)。次にユーザは、第1の仮想オブジェクトとの対話に応答して、第2の仮想オブジェクトとの対話をトリガする(ブロック706)。この対話レベルの間、ユーザは、第2の仮想オブジェクトと対話する際は、第1のサイズよりも大きな第2のサイズを有する。
同様に、図7Bに記載される例示的な方法は、HMD装置において仮想環境の表示をトリガし得る(ブロック701)。仮想環境の表示をトリガすると、システムおよび方法は、第1のコントローラに関連付けられる第1の仮想オブジェクトの表示をトリガし得る。第1の仮想オブジェクトは第2の仮想オブジェクトを表わし得る。第1の仮想オブジェクトは、第2の仮想オブジェクトよりも小さなサイズを有し得る(ブロック703)。第1のオブジェクトの対話の間、ユーザは、第2のコントローラを介して第1の仮想オブジェクト内の場所を選択して、第2の仮想オブジェクト中の場所へのユーザの移動をトリガする(ブロック705)。この段階で、ユーザは、第2の仮想オブジェクト内で対話を受信し得る(ブロック707)。たとえば、ユーザは、第2のオブジェクトの表面の上および/もしくはその近くに存在し得る、または第2の仮想オブジェクトの環境内部に完全に没入し得る。
いくつかの実現例では、図1Aに示されるように、コントローラ102は、たとえば有線接続またはたとえばワイファイ(登録商標)もしくはブルートゥース(登録商標)接続などの無線接続を介して、HMD100に動作可能に結合されるまたはこれと対にされ得る。コントローラ102およびHMD100のこのペアリングまたは動作可能な結合は、コントローラ102とHMD100との間の通信およびコントローラ102とHMD100との間のデータの交換を提供し得る。これにより、コントローラ102は、HMD100によって生成される没入型仮想環境で対話するための、HMD100と通信するコントローラとして機能できるようになり得る。
たとえば、コントローラ102および/もしくはコントローラ102のタッチ面で受信される入力の操作、ならびに/またはコントローラ102の動きは、HMD100によって生成されかつ表示される仮想環境での対応の選択または動きまたは他の種類の対話に変換され得る。
図1Aに示される例示的な実現例は、HMD100とのデータ交換およびHMD100によって生成される仮想環境における特徴、要素、オブジェクトなどとの対話のための、HMD100と通信する1つのコントローラ102を含む。しかしながら、いくつかの実現例では、1つよりも多くのコントローラ102がHMD100に動作可能に結合され得かつそれと通信し得、ともにまたは別個に動作して仮想環境中で対話し得る。
図8Aおよび図8Bは、たとえば図1のユーザが着用するHMD100などの例示的なHMDの斜視図であり、図8Cは、図1Cに示される、たとえばコントローラ102などの例示的なコントローラを示す。
コントローラ102は、装置102の内部構成要素を受ける筐体103と、ユーザにアクセス可能な筐体103上のユーザインターフェイス104とを含み得る。ユーザインターフェイス104は、たとえば、ユーザタッチ入力、タッチおよびドラッグ入力などを受けるように構成されるタッチセンサ式表面106を含み得る。ユーザインターフェイス104は、たとえば、作動トリガ、ボタン、ノブ、トグルスイッチ、ジョイスティックなどのユーザ操作装置105も含み得る。
HMD100は、ヘッドフォンに装着され、フレーム120に結合もされる、たとえばスピーカを含む音声出力装置130とともに、フレーム120に結合される筐体110を含み得る。図2Bで、筐体110の正面部分110aは筐体110のベース部分110bから遠ざかるように回転されるため、筐体110中で受けられる構成要素のうちいくつかが見えている。ディスプレイ140は、筐体110の正面部分110aの内側に面する側に搭載され得る。レンズ150は、正面部分110aが筐体110のベース部分110bに対して閉じた位置にある場合は、筐体110の中でユーザの目とディスプレイ140との間に搭載され得る。HMD100は、さまざまなセンサを含む検知システム160と、プロセッサ190およびHMD100の動作を容易にするさまざまな制御システム装置を含む制御システム170とを含み得る。
たとえば、いくつかの実現例では、検知システム160は、たとえば加速度計、ジャイロスコープ、磁気計、および他のそのようなセンサなどのさまざまな異なる種類のセンサを含む慣性測定ユニット(IMU)162を含み得る。HMD100の位置および向きは、IMU162中に含まれるセンサが与えるデータに基づいて検出および追跡され得る。HMD100の検出された位置および向きにより、システムは次にユーザの頭の注視方向および動きを検出および追跡できるようになり得る。
いくつかの実現例では、HMD100は、目の注視方向および動きを検出しかつ追跡するために、たとえば1つ以上のセンサ165Aを含む注視追跡装置165を含み得る。センサ165Aが捕捉する画像を処理してユーザの目の注視の方向および動きを検出および追跡し得、検出されかつ追跡された注視をユーザ入力として処理して、没入型仮想体験における対応の対話に変換し得る。カメラ180は、ユーザの物理的位置および/またはHMD100と通信する/動作可能に結合される他の外部装置を追跡するのを助けるのに用い得る静止画および/または動画を捕捉し得る。捕捉された画像を、透視モードでディスプレイ140上にユーザに対して表示もし得る。
ユーザに対する仮想環境の仮想要素の移動を提供するシステムのブロック図を図9に示す。システムは、(たとえば、図1および図8A−図8Bについて上述したようなHMDなどの)第1の電子デバイス300と、第1の電子デバイス300と通信する(たとえば、図1および図8Cについて上述したようなコントローラなどの)少なくとも1つの第2の電子デバイス302とを含み得る。
第1の電子デバイス300は、検知システム360および制御システム370を含み得、これらはそれぞれ、図8Aおよび図8Bに示される検知システム160および制御システム170と同様であり得る。検知システム360は、たとえば光センサ、音声センサ、画像センサ、距離および/もしくは近接センサを含む異なる種類のセンサ、たとえばジャイロスコープ、加速度計、磁気計などを含むIMU、タイマ、ならびに/または他のセンサおよび/もしくはセンサの異なる組合せを含み得る。制御システム370は、たとえば、電源/一時停止制御装置、音声および映像制御装置、光学制御装置、遷移制御装置、ならびに/またはそのような他の装置および/もしくは装置の異なる組合せを含み得る。検知システム360および/または制御システム370は、特定の実現例に依存して、より多くのまたはより少ない装置を含み得る。検知システム360および/または制御システム370に含まれる要素は、図8Aおよび図8Bに示されるHMD100以外のたとえばHMD内では、異なる物理的配置(たとえば、異なる物理的場所)を有し得る。第1の電子デバイス300は、検知システム360および制御システム370と通信するメモリ380およびプロセッサ390も含み得る。プロセッサ390は、検知システム360およびたとえば第2の電子デバイス302などの他の外部ソースから受信する入力を処理し、検出される入力に対応する命令を実行し得る。第1の電子デバイス300は、第1の電子デバイス300と、たとえば第2の電子デバイス302およびシステム関連情報の扱いに係る他のコンピューティングデバイスなどの他の外部コンピューティングデバイスとの間の通信を提供する通信モジュール350も含み得る。
第2の電子デバイス302は、第2の電子デバイス302とたとえば第1の電子デバイス300などの別の装置との間での通信およびデータ交換を提供する通信モジュール306を含み得る。いくつかの実現例では、第2の電子デバイス302の特定の構成(すなわち、コントローラ対キーボードまたはマウス)に依存して、第2の電子デバイス302は、たとえばカメラおよびマイクに含まれるものなどのような、たとえば画像センサおよび音声センサ、IMU、タイマ、コントローラもしくはスマートフォンのタッチセンサ面に含まれるものなどのようなタッチセンサ、ならびに他のそのようなセンサおよび/もしくはセンサの異なる組合せを含む検知システム304を含み得る。プロセッサ309は、第2の電子デバイス302の検知システム304およびコントローラ305と通信し得、コントローラ305はメモリ308へのアクセスを有し、第2の電子デバイス302の全体的な動作を制御する。
図10は、ここに記載される技術とともに用い得る、コンピュータデバイス900およびモバイルコンピュータデバイス950の例を示す。コンピューティングデバイス900は、プロセッサ902と、メモリ904と、記憶装置906と、メモリ904および高速拡張ポート910に接続する高速インターフェイス908と、低速バス914および記憶装置906に接続する低速インターフェイス912とを含む。構成要素902、904、906、908、910、および912の各々は、さまざまなバスを用いて相互接続され、共通のマザーボード上にまたは適宜他の態様で実装され得る。プロセッサ902は、メモリ904中または記憶装置906上に記憶される命令を含む、コンピューティングデバイス900内での実行のための命令を処理して、高速インターフェイス908に結合されるディスプレイ916などの外部入力/出力装置上のGUI用のグラフィック情報を表示することができる。他の実現例では、適宜複数のプロセッサおよび/または複数のバスを複数のメモリおよび複数の種類のメモリとともに用い得る。また、複数のコンピューティングデバイス900を接続し得、その場合、(たとえば、サーババンク、ブレードサーバの群、またはマルチプロセッサシステムとして)各々のデバイスが必要な動作の一部を提供する。
メモリ904は、コンピューティングデバイス900内に情報を記憶する。1つの実現例では、メモリ904は、揮発性メモリユニットまたはその複数のユニットである。別の実現例では、メモリ904は、不揮発性メモリユニットまたはその複数のユニットである。メモリ904は、磁気ディスクまたは光ディスクなどの別の形態のコンピュータ読出可能媒体でもあり得る。
記憶装置906は、コンピューティングデバイス900用の大容量記憶を設けることができる。1つの実現例では、記憶装置906は、フロッピー(登録商標)ディスク装置、ハードディスク装置、光ディスク装置もしくはテープ装置などのコンピュータ読出可能媒体、フラッシュメモリもしくは他の同様の固体メモリデバイス、または記憶領域ネットワークもしくは他の構成の中の装置を含む装置のアレイであり得るまたはそれを含有し得る。コンピュータプログラムプロダクトを情報担体中に実体的に具体化することができる。コンピュータプログラムプロダクトは、実行されると、上述のものなどの1つ以上の方法を実行する命令も含有し得る。情報担体は、メモリ904、記憶装置906、またはプロセッサ902上のメモリなどの、コンピュータまたは機械読出可能媒体である。
高速コントローラ908は、コンピューティングデバイス900の帯域消費型動作を管理する一方で、低速コントローラ912は、あまり帯域消費型ではない動作を管理する。そのような機能の割当ては例示にすぎない。1つの実現例では、高速コントローラ908は、(たとえば、グラフィックプロセッサまたはアクセラレータを介して)メモリ904、ディスプレイ916に、およびさまざまな拡張カード(図示せず)を受付け得る高速拡張ポート910に結合される。実現例では、低速コントローラ912は、記憶装置906および低速拡張ポート914に結合される。さまざまな通信ポート(たとえば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、ワイヤレスイーサネット(登録商標))を含み得る低速拡張ポートは、たとえばキーボード、ポインティングデバイス、スキャナなどの1つ以上の入/出力装置、またはスイッチもしくはルータなどのネットワーキング装置に、たとえばネットワークアダプタを通して結合され得る。
図に示されるように、コンピューティングデバイス900を多数の異なる形態で実現し得る。たとえば、標準的なサーバ920としてまたはそのようなサーバの群としてこれを何度も実現し得る。それを、ラックサーバシステム924の一部としても実現し得る。さらに、それを、ラップトップコンピュータ922などのパーソナルコンピュータにおいて実現し得る。これに代えて、コンピューティングデバイス900からの構成要素を、装置950などのモバイル装置(図示せず)中の他の構成要素と組合せ得る。そのような装置の各々は、コンピューティングデバイス900、950のうち1つ以上を内蔵し得、システム全体は、互いに通信する複数のコンピューティングデバイス900、950からなり得る。
コンピューティングデバイス950は、他の構成要素のうち、プロセッサ952、メモリ964、ディスプレイ954などの入/出力装置、通信インターフェイス966、およびトランシーバ968を含む。付加的な記憶を設けるように、装置950には、マイクロドライブまたは他の装置などの記憶装置も設け得る。構成要素950、952、964、954、966、および968の各々は、さまざまなバスを用いて相互接続され、構成要素のうちいくつかは、共通のマザーボード上にまたは適宜他の態様で実装され得る。
プロセッサ952は、コンピューティングデバイス950内で、メモリ964中に記憶される命令を含む命令を実行することができる。プロセッサを、別個のおよび複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実現し得る。プロセッサは、たとえば、ユーザインターフェイスの制御、装置950によって実行されるアプリケーション、装置950による無線通信などの、装置950の他の構成要素の協調を提供し得る。
プロセッサ952は、ディスプレイ954に結合される制御インターフェイス958と表示インターフェイス956とを通してユーザと通信し得る。ディスプレイ954は、たとえば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)またはOLED(有機発光ダイオード)ディスプレイまたは他の適切な表示技術であり得る。表示インターフェイス956は、グラフィックおよび他の情報をユーザに提示するようにディスプレイ954を駆動するための適切な回路構成を備え得る。制御インターフェイス958は、ユーザからコマンドを受信して、それらを変換してプロセッサ952に送り得る。さらに、装置950による他の装置との近距離通信を可能にするために、プロセッサ952と通信するように外部インターフェイス962を設け得る。外部インターフェイス962は、たとえば、いくつかの実現例では有線通信を、または他の実現例では無線通信を提供し得、複数のインターフェイスも用い得る。
メモリ964は、コンピューティングデバイス950内に情報を記憶する。メモリ964を、コンピュータ読出可能媒体もしくはその複数の媒体、揮発性メモリユニットもしくはその複数のユニット、または不揮発性メモリユニットもしくはその複数のユニットのうち1つ以上として実現可能である。拡張メモリ974も設けて、拡張インターフェイス972を通して装置950に接続し得る。これは、たとえば、SIMM(シングルインラインメモリモジュール)カードインターフェイスを含み得る。そのような拡張メモリ974は、装置950用の追加の記憶空間を設け得る、または装置950のためのアプリケーションもしくは他の情報も記憶し得る。具体的に、拡張メモリ974は、上述のプロセスを実行するまたは補足する命令を含み得、安全な情報も含み得る。このように、たとえば、拡張メモリ974を、装置950のためのセキュリティモジュールとして設け得、装置950の安全な使用を可能にする命令でプログラミングし得る。さらに、ハッキングされない態様でSIMMカード上に識別情報を配置するなど、付加的な情報とともにSIMMカードを介して安全なアプリケーションが提供され得る。
メモリは、たとえば、以下に論じるようにフラッシュメモリおよび/またはNVRAMメモリを含み得る。1つの実現例では、コンピュータプログラムプロダクトは、情報担体の中に実体的に具体化される。コンピュータプログラムプロダクトは、実行されると、上述のものなどの1つ以上の方法を行なう命令を含有する。情報担体は、メモリ964、拡張メモリ974、たとえばトランシーバ968もしくは外部インターフェイス962上で受けられ得るプロセッサ952上のメモリなどのコンピュータまたは機械読出可能媒体である。
装置950は、必要な場合、デジタル信号処理回路構成を含み得る通信インターフェイス966を介して無線で通信し得る。通信インターフェイス966は、とりわけ、GSM(登録商標)音声通話、SMS、EMSもしくはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSなどのさまざまなモードまたはプロトコル下での通信を提供し得る。そのような通信は、たとえば無線周波数トランシーバ968を通して行なわれ得る。さらに、ブルートゥース(登録商標)、ワイファイ(登録商標)、またはそのような他のトランシーバ(図示せず)を用いるなどする短距離通信が行なわれ得る。さらに、GPS(全地球測位システム)受信機モジュール970が、付加的なナビゲーションおよび場所関連の無線データを装置950に与え得、このデータは、適宜装置950上で実行されるアプリケーションによって用いられ得る。
装置950は、音声コーデック960を用いて聴覚を通じても通信し得、これは、ユーザからの口頭の情報を受信し、これを使用可能なデジタル情報に変換し得る。音声コーデック960は同様に、スピーカを通したりなどして、たとえば装置950のハンドセットで、ユーザ可聴の音を生成し得る。そのような音は、音声電話通話からの音を含み得、録音(たとえば、音声メッセージ、音楽ファイルなど)を含み得、かつ装置950上で動作するアプリケーションによって生成される音も含み得る。
図に示されるように、コンピューティングデバイス950を多数の異なる形態で実現し得る。たとえば、これをセルラー電話980として実現され得る。これを、スマートフォン982、パーソナルデジタルアシスタント、または他の同様のモバイル装置の一部としても実現し得る。
ここに記載されるシステムおよび技術のさまざまな実現例を、デジタル電子回路構成、集積回路構成、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはその組合せで実現することができる。これらのさまざまな実現例は、特殊用途または汎用であり、記憶システムからおよび記憶システムにデータおよび命令を送受信するように結合され得る少なくとも1つのプログラマブルプロセッサ、少なくとも1つの入力装置、および少なくとも1つの出力装置を含むプログラマブルシステム上で実行可能なおよび/または解釈可能な1つ以上のコンピュータプログラム中の実現例を含むことができる。
(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても公知の)これらのコンピュータプログラムは、プログラマブルプロセッサのための機械命令を含み、高レベル手続き型言語および/もしくはオブジェクト指向プログラミング言語ならびに/またはアセンブリ/機械言語において実現可能である。本明細書中で用いるように、「機械読出可能媒体」「コンピュータ読出可能媒体」という用語は、機械読出可能信号として機械命令を受信する機械読出可能媒体を含む、機械命令および/またはデータをプログラマブルプロセッサに与えるのに用いられる任意のコンピュータプログラムプロダクト、機器および/または装置(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブル論理回路(PLD))を指す。「機械読出可能信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに与えるのに用いられる任意の信号を指す。
ユーザとの対話を提供するために、ここに記載されるシステムおよび技術を、情報をユーザに表示するための表示装置(たとえば、CRT(陰極管)もしくはLCD(液晶ディスプレイ)モニタ)、それによってユーザが入力をコンピュータに与えることができるキーボードおよびポインティングデバイス(たとえば、マウスもしくはトラックボール)を有するコンピュータ上で実現することができる。他の種類の装置を用いてユーザとの対話を提供することもできる。たとえば、ユーザに与えられるフィードバックは、任意の形態の感覚的フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であることができ、ユーザからの入力を、音響、音声、または触覚入力を含む任意の形態で受信することができる。
ここに記載されるシステムおよび技術を、(たとえば、データサーバとしての)バックエンド構成要素を含むまたはミドルウェア構成要素(たとえば、アプリケーションサーバ)を含む、またはフロントエンド構成要素(たとえば、それを通してユーザがここに記載されるシステムおよび技術の実現例と対話することができるグラフィックユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)、またはそのようなバックエンド、ミドルウェア、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステム中で実現することができる。システムの構成要素を、デジタルデータ通信(たとえば、通信ネットワーク)の任意の形態または媒体によって相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、およびインターネットを含む。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは一般的に互いから遠隔であり、典型的には通信ネットワークを通して対話する。クライアントとサーバとの関係は、それぞれのコンピュータで実行され互いに対してクライアント−サーバ関係を有するコンピュータプログラムによって発生する。
いくつかの実現例では、図9に示されるコンピューティングデバイスは、仮想現実(VRヘッドセット/HMD装置990)とインターフェイスするセンサを含むことができる。たとえば、図9に示されるコンピューティングデバイス950または他のコンピューティングデバイス上に含まれる1つ以上のセンサは、VRヘッドセット990に入力を与える、または一般的に入力をVR空間に与えることができる。センサは、タッチ画面、加速度計、ジャイロスコープ、圧力センサ、生体認証センサ、温度センサ、湿度センサ、および周囲光センサを含むことができるが、それらに限定されない。コンピューティングデバイス950は、センサを用いて、VR空間でのコンピューティングデバイスの絶対的位置および/または検出される回転を判定することができ、次にそれをVR空間への入力として用いることができる。たとえば、コンピューティングデバイス950を、コントローラ、レーザポインタ、キーボード、武器などの仮想オブジェクトとしてVR空間の中に組入れ得る。VR空間に組入れられた際のユーザによるコンピューティングデバイス/仮想オブジェクトの位置決めにより、ユーザはコンピューティングデバイスを位置決めできるようになり、ある態様でVR空間で仮想オブジェクトを見ることができる。たとえば、仮想オブジェクトがレーザポインタを表わす場合、ユーザはコンピューティングデバイスを、それがあたかも実際のレーザポインタであるかのように操作することができる。ユーザは、コンピューティングデバイスを、左右、上下、丸などに動かして、装置をレーザポインタを用いるのと同様の態様で用いることができる。
いくつかの実現例では、コンピューティングデバイス950上に含まれるまたはそれに接続する1つ以上の入力装置をVR空間への入力として用いることができる。入力装置は、タッチ画面、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイク、入力機能を有するイヤホンもしくはバッド、ゲームコントローラ、または他の接続可能な入力装置を含むことができるが、それらに限定されない。コンピューティングデバイスがVR空間に組入れられた際にコンピューティングデバイス950上に含まれる入力装置と対話するユーザは、特定の行為をVR空間に発生させることができる。
いくつかの実現例では、コンピューティングデバイス950のタッチ画面をVR空間におけるタッチパッドとして描画することができる。ユーザは、コンピューティングデバイス950のタッチ画面と対話することができる。対話は、VRヘッドセット990において、たとえば、VR空間中の描画されたタッチパッド上での動きとして描画される。描画される動きは、VR空間において仮想オブジェクトを制御することができる。
いくつかの実現例では、コンピューティングデバイス950上に含まれる1つ以上の出力装置は、VR空間でVRヘッドセット990のユーザに出力および/またはフィードバックを与えることができる。出力およびフィードバックは、視覚的、触覚的、または音声であることができる。出力および/またはフィードバックは、振動、1つ以上のライトもしくはストロボのオンおよびオフもしくは明滅および/もしくは点滅、アラームの鳴動、チャイムの鳴動、曲の演奏、ならびに音声ファイルの再生を含むことができるが、それらに限定されない。出力装置は、振動モータ、振動コイル、圧電装置、静電装置、発光ダイオード(LED)、ストロボ、およびスピーカを含むことができるが、それらに限定されない。
いくつかの実現例では、コンピューティングデバイス950は、コンピュータで生成される3D環境中の別のオブジェクトとして出現し得る。ユーザによるコンピューティングデバイス950との対話(たとえば、回転させること、揺らすこと、タッチ画面に触れること、タッチ画面を指でスワイプすること)を、VR空間でのオブジェクトとの対話として解釈することができる。VR空間でのレーザポインタの例では、コンピューティングデバイス950は、コンピュータで生成される3D環境中の仮想レーザポインタとして出現する。ユーザがコンピューティングデバイス950を操作すると、VR空間中のユーザはレーザポインタの動きを見る。ユーザは、コンピューティングデバイス950またはVRヘッドセット990上で、VR環境でのコンピューティングデバイス950との対話からフィードバックを受信する。
いくつかの実現例では、コンピューティングデバイス950はタッチ画面を含み得る。たとえば、ユーザは、VR空間で起こることとともにタッチ画面上で起こることに倣うことができる特定の態様でタッチ画面と対話することができる。たとえば、ユーザは、ピンチ型の動きを用いて、タッチ画面上に表示される内容をズームし得る。タッチ画面上でのこのピンチ型の動きにより、VR空間中に与えられる情報をズームすることができる。別の例では、コンピューティングデバイスは、コンピュータで生成される3D環境中の仮想の書籍として描画され得る。VR空間では、VR空間で書籍のページを表示することができ、タッチ画面上でのユーザの指のスワイプを、仮想の書籍のページ捲り/繰りとして解釈することができる。各々のページが捲られる/繰られると、ユーザには、ページの内容の変化を見ることに加えて、書籍のページを捲る音などの音声でのフィードバックが与えられ得る。
いくつかの実現例では、コンピューティングデバイスに加えて1つ以上の入力装置(たとえば、マウス、キーボード)をコンピュータで生成される3D環境中に描画することができる。描画される入力装置(たとえば、描画されるマウス、描画されるキーボード)を、VR空間中に描画されるものとして用いて、VR空間でオブジェクトを制御することができる。
コンピューティングデバイス900は、ラップトップ、デスクトップ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータを含むがそれらに限定されないさまざまな形態のデジタルコンピュータおよび装置を表わすことが意図される。コンピューティングデバイス950は、パーソナルデジタルアシスタント、セルラー電話、スマートフォン、および他の同様のコンピューティングデバイスなどの、さまざまな形態のモバイル装置を表わすことが意図される。ここに示される構成要素、それらの接続および関係、ならびにそれらの機能は、例示に過ぎないことが意図され、この書類に記載されるおよび/または請求される発明の実現例を限定することを意図しない。
以下の例に、さらなる実現例を要約する。
例1:方法であって、物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガすることと、第2の仮想オブジェクトを表わす第1の仮想オブジェクトの表示をトリガすることとを備え、該第1の仮想オブジェクトのサイズは該第2の仮想オブジェクトのサイズよりも小さく、さらに方法は、該第1の仮想オブジェクトとのユーザの対話の指示を受信することを備え、該ユーザは該第1の仮想オブジェクトのサイズよりも大きな第1のサイズを有し、さらに方法は、該第1の仮想オブジェクトとの対話に応答して該第2の仮想オブジェクトとの対話をトリガすることを備え、該ユーザは、該第2の仮想オブジェクトと対話する際は、該第1のサイズよりも大きな第2のサイズを有する、方法。
例2:該第1の仮想オブジェクトとの該対話は、該第1の仮想オブジェクト内の場所を選択することを含む、請求項1に記載の方法。
例3:該第2の仮想オブジェクトとの該対話は、該第1の仮想オブジェクトとの該対話に応答して、該第2の仮想オブジェクト内で、該第1の仮想オブジェクト内の該場所に対応する該第2の仮想オブジェクト内の場所に移動することを含む、請求項1または2に記載の方法。
例4:該移動することは、該第1の仮想オブジェクト内の該場所に対応する該第2の仮想オブジェクトにおいて瞬間移動することを含む、請求項1から3に記載の方法。
例5:該第1の仮想オブジェクトは地球の小型地球儀である、請求項1または2に記載の方法。
例6:該第1の仮想オブジェクトは該場所のストリートレベルビューを含む球体である、請求項1または2に記載の方法。
例7:該第1の仮想オブジェクトは、該第1の仮想オブジェクトとの該ユーザの対話の指示を受信する前に該ユーザのサイズが小さくなった場合には該球体に変更される、請求項6に記載の方法。
例8:該第1のオブジェクトとの該対話は、該第2のオブジェクトとの対応の対話に直接に変換される、請求項1に記載の方法。
例9:該第1のオブジェクトとの該対話は、後で該第2のオブジェクトとの対応の対話に変換される、請求項1に記載の方法。
例10:該第1のオブジェクトとの該対話は第1のレベルの対話を含み、該第1のレベルの対話の後に該第2の仮想オブジェクトとの第2のレベルの対話を伴う、請求項1に記載の方法。
例11:該第2のレベルの対話は、該第1のレベルの対話に対して地面レベルにより近い、請求項1から10に記載の方法。
例12:該第2の仮想オブジェクトは該第2の仮想オブジェクトと同一である、請求項1に記載の方法。
例13:方法であって、物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガすることと、第1のコントローラに関連付けられる第1の仮想オブジェクトの表示をトリガすることとを備え、該第1の仮想オブジェクトは第2の仮想オブジェクトの表現であり、該第1の仮想オブジェクトのサイズは該第2の仮想オブジェクトのサイズよりも小さく、さらに方法は、第2のコントローラを介して該第1の仮想オブジェクト内の場所を選択して該第2の仮想オブジェクト中の場所へのユーザの移動をトリガすることと、該第2の仮想オブジェクト内の対話の指示を受信することとを備える、方法。
例14:該第1の仮想オブジェクトは、該第1のコントローラの一部に近接した距離に固定されるように構成される、請求項13に記載の方法。
例15:該第1の仮想オブジェクトは、該第1のコントローラの移動に応答して移動するように構成される、請求項13または14に記載の方法。
例16:該第1の仮想オブジェクトは、該第2のコントローラを用いて該場所を選択することに応答して状態を変更するように構成される、請求項13から15に記載の方法。
例17:該第1の仮想オブジェクトのサイズは、該場所を選択することに応答する際に拡大される、請求項13から16に記載の方法。
例18:該第1の仮想オブジェクトのサイズは、場所が選択されない場合は縮小される、請求項13から16に記載の方法。
例19:機器であって、ヘッドマウントディスプレイ(HMD)装置と、第1のコントローラおよび第2のコントローラと、プロセッサとを備え、該プロセッサは、物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガし、かつ第1のコントローラに関連付けられる第1の仮想オブジェクトの表示をトリガするようにプログラミングされ、該第1の仮想オブジェクトは第2の仮想オブジェクトの表現であり、該第1の仮想オブジェクトのサイズは該第2の仮想オブジェクトのサイズよりも小さく、さらに該プロセッサは、第2のコントローラを介して該第1の仮想オブジェクト内の場所を選択して該第2の仮想オブジェクト中の場所へのユーザの移動をトリガし、かつ該第2の仮想オブジェクト内の対話の指示を受信するようにプログラミングされる、機器。
例20:該第1の仮想オブジェクトは、該第2のコントローラを用いて該場所を選択することに応答して状態を変更するように構成される、請求項19に記載のシステム。
多数の実施形態を記載した。それにも拘わらず、明細書の精神および範囲から逸脱することなく、さまざまな修正例がなされ得ることが理解される。
さらに、図に示される論理のフローは、所望の結果を達成するのに、示される特定の順序または順番を要件とするものではない。さらに、他のステップを設け得る、または記載されるフローからステップを排除し得る、また他の構成要素を記載されるシステムに追加し得るまたはそれから削除し得る。
方法ステップは、コンピュータプログラムを実行して入力データを操作しかつ出力を生成することによって機能を果たす1つ以上のプログラマブルプロセッサによって行なわれ得る。方法ステップは、特殊目的論理回路構成、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)、によっても行なわれ得、かつ機器はそのようなものとして実現され得る。
約、実質的に、一般的になどの、しかしそれらに限定されない用語は、本明細書中でその正確な値または範囲が要件とされないことかつその特定が必要でないことを示すために用いられる。本明細書で用いられるように、以上で論じた用語は、当業者にとって手近なかつすぐ入手できる意味を有し得る。
さらに、上、下、頂、底、側、端、前、後などの本明細書中の用語の使用は、現在検討されるまたは例示される向きを参照して用いられる。それらを別の向きについて検討する場合、そのような用語を対応して修正しなければならないことを理解すべきである。
さらに、この明細書および添付の請求項では、単数形の「a」、「an」、および「the」は、文脈が明確にそうでないと述べていなければ、複数を参照することを排除しない。さらに、「および」、「または」、および「および/または」などの接続詞は、文脈が明確にそうでないと述べていなければ、包括的である。たとえば、「Aおよび/またはB」は、A単独、B単独、およびBとともにAを含む。
これに加えて、提示されるさまざまな図に示される接続線およびコネクタは、さまざまな要素同士の間の例示的な機能的関係ならびに/または物理的もしくは論理的結合を表わすことが意図される。多数の代替的なおよび/もしくは付加的な機能的関係、物理的接続、または論理的接続が存在し得ることに留意すべきである。さらに、要素が「必須」または「不可欠」と具体的に記載されているのでなければ、いずれの項目または構成要素もこの開示の実践に必須ではない。これに加えて、図および/または図面は縮尺通りに描かれておらず、むしろ図示および説明の明瞭さのために描かれている。
製造のある例示的な方法、機器、および物品を本明細書中に記載するが、この特許の保護範囲はそれに限定されない。本明細書中で用いる用語は特定の局面を記載する目的のためのものであり、限定的であることを意図しないことを理解すべきである。反対に、この特許は、この特許の請求項の範囲内にはっきりと入る製造のすべての方法、機器、および物品をカバーする。

Claims (20)

  1. 方法であって、
    物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガすることと、
    第2の仮想オブジェクトを表わす第1の仮想オブジェクトの表示をトリガすることとを備え、前記第1の仮想オブジェクトのサイズは前記第2の仮想オブジェクトのサイズよりも小さく、さらに方法は、
    前記第1の仮想オブジェクトとのユーザの対話の指示を受信することを備え、前記ユーザは前記第1の仮想オブジェクトの前記サイズよりも大きな第1のサイズを有し、さらに方法は、
    前記第1の仮想オブジェクトとの対話に応答して前記第2の仮想オブジェクトとの対話をトリガすることを備え、前記ユーザは、前記第2の仮想オブジェクトと対話する際は、前記第1のサイズよりも大きな第2のサイズを有する、方法。
  2. 前記第1の仮想オブジェクトとの前記対話は、前記第1の仮想オブジェクト内の場所を選択することを含む、請求項1に記載の方法。
  3. 前記第2の仮想オブジェクトとの前記対話は、前記第1の仮想オブジェクトとの前記対話に応答して、前記第2の仮想オブジェクト内で、前記第1の仮想オブジェクト内の前記場所に対応する前記第2の仮想オブジェクト内の場所に移動することを含む、請求項2に記載の方法。
  4. 前記移動することは、前記第1の仮想オブジェクト内の前記場所に対応する前記第2の仮想オブジェクトにおいて瞬間移動することを含む、請求項3に記載の方法。
  5. 前記第1の仮想オブジェクトは地球の小型地球儀である、請求項2に記載の方法。
  6. 前記第1の仮想オブジェクトは前記場所のストリートレベルビューを含む球体である、請求項2に記載の方法。
  7. 前記第1の仮想オブジェクトは、前記第1の仮想オブジェクトとの前記ユーザの対話の指示を受信する前に前記ユーザのサイズが小さくなった場合には前記球体に変更される、請求項6に記載の方法。
  8. 前記第1の仮想オブジェクトとの前記対話は、前記第2の仮想オブジェクトとの対応の対話に直接に変換される、請求項1に記載の方法。
  9. 前記第1の仮想オブジェクトとの前記対話は、後で前記第2の仮想オブジェクトとの対応の対話に変換される、請求項1に記載の方法。
  10. 前記第1の仮想オブジェクトとの前記対話は第1のレベルの対話を含み、前記第1のレベルの対話の後に前記第2の仮想オブジェクトとの第2のレベルの対話を伴う、請求項1に記載の方法。
  11. 前記第2のレベルの対話での前記ユーザは、前記第1のレベルの対話での前記ユーザよりも小さい、請求項10に記載の方法。
  12. 前記第1の仮想オブジェクトは前記第2の仮想オブジェクトと同一である、請求項1に記載の方法。
  13. 方法であって、
    物理的環境で動作するヘッドマウントディスプレイ(HMD)装置において仮想環境の表示をトリガすることと、
    第1のコントローラに関連付けられる第1の仮想オブジェクトの表示をトリガすることとを備え、前記第1の仮想オブジェクトは第2の仮想オブジェクトの表現であり、前記第1の仮想オブジェクトのサイズは前記第2の仮想オブジェクトのサイズよりも小さく、さらに方法は、
    第2のコントローラを介して前記第1の仮想オブジェクト内の場所を選択して前記第2の仮想オブジェクト中の場所へのユーザの移動をトリガすることと、
    前記第2の仮想オブジェクト内の対話の指示を受信することとを備える、方法。
  14. 前記第1の仮想オブジェクトは、前記第1のコントローラの一部に近接した距離に固定されるように構成される、請求項13に記載の方法。
  15. 前記第1の仮想オブジェクトは、前記第1のコントローラの移動に応答して移動するように構成される、請求項13に記載の方法。
  16. 前記第1の仮想オブジェクトは、前記第2のコントローラを用いて前記場所を選択することに応答して状態を変更するように構成される、請求項13に記載の方法。
  17. 前記第1の仮想オブジェクトのサイズは、前記場所を選択することに応答する際に拡大される、請求項16に記載の方法。
  18. 前記第1の仮想オブジェクトのサイズは、場所が選択されない場合は縮小される、請求項16に記載の方法。
  19. システムであって、
    ヘッドマウントディスプレイ(HMD)装置と、
    第1のコントローラおよび第2のコントローラと、
    プロセッサとを備え、前記プロセッサは、
    物理的環境で動作する前記HMD装置において仮想環境の表示をトリガし、かつ
    前記第1のコントローラに関連付けられる第1の仮想オブジェクトの表示をトリガするようにプログラミングされ、前記第1の仮想オブジェクトは第2の仮想オブジェクトの表現であり、前記第1の仮想オブジェクトのサイズは前記第2の仮想オブジェクトのサイズよりも小さく、さらに前記プロセッサは、
    前記第2のコントローラを介して前記第1の仮想オブジェクト内の場所を選択して前記第2の仮想オブジェクト中の場所へのユーザの移動をトリガし、かつ
    前記第2の仮想オブジェクト内の対話の指示を受信するようにプログラミングされる、システム。
  20. 前記第1の仮想オブジェクトは、前記第2のコントローラを用いて前記場所を選択することに応答して状態を変更するように構成される、請求項19に記載のシステム。
JP2019508246A 2016-11-15 2017-11-15 仮想現実におけるロケーショングローブ Active JP6778815B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662422563P 2016-11-15 2016-11-15
US62/422,563 2016-11-15
PCT/US2017/061816 WO2018093912A1 (en) 2016-11-15 2017-11-15 Location globe in virtual reality

Publications (2)

Publication Number Publication Date
JP2019530064A true JP2019530064A (ja) 2019-10-17
JP6778815B2 JP6778815B2 (ja) 2020-11-04

Family

ID=60629806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019508246A Active JP6778815B2 (ja) 2016-11-15 2017-11-15 仮想現実におけるロケーショングローブ

Country Status (8)

Country Link
US (1) US10635259B2 (ja)
EP (1) EP3542248B1 (ja)
JP (1) JP6778815B2 (ja)
KR (1) KR102251252B1 (ja)
CN (1) CN108604123B (ja)
DE (2) DE112017005753T5 (ja)
GB (1) GB2561738B (ja)
WO (1) WO2018093912A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101038A1 (ja) * 2022-11-11 2024-05-16 株式会社Nttドコモ アバター移動装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10168798B2 (en) * 2016-09-29 2019-01-01 Tower Spring Global Limited Head mounted display
US10926056B2 (en) * 2017-09-14 2021-02-23 Advanced Micro Devices, Inc. Method, apparatus and system for mitigating motion sickness in a virtual reality environment
CN113498531A (zh) 2019-03-06 2021-10-12 麦克赛尔株式会社 头戴式信息处理装置以及头戴式显示系统
CN111309243B (zh) * 2020-03-05 2022-06-07 Oppo广东移动通信有限公司 一种信息显示方法、装置及存储介质
US20210358294A1 (en) * 2020-05-15 2021-11-18 Microsoft Technology Licensing, Llc Holographic device control
US11747617B2 (en) * 2020-07-24 2023-09-05 Padula Rehabilitation Technologies, Llc Systems and methods for a parallactic ambient visual-field enhancer
US11206313B1 (en) 2020-09-09 2021-12-21 Oracle International Corporation Surrogate cache for optimized service access with compact user objects and offline database updates
JP1719677S (ja) * 2021-08-26 2022-07-13 情報表示機能付き電子計算機

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080288893A1 (en) * 2005-08-12 2008-11-20 Globe Assistant B.V. Method and Device for Visualization of Information
WO2014016987A1 (ja) * 2012-07-27 2014-01-30 Necソフト株式会社 3次元ユーザインタフェース装置及び3次元操作方法
US20140266988A1 (en) * 2013-03-15 2014-09-18 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133531A2 (en) * 2008-05-01 2009-11-05 Animation Lab Ltd. Device, system and method of interactive game
US9710554B2 (en) * 2010-09-23 2017-07-18 Nokia Technologies Oy Methods, apparatuses and computer program products for grouping content in augmented reality
US9767613B1 (en) * 2015-01-23 2017-09-19 Leap Motion, Inc. Systems and method of interacting with a virtual object
US9852546B2 (en) * 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US9766713B2 (en) * 2015-09-08 2017-09-19 Unity IPR ApS System and method for providing user interface tools
CN105425955A (zh) * 2015-11-06 2016-03-23 中国矿业大学 多用户沉浸式全互动虚拟现实工程培训系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080288893A1 (en) * 2005-08-12 2008-11-20 Globe Assistant B.V. Method and Device for Visualization of Information
WO2014016987A1 (ja) * 2012-07-27 2014-01-30 Necソフト株式会社 3次元ユーザインタフェース装置及び3次元操作方法
US20140266988A1 (en) * 2013-03-15 2014-09-18 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Navigating and Selecting in the Virtual Supermarket: Review and Update of Classic Interaction Techni", VIRTUELLE UND ERWEIERTE REALITAT: 7.WORKSHOP DER GI-FACHGRUPPE VR/AR, JPN6020023689, 25 January 2010 (2010-01-25), pages 1 - 12, ISSN: 0004299414 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101038A1 (ja) * 2022-11-11 2024-05-16 株式会社Nttドコモ アバター移動装置

Also Published As

Publication number Publication date
GB201807762D0 (en) 2018-06-27
KR20190027898A (ko) 2019-03-15
KR102251252B1 (ko) 2021-05-12
US10635259B2 (en) 2020-04-28
DE112017005753T5 (de) 2019-08-22
CN108604123A (zh) 2018-09-28
GB2561738A (en) 2018-10-24
DE212017000252U1 (de) 2019-06-28
EP3542248A1 (en) 2019-09-25
GB2561738B (en) 2021-10-13
US20180136816A1 (en) 2018-05-17
EP3542248B1 (en) 2023-07-26
JP6778815B2 (ja) 2020-11-04
WO2018093912A1 (en) 2018-05-24
CN108604123B (zh) 2023-03-17

Similar Documents

Publication Publication Date Title
US10635259B2 (en) Location globe in virtual reality
EP3548989B1 (en) Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment
US10545584B2 (en) Virtual/augmented reality input device
US10509487B2 (en) Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
EP3414643B1 (en) Laser pointer interactions and scaling in virtual reality
JP6682623B2 (ja) 拡張および/または仮想現実環境におけるテレポーテーション
US10359863B2 (en) Dragging virtual elements of an augmented and/or virtual reality environment
US9685005B2 (en) Virtual lasers for interacting with augmented reality environments
US20180150204A1 (en) Switching of active objects in an augmented and/or virtual reality environment
US20190012060A1 (en) Volumetric multi-selection interface for selecting multiple objects in 3d space
KR102463080B1 (ko) 머리 착용형 디스플레이 장치 및 머리 착용형 디스플레이 장치의 콘텐트 표시방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R150 Certificate of patent or registration of utility model

Ref document number: 6778815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250