JP6682623B2 - 拡張および/または仮想現実環境におけるテレポーテーション - Google Patents

拡張および/または仮想現実環境におけるテレポーテーション Download PDF

Info

Publication number
JP6682623B2
JP6682623B2 JP2018513627A JP2018513627A JP6682623B2 JP 6682623 B2 JP6682623 B2 JP 6682623B2 JP 2018513627 A JP2018513627 A JP 2018513627A JP 2018513627 A JP2018513627 A JP 2018513627A JP 6682623 B2 JP6682623 B2 JP 6682623B2
Authority
JP
Japan
Prior art keywords
virtual
scale
detecting
input device
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018513627A
Other languages
English (en)
Other versions
JP2019502178A (ja
Inventor
グレイザー,アダム
パーカー,エバン・ハーデスティ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019502178A publication Critical patent/JP2019502178A/ja
Application granted granted Critical
Publication of JP6682623B2 publication Critical patent/JP6682623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Description

関連出願の相互参照
本願は、2015年12月3日に出願された米国仮出願第62/262,451号に基づく優先権を主張する2016年12月2日に出願された米国出願第15/368,191号の継続出願でありそれに基づく優先権を主張する。これらの開示を本明細書に引用により援用する。
本願は、その開示を本明細書に引用により援用する2015年12月3日に出願された米国仮出願第62/262,451号に基づく優先権を主張する。
分野
本明細書は、概して、仮想現実環境におけるテレポーテーションおよびスケール変更に関する。
背景
拡張現実(augmented reality:AR)システムおよび/または仮想現実(virtual reality:VR)システムは、3次元(3D)没入型仮想環境を生成することができる。ユーザは、この仮想環境を、さまざまな電子デバイスとの対話を通して体験し得る。これらの電子デバイスは、たとえば、ディスプレイを含むヘルメットまたはその他のヘッドマウントデバイス、ユーザがディスプレイ装置を見るときに用いる眼鏡またはゴーグル、センサが装着された手袋、センサを含む外部ハンドヘルドデバイス、およびその他のこのような電子デバイス等を含む。仮想環境に没入すると、ユーザは身体の動きおよび/または電子デバイスの操作によって仮想環境の中を移動し、仮想環境の他の領域にテレポートし得る。これによりユーザは、仮想環境と対話し、仮想環境との対話を個人専用にする。
概要
一局面において、方法は、仮想環境に対する第1の仮想スケールでの閲覧用に、仮想環境における第1の仮想位置の仮想レンダリングを表示するステップと、第2の仮想位置の選択と、第2の仮想位置の閲覧用の第2の仮想スケールの選択との入力を受け付けるステップとを含み得る。第1の仮想スケールと第2の仮想スケールとは異なっている。方法はさらに、入力を受け付けた後に、第2の仮想スケールで第2の仮想位置にテレポートするステップを含み得る。
別の局面において、システムは、仮想環境を生成するように構成されたコンピューティングデバイスを備え得る。コンピューティングデバイスは、実行可能な命令を格納するメモリと、命令を実行するように構成されたプロセッサとを含む。命令の実行は、コンピューティングデバイスに、仮想環境において第1の仮想スケールでの閲覧用に仮想環境の第1の仮想位置の仮想レンダリングを表示すること、仮想環境における第2の仮想位置の選択と、第2の仮想位置の閲覧用の第2の仮想スケールの選択とを示す入力を受け付けること、および入力を受け付けた後に、第2の仮想スケールで第2の仮想位置にテレポートすることを行なわせ得る。
1つ以上の実装例の詳細を、添付の図面および以下の説明に記載する。その他の特徴は、明細書、図面、および特許請求の範囲から明らかであろう。
本明細書に記載の例示的な実装例に従う、ヘッドマウントディスプレイデバイスおよびハンドヘルド電子デバイスを含む仮想現実システムの一実装例を示す図である。 本明細書に記載の実装例に従う、ヘッドマウントディスプレイデバイスの一例の斜視図である。 本明細書に記載の実装例に従う、ヘッドマウントディスプレイデバイスの一例の斜視図である。 本明細書に記載の実装例に従う、ヘッドマウント電子デバイスおよびハンドヘルド電子デバイスのブロック図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を示す第三者ビューを示す図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポートの方法のフローチャートである。 本明細書に記載の手法を実現するために使用することが可能なコンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す。
詳細な説明
たとえばヘッドマウントディスプレイ(head mounted display:HMD)デバイスを装着し、拡張現実および/または仮想現実環境に没入しているユーザは、さまざまな異なる種類の入力によって仮想環境を探検し、仮想環境における仮想オブジェクトおよび仮想特徴等と対話することができる。これらの入力は、たとえば、HMDから分離した電子デバイスの操作(たとえば、電子デバイスおよび/またはHMDから発せられた仮想光線または仮想ビーム等)、電子デバイスおよび/またはHMDの動き、および、電子デバイスおよび/またはHMDのタッチセンシティブ面上になされたタッチ等を含む物理的な対話、および/または、手/腕のジェスチャー、頭の動き、および/または頭および/または方向付けられた視線等を含み得る。ユーザは、これらの各種の対話のうちの1つ以上を実施することにより、たとえば仮想環境の中を移動し、仮想環境の第1の領域から仮想環境の第2の領域へ、または第1の仮想環境から第2の仮想環境へ移動、遷移、またはテレポートする等、仮想環境における特定の動作を実行することができる。
本明細書に記載の実装例に従うシステムおよび方法は、仮想環境の第1の仮想領域から仮想環境の第2の仮想領域へ、および/または第1の仮想環境から第2の仮想環境へのテレポーテーションを容易にし得る。本明細書では、テレポートは、第1の仮想位置の代わりに第2の仮想位置のレンダリングを仮想環境において表示することを含む。本明細書に記載の実装例に従うシステムおよび方法により、ユーザは、第1の仮想領域から第2の仮想領域へ、または第1の仮想環境から第2の仮想環境へ移動しつつ、ユーザに対する仮想環境のスケール(仮想スケールと称する場合もある)を調整し、かつ、それに対応した遠近感でスケール変更することも可能である。このスケール変更および対応する遠近感の変化は、たとえば、仮想環境の要素に対するユーザのサイズの知覚的拡大、および/または仮想環境の要素のサイズの縮小(および対応する遠近感の変化)、または、仮想環境の要素に対するユーザのサイズの知覚的縮小、および/または仮想環境の要素のサイズの拡大(および対応する遠近感の変化)を含み得る。スケール変更は、この知覚的サイズの変化に加えて、外観および遠近感が変化しても意図された比率が維持されるように、ユーザの目の間の仮想距離の変化に基づく調整を行なうことも含み得る。
このように、ユーザは、選択されてスケール変更されたサイズおよび/または遠近感で、第2の仮想領域または第2の仮想環境に到達し得る。これによりユーザは、1つの動作で、選択されてスケール変更された遠近感および/またはサイズで、仮想環境の第1の仮想領域から第2の仮想領域へ、または第1の仮想環境から第2の仮想環境への実質的に切れ目のない遷移を体験することができる。すなわち、ユーザが第2の仮想領域または第2の仮想位置、およびスケール変更された遠近感および/またはサイズを選択すると、1つのコマンド(たとえば、コントローラの操作デバイスの操作等)によって、ユーザの仮想位置および仮想遠近感に関して仮想環境において選択された変化が引き起こされる。これにより、ユーザには、実質的に瞬間的な動きであるという感覚が与えられる。
図1に示す例示的な実装例では、HMD100を装着しているユーザがポータブルハンドヘルド電子デバイス102を持っている。ハンドヘルド電子デバイス102はたとえば、HMD100によって生成され、たとえばHMD100のディスプレイ上でユーザに対して表示された仮想環境における対話のためにHMD100とペアリングおよび通信し得るコントローラ、スマートフォン、ジョイスティック、または別のポータブルハンドヘルド電子デバイスであり得る。ハンドヘルド電子デバイス102は、たとえば、有線接続、または、たとえばWiFi(登録商標)接続もしくはBluetooth(登録商標)接続を介した無線接続により、HMD100と動作可能に結合またはペアリングされてもよい。このようなハンドヘルド電子デバイス102およびHMD100のペアリングまたは動作可能な結合は、ハンドヘルド電子デバイス102とHMD100との間の通信、およびハンドヘルド電子デバイス102とHMD100との間のデータのやり取りを提供し得る。これによりハンドヘルド電子デバイス102は、HMD100によって生成された没入型仮想環境において対話するためにHMD100と通信するコントローラとして機能することが可能である。すなわち、たとえば、ハンドヘルド電子デバイス102から仮想オブジェクトへ選択のために向けられた仮想ビームまたは仮想光線、および/またはハンドヘルド電子デバイス102のタッチ面上で受け付けられた入力、および/またはハンドヘルド電子デバイス102の動き等のハンドヘルド電子デバイス102の操作は、HMD100によって生成および表示された仮想環境における対応の選択、動き、または他の種類の対話に変換され得る。これは、たとえば現在の仮想環境から選択された移動先の仮想環境へのユーザのテレポーテーションを含んでもよく、いくつかの実装例では、選択された移動先の仮想環境へのテレポーテーションに合わせた、ユーザ選択に基づくユーザの遠近感または知覚的サイズのスケール変更を含んでもよい。
図1に示す例示的な実装例は、HMD100と通信する1つのハンドヘルド電子デバイス102を含む。ハンドヘルド電子デバイス102は、HMD100とデータをやり取りし、HMD100によって生成された仮想環境における特徴、要素、およびオブジェクト等と対話するためのものである。しかしながら、いくつかの実装例では、2つ以上のハンドヘルド電子デバイス102がHMD100に動作可能に結合され、HMD100と通信してもよく、仮想環境における対話のために一緒にまたは別々に動作し得る。
図2Aおよび図2Bは、たとえば、ユーザによって装着される図1のHMD100のような、HMDの一例の斜視図である。HMD100は、フレーム120に結合された筐体110を含んでもよく、たとえばヘッドフォンに搭載されたスピーカを含む音声出力装置130がフレーム120に結合されている。図2Bにおいて、筐体110の前部110aは、筐体110に収容されている部品の一部が見えるように、筐体110の基部110bから離れる方向に回転させている。ディスプレイ140が筐体110の前部110aの内面側に搭載されてもよい。レンズ150が、筐体110の内部において、前部110aが筐体110の基部110bに対して閉じられた位置にあるときにユーザの目とディスプレイ140との間に来るように搭載されてもよい。いくつかの実装例において、HMD100は、各種センサを含む検知システム160と、HMD100の操作を容易にするプロセッサ190および各種制御システム装置を含む制御システム170とを備えてもよい。
いくつかの実装例において、HMD100は、たとえば静止画および動画を取込むための画像センサおよび/または光センサを含むカメラ180を含んでもよい。カメラ180によって取込まれた画像は、現実世界、または仮想環境に対する物理環境におけるユーザおよび/またはハンドヘルド電子デバイス102の物理的位置を追跡するのを助けるために使用されてもよく、および/または、パススルーモードにおいてディスプレイ140上でユーザに対して表示されてもよい。これによりユーザは、現実世界、物理環境の様相に関して状況を認識することができ、および/または、HMD100を外すことなく、そうでなければHMD100の構成を変更して筐体110をユーザの視線から外れるように移動させることなく、一時的に仮想環境から離れて物理環境に戻ることができる。
いくつかの実装例では、HMD100は、ユーザの視線を検出および追跡するための視線追跡装置165を含んでもよい。視線追跡装置165は、ユーザの目(たとえば、瞳孔等のユーザの目の特定の部分)の画像を取込み、ユーザの視線の方向および動きを検出および追跡するために、たとえば1つまたは複数の画像センサ165Aを含んでもよい。いくつかの実装例では、HMD100は、検出された視線が、仮想環境における対応の対話に変換されるユーザ入力として処理されるように構成されてもよい。
図3に、拡張および/または仮想現実環境におけるテレポーテーションおよびスケール変更を提供するシステムのブロック図を示す。システムは、第2の電子デバイス302と通信する第1の電子デバイス300を含んでもよい。第1の電子デバイス300は、たとえば図1、図2A、および図2Bに関して上述した、仮想環境を生成および表示するHMDであってもよい。第2の電子デバイス302は、たとえば図1に関して上述した、第1の電子デバイス300によって生成および表示された仮想環境とのユーザ対話を容易にするために第1の電子デバイス300と通信するハンドヘルド電子デバイスであってもよい。
第1の電子デバイス300は、図2Aおよび図2Bに示す検知システム160および制御システム170とそれぞれ同様であり得る検知システム360および制御システム370を含んでもよい。検知システム360は、たとえば光センサ、音声センサ、画像センサ、距離/近接センサ、および/または他のセンサを含む1つ以上の各種センサ、および/または、ユーザの視線を検出および追跡するように位置付けられた、たとえば画像センサ(たとえば、図2Bに示す視線追跡装置165等)を含む各種組合せのセンサを含んでもよい。制御システム370は、たとえば、電源/停止制御装置、音声およびビデオ制御装置、光学制御装置、遷移制御装置、および/またはその他のこのような装置および/または装置の各種組合わせを含んでもよい。検知システム360および/または制御システム370は、具体的な実装例に応じて、より多くのまたはより少ない装置を含んでもよい。検知システム360および/または制御システム370に含まれる要素は、たとえば、図2Aおよび図2Bに示されるHMD100以外のHMDの内部で、異なる物理的構成(たとえば異なる物理的位置)を有してもよい。また、第1の電子デバイス300は、検知システム360および制御システム370と通信するプロセッサ390と、メモリ380と、第1の電子デバイス300と別の外部装置(たとえば、第2の電子デバイス302等)との間の通信を提供する通信モジュール350と、を含んでもよい。
第2の電子デバイス302は、当該第2の電子デバイス302と別の外部装置(たとえば、第1の電子デバイス300等)との間の通信を提供する通信モジュール306を含んでもよい。第1の電子デバイス300と第2の電子デバイス302との間のデータのやり取りを提供することに加えて、通信モジュール306は、上述のような仮想光線または仮想ビームを発するように構成されてもよい。第2の電子デバイス302は、検知システム304を含んでもよい。検知システム304は、たとえば、例としてカメラおよびマイクに含まれるもののような画像センサおよび音声センサと、慣性測定部と、ハンドヘルド電子デバイス、コントローラ、またはスマートフォンのタッチセンシティブ面に含まれるもののようなタッチセンサと、その他のこのようなセンサおよび/またはセンサの各種組合わせとを含んでもよい。プロセッサ309は、第2の電子デバイス302の検知システム304およびコントローラ305と通信し得る。コントローラ305は、メモリ308にアクセスすることができ、第2の電子デバイス302の全体の動作を制御する。
仮想現実システムの例示的な実装例を図4A〜図4Dおよび図5A〜図5Fに示す。この仮想現実システムの実装例により、ユーザが第1の仮想位置から第2の仮想位置へテレポートし、同時に、ユーザが新たに選択したスケールに従って第2の仮想位置のユーザの遠近感または見え方をスケール変更するように、仮想環境の仮想要素に対するユーザの遠近感および/または知覚的サイズをスケール変更することが可能になる。図4A〜図4Dおよび図5A〜図5Fは、たとえば、たとえばHMD100のディスプレイ140上でユーザが閲覧する、HMD100によって生成された仮想特徴/仮想オブジェクト/仮想要素(たとえば、橋、および水等)を含む仮想環境の光景を含むユーザの第三者ビューを示す。これらの要素は、たとえばHMD100内のディスプレイ140上でユーザによって閲覧され得る。これらの仮想オブジェクトの表示は、説明および図示を単に分かり易くするために、HMD100とは別に図4A〜図4Dおよび図5A〜図5Fで示す。
図4Aに示すように、第1の仮想位置Aに位置付けられたユーザは、ハンドヘルド電子デバイス102上の制御機構を操作し得る。ハンドヘルド電子デバイス102上でユーザにより操作される制御機構は、ハンドヘルド電子デバイス102上に設けられる多数の各種制御機構、たとえば、トリガ、ボタン、つまみ、トグル、スイッチ、ジョイスティック、および/またはタッチセンシティブ面等のうちのいずれであってもよい。単に説明および図示を分かり易くするために、ハンドヘルド電子デバイス102上でユーザにより操作される制御機構を、以下ではトリガと称する。
トリガの操作により、ハンドヘルド電子デバイス102から第2の仮想位置Bへ、仮想ビーム400が外方に向けられ得る。テレポーテーションのために選択される第2の仮想位置Bに仮想ビーム400が交わるように、ユーザはハンドヘルド電子デバイス102を動かし得る。図4Bに示すように、仮想ビーム400と選択される仮想オブジェクトとの間の交点400B(この例では第2の仮想位置B)は、たとえば、仮想ビームと選択された第2の仮想位置Bとの間の交点における仮想ビーム400の終端400Bまたは終点400Bによって表わされ得る。これは、ユーザが第1の仮想位置Aから第2の仮想位置Bへのテレポートを望んでいることを示す。以下において、単に説明および図示を分かり易くするために、仮想ビーム400と選択される仮想オブジェクトとの間の交点領域を仮想終点400Bと称する。しかしながら、選択される仮想オブジェクトと交わる仮想ビーム400の任意の指定部分の検出、および/または、選択される仮想オブジェクトの所定の近接範囲内の仮想ビーム400の任意の指定部分の検出を、仮想オブジェクトの選択および操作のための入力とみなしてもよい。図4Bに示すように、システムは、第2の仮想位置Bに向けられた仮想ビーム400に加えて、仮想環境における仮想要素に対するユーザの現在のサイズまたはユーザの現在のスケールでユーザの仮想視覚表示410を生成してもよい。
図4Cに示すように、たとえばハンドヘルド電子デバイス102を上方または+Y方向に動かすことによって、またはトリガを上方または+Y方向に操作することによって、トリガを操作し続けてハンドヘルド電子デバイス102を操作することにより、ユーザは、たとえば、第2の仮想位置Bへのテレポーテーション時に体験するサイズ、スケール、または遠近感に調整(たとえば、拡大)され得る。このように、ユーザがスケールを調整するためにハンドヘルド電子デバイス102を操作し続ける際、ユーザがハンドヘルド電子デバイス102を動かした通りにユーザの視覚表示410のサイズが拡大し、図4Cに示すような相対スケールの視覚表示がユーザに提供され得る。このように、ユーザが所望の第2の仮想位置Bおよび所望の第2のスケールを選択し、次いでトリガを解放すると、システムは、図4Dに示すように遠近感が拡大スケールに調整された状態で、ユーザを第2の仮想位置Bにテレポートさせることができる。
同様に、図5Aに示すように、第1の仮想位置Aに位置付けられたユーザは、ハンドヘルド電子デバイス102上でトリガまたは他の制御機構を操作し得る。トリガの操作によって仮想ビーム400が生成され、ユーザは、仮想ビーム400の終端400Bが第2の仮想位置Bに向けられるように、仮想ビーム400を方向付け得る。図5Bに示すように、システムは、第2の仮想位置Bに向けられた仮想ビーム400に加えて、ユーザの現在のサイズまたはスケールでユーザの視覚表示410を生成してもよい。図5Cに示すように、トリガを操作し続け、ハンドヘルド電子デバイス102を下方または−Y方向に動かすことによって、またはトリガを下方または−Y方向に操作することによって、第2の仮想位置Bにおける仮想特徴に対するユーザのサイズもしくはスケールが縮小され、または遠近感が調整され得る。ユーザの視覚表示410のサイズは、ユーザがハンドヘルド電子デバイス102を動かした通りに縮小され、図5Cに示すような相対スケールの視覚表示がユーザに提供される。このように、ユーザが所望の第2の仮想位置Bおよび所望の第2のスケールを選択し、次いでトリガを解放すると、システムは、図5Dに示すように遠近感が縮小スケールに調整された状態で、ユーザを仮想位置Bにテレポートさせることができる。
図4A〜図4Dおよび図5A〜図5Dに示す例では、仮想ビーム400をハンドヘルド電子デバイス102から外方に向け、次いで、終点400Bを第2の仮想位置Bに位置付けるように仮想ビーム400を動かすとともに、ハンドヘルド電子デバイスの物理的な動きによってスケールの拡大/縮小を達成する。しかしながら、いくつかの実装例では、たとえばHMD100等の別の基準点から仮想ビーム400を外方に向けることによって第2の仮想位置Bの選択を達成してもよく、および/またはユーザの視線入力を用いて第2の仮想位置Bを選択してもよく、および/またはその他のこのような選択入力態様でもよい。
図4A〜図4Dおよび図5A〜図5Dに示す例では、ユーザは上方向/+Y方向および/または下方向/−Y方向へのハンドヘルド電子デバイス102の物理的な動きを適用することにより、所望のスケールの拡大および/または縮小を指示する。しかしながらこれは、スケール調整をもたらすために適用され得るハンドヘルド電子デバイス102の操作の一例にすぎない。たとえばいくつかの実装例において、ユーザは、ハンドヘルド電子デバイス102のタッチ面上にドラッグ入力を適用することによって所望のスケールの拡大または縮小を指示してもよく、および/または、ハンドヘルド電子デバイス102上のトグル、スライド、または矢印スイッチを操作することによって所望のスケールの拡大または縮小を指示してもよく、またはその他のこのようなハンドヘルド電子デバイス102の操作であってもよい。
図4A〜図4Dおよび図5A〜図5Dに示す例では、第2の仮想位置に対するユーザの視覚表示410は、選択されたテレポート位置におけるスケール変更されたサイズ/遠近感でのユーザの影という形態である。しかしながら、いくつかの実装例において、スケールの視覚インジケータは、たとえばサイズが拡大/縮小するバー、および仮想測定装置に沿ったカーソルの動き等の、他の方法で提供されてもよい。さらに、図4A〜図4Dおよび図5A〜図5Dに示す例では、選択されたテレポート位置に対してユーザのサイズがスケール変更される。しかしながら、いくつかの実装例では、ユーザのサイズは同じままの状態で、環境がスケール変更されてもよい。これにより、実質的に同様の作用が提供される。
テレポートした状態(図4Dに示すように仮想環境に対して拡大したユーザスケール、および図5Dに示すように仮想環境に対して縮小したユーザスケール)において、ユーザの視覚体験は、単にズームアウト(図4Dに示す拡大ユーザスケールの場合)またはズームイン(図5Dに示す縮小ユーザスケールの場合)だけではない。そうではなく、このようにユーザのスケールまたは遠近感が拡大および縮小される際に、仮想位置のユーザの全体の遠近感が調整される。すなわち、仮想位置におけるオブジェクトの、スケール変更された遠近感でのユーザへの見え方は、空間属性、すなわちオブジェクトに対する目の位置に関連した寸法に基づく。たとえば、拡大ユーザスケールでは、第2の仮想位置Bにおける仮想オブジェクト(たとえば図4Dにおける橋)の外観は、ユーザのサイズの拡大に対応して実質的にサイズが縮小したようにユーザには見えて、ユーザの目の間の仮想距離の増加に基づくスケール調整も行なわれる。同様に、縮小ユーザスケールでは、第2の仮想位置Bにおける仮想オブジェクト(たとえば図5Dにおける橋)の外観は、ユーザのサイズの縮小に対応して実質的にサイズが拡大したようにユーザには見えて、ユーザの目の間の仮想距離の減少に基づくスケール調整も行なわれる。
このように、単にズームインまたはズームアウトするのではなく空間属性に基づいてスケール変更することによって、ユーザが体験する仮想位置における、より現実に即した仮想オブジェクトの遠近感が提供される。さらに、スケール変更されたユーザサイズおよび遠近感も加味した仮想位置へのテレポーテーションにより、第1の仮想位置Aから第2の仮想位置Bへの比較的切れ目のないテレポーテーションが提供され得る。これにより、仮想環境におけるユーザの体験が向上する。
いくつかの実装例では、ユーザは、第2の仮想位置Bの初期選択の後、かつ第2の仮想位置Bへのテレポートの前に、第2の仮想位置Bにおける到着位置をシフトまたは調整するように選択してもよい。たとえば図5Eに示すように、図5Cに示すように所望の量だけユーザのスケールを縮小(または、図4Cに示すように所望の量だけユーザのスケールを拡大)させた後、かつトリガを解放して調整後のユーザスケールで第2の仮想位置Bにテレポートする前に、ユーザは、ハンドヘルド電子デバイス102を左または右、すなわち±X方向に動かすことによって(またはハンドヘルド電子デバイス102の別の制御機構を同様に操作することによって)、たとえば、仮想位置Bによって示される位置の左または右、すなわち±X方向にテレポート到着位置をシフトまたは調整してもよい。同様に、図5Eに示すように、トリガを解放して第2の仮想位置Bにテレポートする前に、ユーザは、ハンドヘルド電子デバイス102を前方向および/または後方向、すなわち±Z方向に動かすことによって(またはハンドヘルド電子デバイス102の別の制御機構を同様に操作することによって)、前方向および/または後方向、すなわち±Z方向にテレポート到着位置をシフトまたは調整してもよい。上述のようにユーザがハンドヘルド電子デバイス102を±X方向および/または±Z方向に動かすことによって所望の通りにテレポート到着位置を調整すると、トリガの解放によって、ユーザは第2の仮想位置Bへ、スケール変更されたユーザサイズで、かつシフトしたテレポート到着位置でテレポートされ得る。
いくつかの状況では、図4Bおよび図5Bに示すように、ユーザはハンドヘルド電子デバイス102から仮想位置Bへ仮想ビーム400を向け(または、HMD100から第2の仮想位置Bへ仮想ビーム400を向け、または上述のように別の方法で第2の仮想位置Bを選択し)、第1の仮想位置Aから第2の仮想位置Bへテレポートするための入力としてトリガを操作した後に、第2の仮想位置Bへのテレポートを望まない旨を決定する場合がある。上述の実装例では、トリガ(またはハンドヘルド電子デバイス102の他の操作/制御機構)をこの時点で解放したとすると、この時点までのユーザの入力に関係する第2の仮想位置Bへのテレポートのためのコマンドを取消すための機構がなければ、ユーザは第1の仮想位置Aから第2の仮想位置Bへ自動的にテレポートされるであろう。いくつかの実装例では、特定の動き、たとえば、予め設定された閾値よりも大きい特定の距離または角度だけ仮想ビーム400/終点400Bを動かすハンドヘルド電子デバイス102の動きにより、第1の仮想位置Aから第2の仮想位置Bへのテレポーテーションが行なわれる前に初期テレポートコマンドを取消させてもよい。
たとえば、図5Fに示すように、テレポーテーションのために第2の仮想位置Bを選択した後(図4Bおよび図5Bに図示)であって、該当する場合はスケールの任意の調整を施した後(図4Cおよび図5Cに図示)、かつトリガ(または他の操作機構)を解放し、(該当する場合は)調整後のスケールで第2の仮想位置Bへテレポートする前に、ユーザはハンドヘルド電子デバイス102を移動、シフト、または回転させることにより、仮想ビーム400/終点400Bを、予め設定された距離または角度の分だけ選択仮想位置Bから離れさせてもよい。予め設定された距離、角度、または閾値を上回る距離または角度の動きにより、ユーザによる第2の仮想位置Bの選択が取消され得る。これにより、たとえば電子デバイス102の動きを検出する以外の追加の制御機構を設ける必要なしに、ユーザが取消し動作を利用できるという利点がある。
たとえば、いくつかの実装例において、ユーザは、ハンドヘルド電子デバイス102および仮想ビーム400を予め設定された角度θよりも大きい角度距離だけ移動、シフト、または回転させることにより、仮想ビーム400を第2の仮想位置Bから離れる方向に向けてもよい。いくつかの実装例では、上述のようなテレポート到着位置をシフトするための入力との重複を回避するために、初期テレポーテーション選択の取消しを指示するための角度θは、たとえば45°以上であってもよい。いくつかの実装例では、角度θは45°未満であってもよい。
いくつかの実装例では、上述のように選択された第2の仮想位置Bへテレポートするためのユーザのコマンドの開始を取消すことは、第2の仮想位置Bが選択された方法に対応する方法で行なわれてもよい。たとえば、第2の仮想位置Bに向けられた視線に基づいて、またはHMD100から外方に向けられた仮想ビームによって第2の仮想位置Bが選択されるいくつかの実装例では、予め設定された閾値よりも大きい頭の動き、シフト、または回転により、第2の仮想位置Bへのテレポートのための初期コマンドが取消されてもよい。
図4A〜図4Dおよび図5A〜図5Fに関連して上述した地域ビュー(terrain view)におけるテレポーテーションおよびスケール変更に関係する原理は、宇宙ビュー(space view)におけるテレポーテーションおよびスケール変更にも同様に適用され得る。たとえば、図6Aに示すように、宇宙から見た地球の仮想レンダリングが、たとえばHMD100のディスプレイ140上でユーザに提示されてもよい。ユーザは、ハンドヘルド電子デバイス102から地球の仮想レンダリングへ仮想ビーム400を向け、選択した仮想位置Bに終点400Bを位置付け、ハンドヘルド電子デバイス102のトリガ(または他の制御機構)を操作することによって第2の仮想位置Bを選択してもよい。本明細書において「仮想レンダリング」という用語は、仮想環境における位置のレンダリングを意味する。
この宇宙ビュー構成において、テレポーテーションのために選択された仮想環境に対するユーザの相対スケールまたは遠近感の視覚表示410は、たとえば円形または円盤形、または他の形状または表現によって表わされ得る。図6Bに示すように、ユーザはトリガを押し続けながらハンドヘルド電子デバイス102および仮想ビーム400を第1の方向に移動または回転させることによって、ユーザの相対スケールを調整(たとえば縮小)してもよく、それに対応して視覚表示410が縮小し得る。この例では、ユーザスケールの縮小は、ユーザスケールの視覚表示410のサイズまたは面積の縮小に反映され得る。トリガが解放されると、システムは、図6Cに示すように、縮小されたユーザスケールまたは遠近感で選択仮想位置Bにユーザをテレポートさせ得る。(図6Bに示す縮小ユーザスケールではなく)拡大ユーザスケールでの仮想位置Bへのテレポーテーションも、同様の方法で行なわれ得る。これは、たとえば、トリガを解放して選択仮想位置Bへのテレポートを行なう前に、図6Bに示す方向とは反対の方向へハンドヘルド電子デバイス102および仮想ビーム400を移動または回転させることにより、ユーザスケールの視覚表示410のサイズを縮小ではなく拡大させることによって、達成され得る。
上述したものと同様に、図6Dに示すように、第2の仮想位置Bを選択した後(図6Aに図示)、かつトリガを解放して第2の仮想位置Bにテレポートする前に、ユーザは、ハンドヘルド電子デバイス102および仮想ビーム400をたとえば予め設定された角度θよりも大きい角度距離の分だけ仮想位置Bから離れる方向にシフト、回転、または他の方法で動かすことによって、選択したテレポーテーションを取消してもよい。
本明細書に記載の実装例に従う、拡張および/または仮想現実環境におけるテレポートの方法を図7に示す。現在の仮想位置から新たに選択された仮想位置へテレポートするためのユーザ入力またはコマンドの開始を示す、新たな仮想位置の選択が検出されると(ブロック710)、新たに選択された仮想位置に対するユーザ遠近感および/またはユーザスケールを調整(たとえば、拡大および/または縮小)するためのコマンドが受信されたか否かが判定され得る(ブロック720)。ユーザの遠近感および/またはスケールを調整するためのコマンドが受信された場合、相対的な遠近感および/またはスケールが、受信されたコマンドに従って拡大および/または縮小され得る(ブロック730)。新たな仮想位置の選択、および新たに選択された仮想位置に対するユーザ遠近感および/またはスケールを拡大および/または縮小するためのコマンドの検出は、図4A〜図4D、図5A〜図5F、および図6A〜図6Dに関連して上述したように行なわれ得る。ユーザが相対的な遠近感および/またはスケールを調整するためのコマンドの入力を完了し、調整された遠近感および/またはスケールで新たに選択された仮想位置へテレポートするためのコマンド(たとえば、トリガの解放、またはハンドヘルド電子デバイスおよび/またはHMDの他の操作等)が検出された後(ブロック740)、システムは、新たに選択されたユーザ遠近感および/またはスケールで、新たに選択された仮想位置へユーザをテレポートさせ得る(ブロック750)。テレポートおよび/またはスケール変更のためのコマンドが検出されない場合、新たな仮想位置の選択が取消されたか否かが判定される(ブロック745)。新たに選択された仮想位置にテレポートするためのコマンドの取消しの検出は、図5Fおよび図6Dに関連して上述したように行なわれ得る。この処理は、仮想現実体験が終了したと判定されるまで行なわれ得る(ブロック760)。
図8は、本明細書に記載の手法とともに使用し得る汎用コンピュータデバイス800および汎用モバイルコンピュータデバイス850の一例を示す。コンピューティングデバイス800は、ラップトップ、デスクトップ、タブレット、ワークステーション、携帯情報端末、テレビ、サーバ、ブレードサーバ、メインフレーム、およびその他適切なコンピューティングデバイス等の、さまざまな形態のデジタルコンピュータを代表することを意図している。コンピューティングデバイス850は、携帯情報端末、携帯電話、スマートフォン、およびその他同様のコンピューティングデバイス等の、さまざまな形態のモバイルデバイスを代表することを意図している。本明細書に示される構成要素、それらの接続および関係、ならびに機能は、専ら例示を意図しているのであって、本明細書において記載されているおよび/またはクレームされている発明の実現を限定することを意図しているのではない。
コンピューティングデバイス800は、プロセッサ802と、メモリ804と、記憶装置806と、メモリ804および高速拡張ポート810に接続している高速インターフェイス808と、低速バス814および記憶装置806に接続している低速インターフェイス812とを含む。プロセッサ802は半導体ベースのプロセッサでもよい。メモリ804は半導体ベースのメモリでもよい。コンポーネント802、804、806、808、810、および812の各々は、さまざまなバスを使用して相互接続されており、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。プロセッサ802は、コンピューティングデバイス800内で実行される命令を処理可能であり、これらの命令は、GUIのためのグラフィック情報を、高速インターフェイス808に結合されたディスプレイ816等の外部入出力デバイス上に表示するために、メモリ804内または記憶装置806上に格納された命令を含む。他の実装例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数のタイプのメモリとともに適宜使用されてもよい。加えて、複数のコンピューティングデバイス800が接続されてもよく、各デバイスは(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の一部を提供する。
メモリ804は、情報をコンピューティングデバイス800内に格納する。一実装例では、メモリ804は1つまたは複数の揮発性メモリユニットである。別の実装例では、メモリ804は1つまたは複数の不揮発性メモリユニットである。また、メモリ804は、磁気ディスクまたは光ディスクといった別の形態のコンピュータ読取可能媒体であってもよい。
記憶装置806は、コンピューティングデバイス800のための大容量記憶を提供可能である。一実装例では、記憶装置806は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、または、ストレージエリアネットワークもしくは他の構成におけるデバイスを含むデバイスのアレイといった、コンピュータ読取可能媒体であってもよく、または当該コンピュータ読取可能媒体を含んでいてもよい。コンピュータプログラムプロダクトが情報担体において有形に具体化され得る。また、コンピュータプログラムプロダクトは、実行されると上述のような1つ以上の方法を行なう命令を含んでいてもよい。情報担体は、メモリ804、記憶装置806、またはプロセッサ802上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体である。
高速コントローラ808はコンピューティングデバイス800のための帯域幅集約的な動作を管理し、一方、低速コントローラ812はより低い帯域幅集約的な動作を管理する。機能のそのような割当ては例示にすぎない。一実装例では、高速コントローラ808は、メモリ804、ディスプレイ816に(たとえば、グラフィックスプロセッサまたはアクセラレータを介して)、および、さまざまな拡張カード(図示せず)を受け付け得る高速拡張ポート810に結合される。この実装例では、低速コントローラ812は、記憶装置806および低速拡張ポート814に結合される。さまざまな通信ポート(たとえば、USB、Bluetooth、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、キーボード、ポインティングデバイス、スキャナ等の1つ以上の入出力デバイスに、または、スイッチもしくはルータ等のネットワーキングデバイスに、たとえばネットワークアダプタを介して結合されてもよい。
コンピューティングデバイス800は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、標準サーバ820として、またはそのようなサーバのグループで複数回実現されてもよい。それはまた、ラックサーバシステム824の一部として実現されてもよい。加えて、それは、ラップトップコンピュータ822等のパーソナルコンピュータにおいて実現されてもよい。これに代えて、コンピューティングデバイス800からのコンポーネントは、デバイス850等のモバイルデバイス(図示せず)における他のコンポーネントと組合されてもよい。そのようなデバイスの各々は、コンピューティングデバイス800、850のうちの1つ以上を含んでいてもよく、システム全体が、互いに通信する複数のコンピューティングデバイス800、850で構成されてもよい。
コンピューティングデバイス850は、数あるコンポーネントの中でも特に、プロセッサ852と、メモリ864と、ディスプレイ854等の入出力デバイスと、通信インターフェイス866と、トランシーバ868とを含む。また、デバイス850には、追加の記憶容量を提供するために、マイクロドライブまたは他のデバイス等の記憶装置が設けられてもよい。コンポーネント850、852、864、854、866、および868の各々は、さまざまなバスを使用して相互接続されており、当該コンポーネントのうちのいくつかは、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。
プロセッサ852は、メモリ864に格納された命令を含む、コンピューティングデバイス850内の命令を実行可能である。プロセッサは、別個の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実現されてもよい。プロセッサは、たとえば、ユーザインターフェイス、デバイス850が実行するアプリケーション、およびデバイス850による無線通信の制御といった、デバイス850の他のコンポーネント同士の連携を提供してもよい。
プロセッサ852は、ディスプレイ854に結合された制御インターフェイス858およびディスプレイインターフェイス856を介してユーザと通信してもよい。ディスプレイ854は、たとえば、TFT LCD(Thin-Film-Transistor Liquid Crystal Display:薄膜トランジスタ液晶ディスプレイ)、またはOLED(Organic Light Emitting Diode:有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であってもよい。ディスプレイインターフェイス856は、ディスプレイ854を駆動してグラフィカル情報および他の情報をユーザに提示するための適切な回路を含んでいてもよい。制御インターフェイス858は、ユーザからコマンドを受信し、それらをプロセッサ852に送出するために変換してもよい。加えて、デバイス850と他のデバイスとの近接エリア通信を可能にするように、外部インターフェイス862がプロセッサ852と通信した状態で設けられてもよい。外部インターフェイス862は、たとえば、ある実装例では有線通信を提供し、他の実装例では無線通信を提供してもよく、複数のインターフェイスも使用されてもよい。
メモリ864は、情報をコンピューティングデバイス850内に格納する。メモリ864は、1つもしくは複数のコンピュータ読取可能媒体、1つもしくは複数の揮発性メモリユニット、または、1つもしくは複数の不揮発性メモリユニットの1つ以上として実現され得る。拡張メモリ874も設けられ、拡張インターフェイス872を介してデバイス850に接続されてもよく、拡張インターフェイス872は、たとえばSIMM(Single In Line Memory Module)カードインターフェイスを含んでいてもよい。そのような拡張メモリ874は、デバイス850に余分の格納スペースを提供してもよく、または、デバイス850のためのアプリケーションまたは他の情報も格納してもよい。具体的には、拡張メモリ874は、上述のプロセスを実行または補足するための命令を含んでいてもよく、安全のための情報も含んでいてもよい。このため、たとえば、拡張メモリ874はデバイス850のためのセキュリティモジュールとして設けられてもよく、デバイス850の安全な使用を許可する命令でプログラミングされてもよい。加えて、ハッキング不可能な態様でSIMMカード上に識別情報を乗せるといったように、安全のためのアプリケーションが追加情報とともにSIMMカードを介して提供されてもよい。
メモリはたとえば、以下に説明されるようなフラッシュメモリおよび/またはNVRAMメモリを含んでいてもよい。一実装例では、コンピュータプログラムプロダクトが情報担体において有形に具体化される。コンピュータプログラムプロダクトは、実行されると上述のような1つ以上の方法を実行する命令を含む。情報担体は、メモリ864、拡張メモリ874、またはプロセッサ852上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体であり、たとえばトランシーバ868または外部インターフェイス862を通して受信され得る。
デバイス850は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス866を介して無線通信してもよい。通信インターフェイス866は、とりわけ、GSM(登録商標)音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSといった、さまざまなモードまたはプロトコル下での通信を提供してもよい。そのような通信は、たとえば無線周波数トランシーバ868を介して生じてもよい。加えて、Bluetooth、Wi−Fi、または他のそのようなトランシーバ(図示せず)等を使用して、短距離通信が生じてもよい。加えて、GPS(Global Positioning System:全地球測位システム)レシーバモジュール870が、追加のナビゲーション関連および位置関連無線データをデバイス850に提供してもよく、当該データは、デバイス850上で実行されるアプリケーションによって適宜使用されてもよい。
また、デバイス850は、ユーザから口頭情報を受信してそれを使用可能なデジタル情報に変換し得る音声コーデック860を使用して、音声通信してもよい。また、音声コーデック860は、たとえばデバイス850のハンドセットにおいて、スピーカを介すなどして、ユーザに聞こえる音を生成してもよい。そのような音は、音声電話からの音を含んでいてもよく、録音された音(たとえば、音声メッセージ、音楽ファイル等)を含んでいてもよく、デバイス850上で動作するアプリケーションが生成する音も含んでいてもよい。
コンピューティングデバイス850は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、携帯電話880として実現されてもよい。それはまた、スマートフォン882、携帯情報端末、または他の同様のモバイルデバイスの一部として実現されてもよい。
ここに説明されたシステムおよび手法のさまざまな実装例は、デジタル電子回路、集積回路、特別設計のASIC(application specific integrated circuit:特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合わせで実現され得る。これらのさまざまな実装例は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能な1つ以上のコンピュータプログラムにおける実装例を含んでいてもよく、当該プロセッサは専用であっても汎用であってもよく、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信するとともに、これらにデータおよび命令を送信するように結合されてもよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても公知)は、プログラマブルプロセッサのための機械命令を含んでおり、高レベル手続き型および/またはオブジェクト指向プログラミング言語で、および/またはアセンブリ/機械言語で実現され得る。ここに使用されるように、「機械読取可能媒体」「コンピュータ読取可能媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラムプロダクト、装置および/またはデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(Programmable Logic Device:PLD))を指し、機械命令を機械読取可能信号として受信する機械読取可能媒体を含む。「機械読取可能信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
ユーザとの対話を提供するために、ここに説明されたシステムおよび手法は、情報をユーザに表示するためのディスプレイデバイス(たとえば、CRT(cathode ray tube:陰極線管)またはLCD(liquid crystal display:液晶ディスプレイ)モニタ)と、ユーザが入力をコンピュータに提供できるようにするキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有するコンピュータ上で実現され得る。他の種類のデバイスを使用してユーザとの対話を提供することもでき、たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態で受信され得る。
ここに説明されたシステムおよび手法は、(たとえばデータサーバとしての)バックエンドコンポーネントを含む、またはミドルウェアコンポーネント(たとえばアプリケーションサーバ)を含む、またはフロントエンドコンポーネント(たとえば、ユーザが本明細書で説明されたシステムおよび手法の実装例と対話できるようにするグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)を含む、またはそのようなバックエンド、ミドルウェア、もしくはフロントエンドコンポーネントの任意の組合わせを含む、コンピューティングシステムにおいて実現され得る。システムのコンポーネントは、任意の形態または媒体のデジタルデータ通信(たとえば通信ネットワーク)によって相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(local area network:LAN)、ワイドエリアネットワーク(wide area network:WAN)、およびインターネットを含む。
コンピューティングシステムは、クライアントおよびサーバを含んでもよい。クライアントおよびサーバは一般に互いにリモートであり、典型的には通信ネットワークを介して対話する。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行されて互いにクライアント−サーバ関係を有するコンピュータプログラムによって生じる。
多くの実装例を説明してきた。しかしながら、本発明の精神および範囲から逸脱することなくさまざまな変更がなされ得ることが理解されるであろう。
加えて、図面に示す論理フローは、所望の結果を達成するために、図示された特定の順序または順番を必要としない。加えて、説明されたフローに他のステップが提供されてもよく、または当該フローからステップが除去されてもよく、説明されたシステムに他のコンポーネントが追加されてもよく、または当該システムから除去されてもよい。したがって、下記の請求項の範囲には他の実装例も含まれる。
本明細書に記載のさまざまな手法の実装例は、デジタル電子回路において、またはコンピュータハードウェア、ファームウェア、ソフトウェアにおいて、またはこれらの組合わせにおいて実現されてもよい。実装例は、コンピュータプログラムプロダクトとして実現されてもよい。すなわち実装例は、データ処理装置(たとえば、プログラマブルプロセッサ、または1つもしくは複数のコンピュータ)による処理のための、またはその動作を制御するための、たとえば機械読取可能記憶装置(コンピュータ読取可能媒体)等の情報担体において有形に具体化されたコンピュータプログラムとして実現されてもよい。よって、コンピュータ読取可能記憶媒体は、実行されるとプロセッサ(たとえばホストデバイスのプロセッサ、クライアントデバイスのプロセッサ)にプロセスを実行させる命令を格納するように構成されてもよい。
上記コンピュータプログラムのようなコンピュータプログラムは、コンパイルまたは翻訳された言語を含むプログラミング言語の形態で記述することができ、スタンドアロンプログラム、またはモジュール、コンポーネント、サブルーチン、または計算環境で使用するのに適したその他のユニットを含む任意の形態でデプロイすることができる。コンピュータプログラムは、デプロイされ、1つのコンピュータ上で、または、1つの場所にあるまたは複数の場所に分散し通信ネットワークによって相互に接続された複数のコンピュータ上で処理されてもよい。
方法ステップは、コンピュータプログラムを実行して入力データを処理し出力を生成することによって機能を実行する1つ以上のプログラマブルプロセッサによって実行されてもよい。また、方法ステップは、専用論理回路、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によって実行されてもよく、装置は、上記専用論理回路として実現されてもよい。
コンピュータプログラムの処理に適したプロセッサは、一例として、汎用および専用マイクロプロセッサ、ならびに、任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサを含む。一般的に、プロセッサは、命令とデータを、読取専用メモリまたはランダムアクセスメモリまたはこれら双方から受信する。コンピュータの構成要素は、命令を実行するための少なくとも1つのプロセッサと、命令およびデータを格納するための1つ以上のメモリデバイスとを含んでもよい。また、一般的にコンピュータは、データを格納するための1つ以上の大容量記憶装置(たとえば、磁気ディスク、光磁気ディスクもしくは光ディスク)を含んでもよく、または、データを受信、もしくは送信、もしくはその両方を行なうために上記大容量記憶装置に動作可能に結合されてもよい。コンピュータプログラム命令およびデータを具体化するのに適した情報担体は、一例として、半導体メモリデバイス(たとえば、EPROM、EEPROM、およびフラッシュメモリデバイス)、磁気ディスク(たとえば、内部ハードディスクまたはリムーバブルディスク)、光磁気ディスク、ならびにCD−ROMおよびDVD−ROMディスクを含む、すべての形態の不揮発性メモリを含む。プロセッサおよびメモリは、専用論理回路が追加されてもよく、専用論理回路に内蔵されてもよい。
ユーザとの対話を提供するために、実装例は、情報をユーザに表示するためのディスプレイデバイス(たとえば、陰極線管(CRT)、発光ダイオード(LED)または液晶ディスプレイ(LCD)モニタ)と、ユーザが入力をコンピュータに提供できるようにするキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有するコンピュータ上で実現され得る。他の種類のデバイスを使用してユーザとの対話を提供することもできる。たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態で受信され得る。
実装例は、(たとえばデータサーバとしての)バックエンドコンポーネントを含む、またはミドルウェアコンポーネント(たとえばアプリケーションサーバ)を含む、またはフロントエンドコンポーネント(たとえば、ユーザが実装例と対話できるようにするグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)を含む、またはそのようなバックエンド、ミドルウェア、もしくはフロントエンドコンポーネントの任意の組合わせを含む、コンピューティングシステムにおいて実現され得る。コンポーネントは、任意の形態または媒体のデジタルデータ通信(たとえば通信ネットワーク)によって相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(LAN)およびワイドエリアネットワーク(WAN)、たとえばインターネットを含む。
その他の実装例を以下の例において要約する。
例1:仮想環境に対する第1の仮想スケールでの閲覧用に、仮想環境における第1の仮想位置の仮想レンダリングを表示するステップと、第2の仮想位置の選択と、第2の仮想位置の閲覧用の第2の仮想スケールの選択との入力を受け付けるステップとを含み、第1の仮想スケールと第2の仮想スケールとは異なっており、入力を受け付けた後に、第2の仮想スケールで第2の仮想位置にテレポートするステップを含む、方法。
例2:例1の方法において、入力を受け付けるステップは、入力デバイスの操作を検出するステップと、入力デバイスから第2の仮想位置に向けられた仮想ビームの部分の位置に基づいて、第2の仮想位置の選択を検出するステップと、入力デバイスのスケール変更動作、および仮想ビームの対応する動作を検出するステップとを含み、入力デバイスのスケール変更動作は第2の仮想スケールの選択に対応している。
例3:例2の方法において、第2の仮想スケールで第2の仮想位置にテレポートするステップは、第2の仮想位置の選択および第2の仮想スケールの選択を検出した後に、入力デバイスの操作の解放を検出するステップと、入力デバイスの操作の検出された解放に応答して、第2の仮想スケールで第2の仮想位置にテレポートするステップとを含む。
例4:例3の方法において、入力デバイスを操作するステップは、第2の仮想位置および第2の仮想スケールが選択されるまでは入力デバイスの操作を解放せずに入力デバイスの操作を維持するステップを含む。
例5:例4の方法において、第2の仮想スケールで第2の仮想位置にテレポートするステップは、入力デバイスの操作の解放時に同時に第2の仮想スケールで第2の仮想位置にテレポートするステップを含む。
例6:例2〜例5のうちの1つの例の方法において、入力デバイスは、ハンドヘルド電子デバイスのトリガ、ハンドヘルド電子デバイスのタッチセンシティブ面、ハンドヘルド電子デバイスのボタン、ハンドヘルド電子デバイスのジョイスティック、またはハンドヘルド電子デバイスのトグルスイッチのうちの少なくとも1つを含む。
例7:例3の方法において、第2の仮想位置の選択および仮想スケールの選択を検出した後、かつ、入力デバイスの操作の解放を検出する前に、入力デバイスの取消し動作と、第2の仮想位置から離れる方向への仮想ビームの対応する動作とを検出するステップと、検出された入力デバイスの取消し動作および仮想ビームの対応する動作に応答して、第2の仮想位置および第2の仮想スケールの選択を取消すステップとをさらに含む。
例8:例7の方法において、入力デバイスの取消し動作と仮想ビームの対応する動作とを検出するステップは、予め設定された閾値を上回る入力デバイスの動作を検出するステップを含む。
例9:例8の方法において、予め設定された閾値を上回る入力デバイスの動作を検出するステップは、予め設定された角度距離よりも大きい入力デバイスの動作を検出するステップを含む。
例10:例2の方法において、入力デバイスの物理的動作を検出するステップは、第2のスケールの選択に対応する入力デバイスの第1の動作を検出するステップを含み、第1の動作を検出するステップは、仮想ビームの上記部分の初期仮想位置に対応する入力デバイスの初期位置を検出するステップと、仮想ビームの上記部分の初期仮想位置から上方向への仮想動作に対応し、かつ第1の仮想スケールから第2の仮想スケールへの仮想スケールの拡大に対応する、入力デバイスの初期位置から上方向への第1の物理的動作を検出するステップ、または仮想ビームの上記部分の初期仮想位置から下方向への仮想動作に対応し、かつ第1の仮想スケールから第2の仮想スケールへの仮想スケールの縮小に対応する、入力デバイスの初期位置から下方向への第2の物理的動作を検出するステップのうちの少なくとも1つとを含む。
例11:例10の方法において、入力デバイスの物理的動作を検出するステップは、選択された第2の仮想位置に対するテレポート到着位置のシフトに対応する入力デバイスの第3の物理的動作を検出するステップを含み、第3の物理的動作を検出するステップは、ビームの部分の横方向への仮想シフトに対応する入力デバイスの物理的動作を検出するステップ、またはビームの部分の前方向および後方向への仮想シフトに対応する入力デバイスの物理的動作を検出するステップ、のうちの少なくとも1つと、検出された入力デバイスの第3の物理的動作およびビームの部分の対応する仮想シフトに基づいて、選択された第2の仮想位置に対してテレポート到着位置をシフトするステップとを含む。
例12:例11の方法において、第2の仮想スケールで第2の仮想位置にテレポートするステップは、第2の仮想位置の選択を検出した後に、入力デバイスの操作デバイスの操作の解放を検出し、第2の仮想スケールの選択を検出し、テレポート到着位置をシフトするステップと、入力デバイスの操作デバイスの操作の検出された解放に応答して、第2の仮想スケールかつシフトしたテレポート到着位置で、第2の仮想位置にテレポートするステップとを含む。
例13:例12の方法において、第2の仮想スケールかつシフトしたテレポート到着位置で第2の仮想位置にテレポートするステップは、同時に第2の仮想スケールかつシフトしたテレポート到着位置で第2の仮想位置にテレポートするステップとを含む。
例14:仮想環境を生成するように構成されたコンピューティングデバイスを備えるシステムであって、コンピューティングデバイスは、実行可能な命令を格納するメモリと、コンピューティングデバイスに、仮想環境において第1の仮想スケールでの閲覧用に仮想環境の第1の仮想位置の仮想レンダリングを表示すること、仮想環境における第2の仮想位置の選択と、第2の仮想位置の閲覧用の第2の仮想スケールの選択とを示す入力を受け付けること、および入力を受け付けた後に、第2の仮想スケールで第2の仮想位置にテレポートすることを行なわせるための命令を実行するように構成されたプロセッサとを含む、システム。
例15:例14のシステムにおいて、プロセッサは入力を検出するように構成され、入力は、コンピューティングデバイスに動作可能に結合されたハンドヘルド電子デバイスにおいて受け付けられ、入力は、ハンドヘルド電子デバイスの入力デバイスの操作を含む。
例16:例15のシステムにおいて、入力を検出することはさらに、入力デバイスの操作に応答して生成される仮想ビームの部分を検出することを含み、仮想ビームの検出された部分は、第2の仮想位置の選択に対応しており、入力を検出することはさらに、第2の仮想スケールの選択に対応する仮想ビームの上記部分の仮想動作を検出することを含む。
例17:例16のシステムにおいて、仮想ビームの上記部分の検出された仮想動作は、第1の仮想スケールから第2の仮想スケールへの仮想スケールの拡大に対応する仮想ビームの上記部分の上方向への仮想動作、もしくは、第1の仮想スケールから第2の仮想スケールへの仮想スケールの縮小に対応する仮想ビームの上記部分の下方向への仮想動作のうちの少なくとも1つを含む仮想ビームの上記部分の第1の仮想動作、または、仮想ビームの上記部分の横方向への仮想動作、もしくは、仮想ビームの上記部分の前方向および後方向への仮想動作のうちの少なくとも1つを含み、選択された第2の仮想位置に対するテレポート到着位置の仮想シフトに対応する仮想ビームの上記部分の第2の仮想動作のうちの少なくとも1つを含む。
例18:例16または例17のシステムにおいて、プロセッサは、さらにコンピューティングデバイスに、第2の仮想位置の選択および仮想スケールの選択を検出した後、かつ、入力に応答して第2の仮想位置にテレポートする前に、入力デバイスの取消し動作と、仮想ビームの上記部分の第2の仮想位置から離れる方向への対応する動作とを検出すること、および検出された入力デバイスの取消し動作および仮想ビームの上記部分の対応する動作に応答して、第2の仮想位置および第2の仮想スケールの選択を取消すことを行なわせるための命令を実行するように構成されている。
例19:例18のシステムにおいて、入力デバイスの取消し動作、および仮想ビームの上記部分の対応する動作は、予め設定された角度距離よりも大きい入力デバイスの動作の検出を含む。
例20:例15〜例19のうちの1つの例のシステムにおいて、入力デバイスは、ハンドヘルド電子デバイスのトリガ、ハンドヘルド電子デバイスのボタン、ハンドヘルド電子デバイスのジョイスティック、ハンドヘルド電子デバイスのトグルスイッチ、またはハンドヘルド電子デバイスのタッチセンシティブ面のうちの少なくとも1つを含む。
本明細書に記載の通り、記載されている実装例の特定の特徴を説明してきたが、ここで、当業者は、数多くの変形、代替形、変更、および均等物に想到するであろう。したがって、以下の請求項が、実装例の範囲に含まれるすべてのこのような変形および変更をカバーすることを意図していることが、理解されるであろう。これらの実装例は限定ではなく専ら例示を目的として示されており形態および詳細事項にさまざまな変更を加えることができることが、理解されるべきである。本明細書に記載の装置および/または方法はいずれの部分も、相互に相容れない組合わせを除いて、任意の組合わせが可能である。本明細書に記載の実装例は、記載されているさまざまな実装例の機能、構成要素および/または特徴の、さまざまな組合わせおよび/または下位の組合わせを含み得る。

Claims (20)

  1. 仮想環境に対する第1の仮想スケールでの閲覧用に、前記仮想環境における第1の仮想位置の仮想レンダリングを表示するステップと、
    前記第1の仮想位置の前記仮想レンダリング内において、第2の仮想位置の選択と、前記第2の仮想位置の閲覧用の第2の仮想スケールの選択との入力を受け付けるステップとを含み、前記第1の仮想スケールと前記第2の仮想スケールとは異なっており、
    前記入力を受け付けた後に、前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップを含む、方法。
  2. 仮想環境に対する第1の仮想スケールでの閲覧用に、前記仮想環境における第1の仮想位置の仮想レンダリングを表示するステップと、
    第2の仮想位置の選択と、前記第2の仮想位置の閲覧用の第2の仮想スケールの選択との入力を受け付けるステップとを含み、前記第1の仮想スケールと前記第2の仮想スケールとは異なっており、
    前記入力を受け付けた後に、前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップを含み、
    前記入力を受け付けるステップは、
    入力デバイスの操作を検出するステップと、
    前記入力デバイスから前記第2の仮想位置に向けられた仮想ビームの部分の位置に基づいて、前記第2の仮想位置の前記選択を検出するステップと、
    前記入力デバイスのスケール変更動作、および前記仮想ビームの対応する動作を検出するステップとを含み、前記入力デバイスの前記スケール変更動作は前記第2の仮想スケールの選択に対応している、方法。
  3. 前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップは、
    前記第2の仮想位置の前記選択および前記第2の仮想スケールの前記選択を検出した後に、前記入力デバイスの前記操作の解放を検出するステップと、
    前記入力デバイスの前記操作の前記検出された解放に応答して、前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップとを含む、請求項2に記載の方法。
  4. 前記入力デバイスを操作するステップは、前記第2の仮想位置および前記第2の仮想スケールが選択されるまでは前記入力デバイスの前記操作を解放せずに前記入力デバイスの前記操作を維持するステップを含む、請求項2または3に記載の方法。
  5. 前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップは、前記入力デバイスの前記操作の解放時に同時に前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップを含む、請求項2〜4のいずれか1項に記載の方法。
  6. 前記入力デバイスは、ハンドヘルド電子デバイスのトリガ、前記ハンドヘルド電子デバイスのタッチセンシティブ面、前記ハンドヘルド電子デバイスのボタン、前記ハンドヘルド電子デバイスのジョイスティック、または前記ハンドヘルド電子デバイスのトグルスイッチのうちの少なくとも1つを含む、請求項2〜5のいずれか1項に記載の方法。
  7. 前記第2の仮想位置の前記選択および前記第2の仮想スケールの前記選択を検出した後、かつ、前記入力デバイスの前記操作の前記解放を検出する前に、前記入力デバイスの取消し動作と、前記第2の仮想位置から離れる方向への前記仮想ビームの対応する動作とを検出するステップと、
    前記検出された前記入力デバイスの取消し動作および前記仮想ビームの対応する動作に応答して、前記第2の仮想位置および前記第2の仮想スケールの選択を取消すステップとをさらに含む、請求項3に記載の方法。
  8. 前記入力デバイスの取消し動作と前記仮想ビームの対応する動作とを検出するステップは、予め設定された閾値を上回る前記入力デバイスの動作を検出するステップを含む、請求項7に記載の方法。
  9. 前記予め設定された閾値を上回る前記入力デバイスの動作を検出するステップは、予め設定された角度距離よりも大きい前記入力デバイスの動作を検出するステップを含む、請求項8に記載の方法。
  10. 前記入力デバイスの物理的動作を検出するステップは、前記第2の仮想スケールの前記選択に対応する前記入力デバイスの第1の動作を検出するステップを含み、前記第1の動作を検出するステップは、
    前記仮想ビームの前記部分の初期仮想位置に対応する前記入力デバイスの初期位置を検出するステップと、
    前記仮想ビームの前記部分の前記初期仮想位置から上方向への仮想動作に対応し、かつ前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの拡大に対応する、前記入力デバイスの前記初期位置から上方向への第1の物理的動作を検出するステップ、または
    前記仮想ビームの前記部分の前記初期仮想位置から下方向への仮想動作に対応し、かつ前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの縮小に対応する、前記入力デバイスの前記初期位置から下方向への第2の物理的動作を検出するステップ
    のうちの少なくとも1つとを含む、請求項2に記載の方法。
  11. 前記入力デバイスの前記物理的動作を検出するステップは、前記選択された第2の仮想位置に対するテレポート到着位置のシフトに対応する前記入力デバイスの第3の物理的動作を検出するステップを含み、前記第3の物理的動作を検出するステップは、
    前記仮想ビームの前記部分の横方向への仮想シフトに対応する前記入力デバイスの物理的動作を検出するステップ、または
    前記仮想ビームの前記部分の前方向および後方向への仮想シフトに対応する前記入力デバイスの物理的動作を検出するステップ、
    のうちの少なくとも1つと、
    前記検出された前記入力デバイスの第3の物理的動作および前記仮想ビームの前記部分の対応する仮想シフトに基づいて、前記選択された第2の仮想位置に対して前記テレポート到着位置をシフトするステップとを含む、請求項10に記載の方法。
  12. 前記第2の仮想スケールで前記第2の仮想位置にテレポートするステップは、
    前記第2の仮想位置の前記選択を検出した後に、前記入力デバイスの前記操作の解放を検出し、前記第2の仮想スケールの前記選択を検出し、前記テレポート到着位置をシフトするステップと、
    前記入力デバイスの前記操作の前記検出された解放に応答して、前記第2の仮想スケールかつ前記シフトしたテレポート到着位置で、前記第2の仮想位置にテレポートするステップとを含む、請求項11に記載の方法。
  13. 前記第2の仮想スケールかつ前記シフトしたテレポート到着位置で前記第2の仮想位置にテレポートするステップは、同時に前記第2の仮想スケールかつ前記シフトしたテレポート到着位置で前記第2の仮想位置にテレポートするステップとを含む、請求項12に記載の方法。
  14. 仮想環境を生成するように構成されたコンピューティングデバイスを備えるシステムであって、前記コンピューティングデバイスは、
    実行可能な命令を格納するメモリと、
    前記コンピューティングデバイスに、
    前記仮想環境において第1の仮想スケールでの閲覧用に前記仮想環境の第1の仮想位置の仮想レンダリングを表示すること、
    前記第1の仮想位置の前記仮想レンダリング内において、前記仮想環境における第2の仮想位置の選択と、前記第2の仮想位置の閲覧用の第2の仮想スケールの選択とを示す入力を受け付けること、および
    前記入力を受け付けた後に、前記第2の仮想スケールで前記第2の仮想位置にテレポートすること
    を行なわせるための前記命令を実行するように構成されたプロセッサとを含む、システム。
  15. 仮想環境を生成するように構成されたコンピューティングデバイスを備えるシステムであって、前記コンピューティングデバイスは、
    実行可能な命令を格納するメモリと、
    前記コンピューティングデバイスに、
    前記仮想環境において第1の仮想スケールでの閲覧用に前記仮想環境の第1の仮想位置の仮想レンダリングを表示すること、
    前記仮想環境における第2の仮想位置の選択と、前記第2の仮想位置の閲覧用の第2の仮想スケールの選択とを示す入力を受け付けること、および
    前記入力を受け付けた後に、前記第2の仮想スケールで前記第2の仮想位置にテレポートすること
    を行なわせるための前記命令を実行するように構成されたプロセッサとを含み、
    前記プロセッサは前記入力を検出するように構成され、
    前記入力は、前記コンピューティングデバイスに動作可能に結合されたハンドヘルド電子デバイスにおいて受け付けられ、
    前記入力は、前記ハンドヘルド電子デバイスの入力デバイスの操作を含み、
    前記入力を検出することはさらに、
    前記入力デバイスの前記操作に応答して生成される仮想ビームの部分を検出することを含み、前記仮想ビームの前記検出された部分は、前記第2の仮想位置の前記選択に対応しており、
    前記入力を検出することはさらに、
    前記第2の仮想スケールの前記選択に対応する前記仮想ビームの前記部分の仮想動作を検出することを含む、システム。
  16. 前記仮想ビームの前記部分の前記検出された仮想動作は、
    前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの拡大に対応する前記仮想ビームの前記部分の上方向への仮想動作、もしくは
    前記第1の仮想スケールから前記第2の仮想スケールへの仮想スケールの縮小に対応する前記仮想ビームの前記部分の下方向への仮想動作
    のうちの少なくとも1つを含む前記仮想ビームの前記部分の第1の仮想動作、または
    前記仮想ビームの前記部分の横方向への仮想動作、もしくは
    前記仮想ビームの前記部分の前方向および後方向への仮想動作
    のうちの少なくとも1つを含み、前記選択された第2の仮想位置に対するテレポート到着位置の仮想シフトに対応する前記仮想ビームの前記部分の第2の仮想動作
    のうちの少なくとも1つを含む、請求項15に記載のシステム。
  17. 前記プロセッサは、さらに前記コンピューティングデバイスに、
    前記第2の仮想位置の前記選択および前記第2の仮想スケールの前記選択を検出した後、かつ、前記入力に応答して前記第2の仮想位置にテレポートする前に、前記入力デバイスの取消し動作と、前記仮想ビームの前記部分の前記第2の仮想位置から離れる方向への対応する動作とを検出すること、および
    前記検出された前記入力デバイスの取消し動作および前記仮想ビームの前記部分の対応する動作に応答して、前記第2の仮想位置および前記第2の仮想スケールの選択を取消すこと
    を行なわせるための前記命令を実行するように構成されている、請求項15または16に記載のシステム。
  18. 前記入力デバイスの前記取消し動作、および前記仮想ビームの前記部分の対応する動作は、予め設定された角度距離よりも大きい前記入力デバイスの動作の検出を含む、請求項17に記載のシステム。
  19. 前記入力デバイスは、前記ハンドヘルド電子デバイスのトリガ、前記ハンドヘルド電子デバイスのボタン、前記ハンドヘルド電子デバイスのジョイスティック、前記ハンドヘルド電子デバイスのトグルスイッチ、または前記ハンドヘルド電子デバイスのタッチセンシティブ面のうちの少なくとも1つを含む、請求項15〜18のいずれか1項に記載のシステム。
  20. コンピュータによって実行されるプログラムであって、前記プログラムは、前記コンピュータに、請求項1〜13のいずれか1項に記載の方法を実行させる、プログラム。
JP2018513627A 2015-12-03 2016-12-05 拡張および/または仮想現実環境におけるテレポーテーション Active JP6682623B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562262451P 2015-12-03 2015-12-03
US62/262,451 2015-12-03
US15/368,191 2016-12-02
US15/368,191 US10338687B2 (en) 2015-12-03 2016-12-02 Teleportation in an augmented and/or virtual reality environment
PCT/US2016/064919 WO2017096351A1 (en) 2015-12-03 2016-12-05 Teleportation in an augmented and/or virtual reality environment

Publications (2)

Publication Number Publication Date
JP2019502178A JP2019502178A (ja) 2019-01-24
JP6682623B2 true JP6682623B2 (ja) 2020-04-15

Family

ID=57590883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018513627A Active JP6682623B2 (ja) 2015-12-03 2016-12-05 拡張および/または仮想現実環境におけるテレポーテーション

Country Status (10)

Country Link
US (2) US10338687B2 (ja)
EP (1) EP3384365B1 (ja)
JP (1) JP6682623B2 (ja)
KR (1) KR102098316B1 (ja)
CN (1) CN108027658B (ja)
AU (1) AU2016364985B2 (ja)
CA (1) CA2998733C (ja)
DE (1) DE112016004135T5 (ja)
GB (1) GB2558100A (ja)
WO (1) WO2017096351A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170309070A1 (en) * 2016-04-20 2017-10-26 Sangiovanni John System and method for very large-scale communication and asynchronous documentation in virtual reality and augmented reality environments
US10506221B2 (en) 2016-08-03 2019-12-10 Adobe Inc. Field of view rendering control of digital content
US20180046363A1 (en) * 2016-08-10 2018-02-15 Adobe Systems Incorporated Digital Content View Control
US11461820B2 (en) 2016-08-16 2022-10-04 Adobe Inc. Navigation and rewards involving physical goods and services
US10198846B2 (en) 2016-08-22 2019-02-05 Adobe Inc. Digital Image Animation
US10068378B2 (en) 2016-09-12 2018-09-04 Adobe Systems Incorporated Digital content interaction and navigation in virtual and augmented reality
US10430559B2 (en) 2016-10-18 2019-10-01 Adobe Inc. Digital rights management in virtual and augmented reality
US20190005716A1 (en) * 2016-11-10 2019-01-03 Janus Vr Inc. Method and system for translating a legacy web page into a three-dimensional virtual reality (vr) immersive space
CN109906424B (zh) * 2016-11-15 2022-07-05 谷歌有限责任公司 用于虚拟现实系统的输入控制器稳定技术
US10449453B2 (en) * 2017-03-08 2019-10-22 Robolox Corporation Third person camera and avatar motion controller for virtual reality players of avatar-based games
US10296080B2 (en) 2017-06-19 2019-05-21 Disney Enterprises, Inc. Systems and methods to simulate user presence in a real-world three-dimensional space
US10391408B2 (en) 2017-06-19 2019-08-27 Disney Enterprises, Inc. Systems and methods to facilitate user interactions with virtual objects depicted as being present in a real-world space
WO2018234318A1 (en) * 2017-06-20 2018-12-27 Soccer Science, S.L. REDUCING VIRTUAL DISEASE IN VIRTUAL REALITY APPLICATIONS
US10180735B1 (en) * 2017-06-29 2019-01-15 Trimble Inc. Navigation methods for three dimensional (3D) models in mixed reality (MR) environments
US10817128B2 (en) * 2017-07-11 2020-10-27 Logitech Europe S.A. Input device for VR/AR applications
US20190188910A1 (en) * 2017-12-17 2019-06-20 Tsunami VR, Inc. Systems and methods for teleporting a virtual position of a user in a virtual environment to a teleportable point of a virtual object
JP7155291B2 (ja) * 2018-05-02 2022-10-18 アップル インコーポレイテッド 環境の動き回り
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US11301110B2 (en) * 2018-12-27 2022-04-12 Home Box Office, Inc. Pull locomotion in a virtual reality environment
US10839607B2 (en) 2019-01-07 2020-11-17 Disney Enterprises, Inc. Systems and methods to provide views of a virtual space
DE102020104415A1 (de) * 2019-02-22 2020-08-27 Apple Inc. Bewegung in einer umgebung
US10983662B2 (en) * 2019-04-01 2021-04-20 Wormhole Labs, Inc. Distally shared, augmented reality space
JP6776400B1 (ja) * 2019-04-26 2020-10-28 株式会社コロプラ プログラム、方法、および情報端末装置
WO2020250106A1 (en) * 2019-06-08 2020-12-17 Pankaj Raut A system and a method for teleportation for enhanced audio-visual interaction in mixed reality (mr) using a head mounted device (hmd)
US10897564B1 (en) 2019-06-17 2021-01-19 Snap Inc. Shared control of camera device by multiple devices
US11023035B1 (en) 2019-07-09 2021-06-01 Facebook Technologies, Llc Virtual pinboard interaction using a peripheral device in artificial reality environments
US11023036B1 (en) 2019-07-09 2021-06-01 Facebook Technologies, Llc Virtual drawing surface interaction using a peripheral device in artificial reality environments
US10976804B1 (en) * 2019-07-09 2021-04-13 Facebook Technologies, Llc Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments
US11340857B1 (en) 2019-07-19 2022-05-24 Snap Inc. Shared control of a virtual object by multiple devices
US11985175B2 (en) 2020-03-25 2024-05-14 Snap Inc. Virtual interaction session to facilitate time limited augmented reality based communication between multiple users
JP2021157277A (ja) * 2020-03-25 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11593997B2 (en) 2020-03-31 2023-02-28 Snap Inc. Context based augmented reality communication
CN111803947A (zh) * 2020-07-15 2020-10-23 广州玖的数码科技有限公司 虚拟空间中的游戏角色移动控制方法、存储介质和服务器
CN112308980B (zh) * 2020-10-30 2024-05-28 脸萌有限公司 增强现实交互显示方法及设备
EP4224289A1 (en) * 2022-02-08 2023-08-09 Nokia Technologies Oy Mediated reality
WO2024101038A1 (ja) * 2022-11-11 2024-05-16 株式会社Nttドコモ アバター移動装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3284866B2 (ja) * 1996-02-05 2002-05-20 日本電信電話株式会社 3次元仮想空間内での任意画面抽出システム
US20060119598A1 (en) 2004-12-08 2006-06-08 Evil Twin Studios, Inc. System and method for communicating travel progress within a virtual environment
JP4777182B2 (ja) * 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
DE102007025069B4 (de) * 2007-05-21 2018-05-24 Seereal Technologies S.A. Holographisches Rekonstruktionssystem
US20110109628A1 (en) 2008-06-24 2011-05-12 Rurin Oleg Stanislavovich Method for producing an effect on virtual objects
US20100088600A1 (en) * 2008-10-07 2010-04-08 Hamilton Ii Rick A Redirection of an avatar
KR101666995B1 (ko) * 2009-03-23 2016-10-17 삼성전자주식회사 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법
US8812475B2 (en) 2009-04-20 2014-08-19 International Business Machines Corporation Facilitating object searches in virtual worlds
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US8392853B2 (en) 2009-07-17 2013-03-05 Wxanalyst, Ltd. Transparent interface used to independently manipulate and interrogate N-dimensional focus objects in virtual and real visualization systems
US8473852B2 (en) 2009-07-31 2013-06-25 Siemens Corporation Virtual world building operations center
US8392839B2 (en) * 2009-08-27 2013-03-05 International Business Machines Corporation System and method for using partial teleportation or relocation in virtual worlds
CN102054289B (zh) * 2009-11-04 2014-06-11 沈阳迅景科技有限公司 一种基于全景实景和地理信息的3d虚拟社区构建方法
CA2686991A1 (en) * 2009-12-03 2011-06-03 Ibm Canada Limited - Ibm Canada Limitee Rescaling an avatar for interoperability in 3d virtual world environments
EP2745462B1 (en) * 2011-08-18 2021-10-20 Pfaqutruma Research LLC Systems and methods of virtual world interaction
KR101463540B1 (ko) * 2012-05-23 2014-11-20 한국과학기술연구원 휴대용 전자 기기를 이용한 3차원 가상 커서 제어 방법
US20130326364A1 (en) 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
US9116666B2 (en) 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
US9594877B2 (en) 2012-08-31 2017-03-14 Nuvectra Corporation Virtual reality representation of medical devices
US9428449B2 (en) 2013-01-16 2016-08-30 Alstom Technology Ltd Method of forming urea by integration of an ammonia production process in a urea production process and a system therefor
US9685005B2 (en) * 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
US10062208B2 (en) * 2015-04-09 2018-08-28 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments
CN104933753A (zh) * 2015-07-09 2015-09-23 上海苗实信息科技有限公司 一种基于互联网的三维虚拟漫游场景构建平台

Also Published As

Publication number Publication date
JP2019502178A (ja) 2019-01-24
GB201803619D0 (en) 2018-04-18
GB2558100A (en) 2018-07-04
AU2016364985A1 (en) 2018-03-22
WO2017096351A1 (en) 2017-06-08
US10338687B2 (en) 2019-07-02
DE112016004135T5 (de) 2018-06-07
EP3384365B1 (en) 2019-09-04
AU2016364985B2 (en) 2018-12-06
CA2998733A1 (en) 2017-06-08
CN108027658B (zh) 2021-08-03
US20170160815A1 (en) 2017-06-08
US20190265804A1 (en) 2019-08-29
CN108027658A (zh) 2018-05-11
US10558274B2 (en) 2020-02-11
EP3384365A1 (en) 2018-10-10
KR102098316B1 (ko) 2020-04-07
CA2998733C (en) 2020-06-09
KR20180038521A (ko) 2018-04-16

Similar Documents

Publication Publication Date Title
JP6682623B2 (ja) 拡張および/または仮想現実環境におけるテレポーテーション
EP3414643B1 (en) Laser pointer interactions and scaling in virtual reality
US10509487B2 (en) Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
US10620720B2 (en) Input controller stabilization techniques for virtual reality systems
EP3414644B1 (en) Control system for navigation in virtual reality environment
EP3321777B1 (en) Dragging virtual elements of an augmented and/or virtual reality environment
US10635259B2 (en) Location globe in virtual reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200325

R150 Certificate of patent or registration of utility model

Ref document number: 6682623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250