JP6895390B2 - 仮想現実においてハンドヘルド電子装置を追跡するためのシステム - Google Patents

仮想現実においてハンドヘルド電子装置を追跡するためのシステム Download PDF

Info

Publication number
JP6895390B2
JP6895390B2 JP2017556673A JP2017556673A JP6895390B2 JP 6895390 B2 JP6895390 B2 JP 6895390B2 JP 2017556673 A JP2017556673 A JP 2017556673A JP 2017556673 A JP2017556673 A JP 2017556673A JP 6895390 B2 JP6895390 B2 JP 6895390B2
Authority
JP
Japan
Prior art keywords
electronic device
handheld
head
pattern
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017556673A
Other languages
English (en)
Other versions
JP2018530797A (ja
Inventor
チェン,シーチー
シュ,ジャオヤン
ファーボーグ,アレクサンダー・ジェイムズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018530797A publication Critical patent/JP2018530797A/ja
Application granted granted Critical
Publication of JP6895390B2 publication Critical patent/JP6895390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本願は、2015年7月7日に出願された米国出願第62/189,292号に基づく優先権を主張する2016年6月27日に出願された米国出願第15/193,777号の継続出願であり、それに基づく優先権を主張し、その内容全体を本明細書に引用により援用する。本願は、2015年7月7日に出願された米国出願第62/189,292号に基づく優先権を主張し、その内容全体を本明細書に引用により援用する。
分野
本明細書は、概して、拡張現実および/または仮想現実環境における電子装置の検出および追跡に関する。
背景
拡張現実(augmented reality:AR)および/または仮想現実(virtual reality:VR)システムは、3次元(3D)没入型仮想環境を生成することができる。ユーザは、この仮想環境を、さまざまな電子装置との対話を通して体験し得る。これらの電子装置は、たとえば、ディスプレイを含むヘルメットまたはその他のヘッドマウントデバイス、ユーザがディスプレイ装置を見るときに用いる眼鏡またはゴーグル、センサが装着された手袋、センサを含む外部ハンドヘルドデバイス、およびその他のこのような電子装置を含む。仮想環境に没入したときの、ユーザの仮想環境との対話は、たとえば電子装置の物理的移動および/または操作により、仮想環境と対話し、これを個人専用にし、制御することなど、さまざまな形態を取り得る。
概要
ある局面において、方法は、第1の電子装置を第2の電子装置と、第1の電子装置と第2の電子装置とが周囲環境の中で動作中に相互通信するように、作動的に結合するステップを含み得る。第2の装置は、周囲環境の中で動作中に仮想環境を生成し表示するように構成されている。上記方法はまた、第1の電子装置または第2の電子装置のうちの一方の上にある少なくとも1つの視覚マーカーを、第1の電子装置または第2の電子装置のうちの他方のセンサによって検出するステップと、少なくとも1つの視覚マーカーにおいて検出された特徴に基づいて、周囲環境の中における第1の電子装置の動きを検出し追跡するステップと、検出し追跡した、周囲環境の中における第1の電子装置の動きを、仮想環境の中における対応する動作に変換するステップとを含み得る。よって、この方法は、たとえば、周囲環境における第1の電子装置の動きを、第2の電子装置がユーザに提供する仮想環境における対話および/または動きのような、対応する動作として、ユーザが体験できるという効果をもたらす。
別の局面において、システムは、光学センサとプロセッサとを含むハンドヘルド電子装置を備え得る。ハンドヘルド電子装置は、筐体の外面上に複数の視覚マーカーを有するヘッドマウント電子装置に作動的に結合されるように構成され、ハンドヘルド電子装置は、ハンドヘルド電子装置の光学センサによって取得した画像と、取得した画像における所定の特徴の識別とに基づいて、ヘッドマウント電子装置に対するハンドヘルド電子装置の相対的な位置および動きを求めるように構成され、所定の特徴は複数の視覚マーカーに対応する。
1つ以上の実装例の詳細を、添付の図面および以下の説明に記載する。その他の特徴は、明細書、図面、および特許請求の範囲から明らかであろう。
本明細書に記載の実装例に従う、ヘッドマウントディスプレイおよびハンドヘルド電子装置を含む仮想現実システムの一例を示す図である。 本明細書に記載の実装例に従う、ヘッドマウントディスプレイの一例の斜視図である。 本明細書に記載の実装例に従う、ヘッドマウントディスプレイの一例の斜視図である。 本明細書に記載の実装例に従う、視覚マーカーを含むヘッドマウントディスプレイの一例の正面斜視図である。 本明細書に記載の実装例に従う、視覚マーカーを含むヘッドマウントディスプレイの一例の底面斜視図である。 本明細書に記載の実装例に従う、視覚マーカーに含まれ得るパターンの例を示す図である。 本明細書に記載の実装例に従う、視覚マーカーを含むヘッドマウントディスプレイの一例の正面斜視図である。 本明細書に記載の実装例に従う、視覚マーカーを含むヘッドマウントディスプレイの一例の底面斜視図である。 本明細書に記載の実装例に従う、ヘッドマウントディスプレイおよびハンドヘルド電子装置のブロック図である。 本明細書に記載の実装例に従う、拡張および/または仮想現実環境においてハンドヘルド電子装置を追跡する方法のフローチャートである。 本明細書に記載の実装例に従う、視覚マーカーを含むハンドヘルド電子装置の正面図である。 本明細書に記載の実装例に従う、視覚マーカーを含むハンドヘルド電子装置の正面図である。 本明細書に記載の実装例に従う、赤外線追跡マーカーを発するように構成されたハンドヘルド電子装置の正面図である。 本明細書に記載の実装例に従う、仮想環境においてハンドヘルド装置を追跡する方法のフローチャートである。 本明細書に記載の手法を実現するために使用することが可能なコンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す。
詳細な説明
たとえばヘッドマウントディスプレイ(head mounted display:HMD)デバイスを装着し3D仮想環境に没入しているユーザは、仮想環境を探検し、仮想環境の中の仮想の物体、特徴などと、たとえば、身体的な対話(たとえば手/腕のジェスチャー、頭部の動き、歩行など)および/またはHMDおよび/またはそれとは別の電子装置の操作を通して対話することにより、仮想環境を体験することができる。たとえば、いくつかの実装例において、HMDが、たとえば、コントローラ、ジャイロマウス、スマートフォンまたはその他のこのようなハンドヘルド電子装置のようなハンドヘルド電子装置と、ペアリングされる場合がある。ユーザは、HMDとペアリングされたハンドヘルド電子装置を操作することにより、HMDによって生成された仮想環境と対話することができる。
図1に示される例示的な実装例において、HMD100を装着しているユーザは、たとえばコントローラ、ジャイロマウス、スマートフォンのような携帯ハンドヘルド電子装置102を、自分の手142で持っている。図1に示される例において、ユーザはスマートフォン102を右手で持っている。しかしながら、ユーザは、装置102を、左手で持っていても、右手と左手両手で持っていても、HMD100によって生成された没入型仮想体験と対話することができる。
図2Aおよび図2Bは、たとえば図1のユーザが装着しているHMD100のようなHMDの一例の斜視図である。このHMDは、ユーザが体験することになる拡張および/または仮想環境を生成する。HMD100は、光学部品を収容することができる筐体110を含み得る。筐体110は、フレーム120に、結合たとえば回転可能に結合および/または取外し可能に装着されてもよい。このフレーム120により、筐体110をユーザの頭部に搭載または装着することができる。音声出力装置130がフレーム120に結合されてもよく、音声出力装置130は、たとえば、ヘッドフォンに搭載されフレーム120に結合されたスピーカを含み得る。
図2Bにおいて、筐体110の前面110aは、筐体110に収容されている部品の一部が見えるように、筐体110の基部110bから回転させられている。ディスプレイ140が筐体110の前面110aに搭載されていてもよい。レンズ150は、筐体110の内部において、前面110aが筐体110の基部110bに対して閉じられた位置にあるときにユーザの目とディスプレイ140との間になるように装着されている。レンズ150の位置を、ユーザの目のそれぞれの光軸と位置合わせすることにより、比較的広い視野および比較的短い焦点距離がもたらされる。
HMD100はまた、各種検知システム装置を含む検知システム160と、HMD100の操作を容易にする各種制御システム装置を含む制御システム170とを備える。制御システム170はまた、制御システム170の構成要素に作動的に結合されたプロセッサ190を含み得る。
いくつかの実装例において、HMD100はまた、HMD100の外部の環境の静止画および動画を撮影することができるカメラ180を含み得る。たとえば、いくつかの実装例において、カメラ180は、たとえばハンドヘルド電子装置102の上またはその他の場所にある追跡マーカーの画像を撮影することができる。カメラ180が撮影した追跡マーカーの画像を、HMD100が認識して処理することにより、この空間の中におけるハンドヘルド電子装置102の位置および動きおよび/またはHMD100の位置および/または動きを求めることができる。いくつかの実装例において、カメラ180は、たとえば赤外線(IR)投光器と赤外線センサとを含むことより、IR投光器によって照明されているインジケータを撮影してもよい。いくつかの実装例において、カメラ180は、たとえばHMD100上のカメラ180から、たとえば電子装置102を持っているユーザの手142までの距離を求めることができる、深度センサを含み得る。いくつかの実装例において、カメラ180は、現実の世界または周囲、環境の静止画および動画を撮影することができる。カメラ180が撮影した画像を、ユーザ向けに、パススルーモードでディスプレイ140に表示することで、ユーザが、HMD100を外すことなく、そうでなければHMD100の構成を変更して筐体110を動かしてユーザの視線から外すことなく、一時的に仮想世界から出て現実世界に戻ることができるようにしてもよい。
いくつかの実装例において、HMD100はまた、たとえばHMD100の外面上の1つ以上の識別マーカー115を含み得る。この1つ以上のマーカー115は、ハンドヘルド電子装置102によって検出されることができるよう、たとえばHMD100の筐体110の1つ以上の外面上に含まれていてもよい。たとえば、いくつかの実装例において、HMD100上のマーカー115は、たとえばユーザが手で持っているハンドヘルド電子装置102の前面(front facing)カメラ103のようなハンドヘルド電子装置102の画像センサおよび/または光学センサおよび/または光センサの視野の中で捕えることができる。マーカー115は、素早くおよび/または正確に機械で読取ることができる特徴を含み得る。たとえば、いくつかの実装例において、初期パターンおよび/またはパターンの特徴が、カメラ103のキャプチャーレートまたはフレームレートに応じて決まる1つのフレーム内で検出されてもよい。(パターンが初期検出時から移動している)その後の特徴の検出および追跡は、比較的短時間、たとえば3ms未満で行なうことができる。いくつかの実装例において、その後の特徴の検出は、たとえばパターン、検出システムの能力、およびその他のこのような要素に応じて、3msを超える時間を要する場合がある。マーカー115に含まれる特徴は、たとえば、非繰返しパターン、複数の明確なコーナー、およびその他のこのような特徴を含み得る。たとえば、マーカーは、機械で読取可能な光学マーカーを定める、マトリックスバーコードまたは2次元バーコードまたはクイックレスポンス(quick response:QR)コードであってもよい。また、たとえば非繰返しパターンおよび/または複数の明確なコーナーを含む、素早くおよび/または正確に撮影、識別、および処理されるその他の光学マーカーが含まれていてもよい。
いくつかの実装例において、HMD100上のマーカー115は、先に述べたようにHMD100の外面上で見えていてもよい。いくつかの実装例において、HMD100上のマーカー115は、人間の目には見えず、たとえばハンドヘルド電子装置102に含まれるIR投光器およびIRセンサ/カメラによって検出可能であってもよい。
ユーザが手で持っているハンドヘルド電子装置102の、画像センサおよび/または光学センサおよび/または光センサまたは前面カメラ103の視野の中で捕えられるマーカーを含むHMD100の一例が、図3Aおよび図3Bに示される。1つ以上のマーカー115(図3Aおよび図3Bに示されるシェーディングされた領域115Aおよび115Bによって表わされる)は、HMD100の1つ以上の面に含まれていてもよい。この例において、第1のマーカー115Aは、HMD100の筐体110の、前面100A全体に位置し、第2のマーカー115Bは、HMD100の筐体110の、下面100B全体に位置する。第1のマーカー115Aおよび第2のマーカー115BがHMD100の筐体110の前面100Aおよび下面100Bに示されているのは、単に説明し易く図示し易いからである。たとえば、ユーザが手で持っているハンドヘルド電子装置102の前面カメラ103の視野の中でマーカーがハンドヘルド電子装置103によって検出される限り、図3Aおよび図3Bに示される第1のマーカー115Aおよび第2のマーカー115Bに加えてまたはその代わりに、マーカーが、HMD100の筐体110の左側面および/または右側面に沿って位置していてもよい。以下、単に説明し易く図示し易いからであるが、HMD100上の1つ以上のマーカー115を検出するハンドヘルド電子装置102上の画像センサおよび/または光学センサおよび/または光センサを、前面カメラ103と呼ぶ。
図3Aおよび図3Bに示される第1のマーカー115Aは、HMD100の前面100Aのほぼ全体を覆っている。しかしながら、いくつかの実装例において、第1のマーカー115は、HMD100の前面100Aの一部を覆っていてもよく、HMD100の他の面を覆っていてもよい。先に述べたように、図3Aおよび図3Bに示される第1のマーカー115Aおよび第2のマーカー115Bは、複数の明確な非繰返しエッジおよび/またはコーナーを含む非繰返しパターンを含む。たとえば、マーカー115は、図3Cに示される例のうちの1つとしての非繰返しパターン、または、図3Aおよび図3Bに示されるシェーディングされた領域において本明細書に記載のように検出および認識できるその他のパターンを含み得る。
いくつかの実装例において、検出されたマーカー115内のパターンと前面カメラ103によって撮影された画像との間で、わずか4つのコーナーを照合することにより、パターンを識別してもよい。コーナーの数が多いほど、および/または検出されたパターンと撮影された画像との間で照合されるコーナーの数が多いほど、信頼性がより高い結果が得られるであろう。検出、照合、および追跡の信頼性は、たとえば、視覚マーカー115の大きさまたは面積、視覚マーカー115の印刷品質レベル、前面カメラ103の解像能力、画像センサ103と視覚マーカー115との間の距離、およびその他のこのような要素に応じて決まるであろう。いくつかの実装例において、視覚マーカー115の大きさは、5cm×5cm以上であってもよい。いくつかの実装例において、視覚マーカー115の大きさは、5cm×5cm未満であってもよい。
ユーザが手で持っているハンドヘルド電子装置102の前面カメラ103の視野の中で捕えられるマーカーを含むHMD100のもう1つの例が、図3Dおよび図3Eに示される。この例において、第1のマーカー115Cは、HMD100の筐体110の前面100Aの上に位置し、第2のマーカー115Dは、HMD100の筐体110の下面110B上に位置する。第1のマーカー115Cおよび第2のマーカー115DがHMD100の筐体110の前面100Aおよび下面100Bに示されているのは、単に説明し易く図示し易いからである。たとえば、ユーザが手で持っているハンドヘルド電子装置102の前面カメラ103の視野の中でマーカーが捕えられる限り、図3Dおよび図3Eに示される第1のマーカー115Cおよび第2のマーカー115Dに加えてまたはその代わりに、マーカーが、HMD100の筐体110の左側面および/または右側面に沿って位置していてもよい。同様に、図3Dおよび図3Eに示される例において、第1のマーカー115CはHMD100の前面100Aの右上のコーナーに位置し、第2のマーカー115DはHMD100の下面100Bの左下側に位置している。しかしながら、これらのマーカーは、ユーザが手で持っているハンドヘルド電子装置102のカメラ103の視野の中で捕えられる限り、HMD100上のその他の位置にあってもよい。先に述べたように、図3Dおよび図3Eに示される第1のマーカー115Cおよび第2のマーカー115Dは、素早く簡単に撮影、識別、および処理される明確なコーナーおよび/またはエッジを含む非繰返しパターンを含む、マトリックス/2次元バーコードまたはQRコード(登録商標)を含む。
いくつかの実装例において、ユーザが手で持っているハンドヘルド電子装置102の前面カメラ103の視野の中でマーカー115が捕えられる限り、図3A〜図3Eに示される第1のマーカー115A/115Cおよび第2のマーカー115B/115Dよりも多いまたは少ないマーカー115がHMD100に含まれていてもよい。いくつかの実装例において、HMD100に含まれるマーカー115は、ユーザが手で持っているハンドヘルド電子装置102の前面カメラ103の視野の中で捕えられるように配置されている限り、図3A〜図3Eに示されるマーカー115A〜115Dと異なる場所に配置されてもよい。視覚マーカー115をHMD100の前面100Aおよび下面100B上に配置することにより、ユーザが手で持っているハンドヘルド電子装置102の前面カメラ103の視野の中でマーカー115を比較的安定して正確に撮影することができる。なぜなら、ハンドヘルド電子装置102がユーザの手で保持されているとき、一般的に、ユーザが手/腕をユーザの腕の動く範囲の中で動かしたとしても、前面カメラ103は、HMD100の前面100Aおよび/または下面100Bのうちの少なくとも一方を見ることができるからである。いくつかの実装例において、マーカー115は、製造中にHMD100上に含めてもよい。いくつかの実装例において、ユーザは、マーカー115を、たとえば特定のHMDおよびハンドヘルド電子装置、使用環境、およびその他のこのような要素に基づいて選択された場所で、HMD100に貼付けてもよく、および/または再配置してもよい。
先に述べたように、いくつかの実装例において、ハンドヘルド電子装置102の前面カメラ103は、HMD100上のマーカー115(たとえば図3A〜図3Bに示されるHMD100上のマーカー115Aおよび115B、および/または図3D〜図3Eに示されるHMD100上のマーカー115Cおよび115D)が人間の目には見えないがハンドヘルド電子装置102の前面カメラ103によって検出できるように、IR投光器およびIRセンサを含んでいてもよい。
上記前面カメラ103を含むハンドヘルド電子装置102は、上記マーカー115を含むHMD100と作動的に結合またはペアリングされてもよい。このハンドヘルド電子装置102とHMD100とのペアリングにより、ハンドヘルド電子装置102とHMD100との間の通信およびハンドヘルド電子装置102とHMD100との間のデータのやり取りが行なわれ、ハンドヘルド電子装置102の操作または動きが、HMD100によって生成された仮想環境の中における対応する対話または動きに変換されて、たとえばHMD100のディスプレイ140上でユーザに対して表示されてもよい。
ペアリング後に、ユーザが手で持っているハンドヘルド電子装置102の前面カメラ103によって撮影された画像を用いて、たとえば、ユーザが手で持っているハンドヘルド電子装置102の画像センサ103の視野の中で捕えられたHMD100上のマーカー115の画像を用いて、HMD100の相対6自由度(6 degree-of-freedom)(6DOF)位置、動きを検出し、追跡してもよい。ハンドヘルド電子装置102の6DOF位置は、3次元空間におけるX、YおよびZ軸各々を中心とするハンドヘルド電子装置102の動き(たとえばX、YおよびZ軸を中心とするロール、ピッチおよびヨー運動)と連動する、本システムが実装されている3次元の物理的な現実世界空間におけるハンドヘルド電子装置102の位置のX、YおよびZ座標を含み得る。ハンドヘルド電子装置102がHMD100の相対DOF位置を検出すると、この相対位置の逆変換により、HMD100に対するハンドヘルド電子装置102の相対的な位置が得られる。
いくつかの実装例において、3次元空間におけるX、YおよびZ軸各々を中心とするハンドヘルド電子装置102の動きを、たとえばハンドヘルド電子装置102に含まれるセンサ(たとえば、例として加速度計、ジャイロスコープなどを含む慣性測定部)によって捕えてもよい。マーカーの検出に基づいて検出された、物理的な現実世界の空間におけるハンドヘルド電子装置102の3次元位置を、ハンドヘルド電子装置102のセンサによって検出されたX、YおよびZ軸を中心とするハンドヘルド電子装置102の動きと組合わせることにより、ハンドヘルド電子装置102の6DOF追跡を行なうことができる。これにより、ハンドヘルド電子装置102の多種多様な入力、操作などを、HMD100が生成した仮想環境における仮想の特徴、物体などとの対応する対話に変換し、たとえばHMD100のディスプレイ140上でユーザに対して表示することができる。
HMD100に対するハンドヘルド電子装置102の相対的な位置を、繰返し/連続的に求めることにより、ハンドヘルド電子装置102の動きを追跡し、ハンドヘルド電子装置102の動きを、HMD100が生成した仮想環境における対応する対話に変換し、たとえばHMD100のディスプレイ140上でユーザに表示してもよい。いくつかの実装例において、この逆変換は、行列の反転を伴い得る。たとえば、ハンドヘルド電子装置102からの行列を用いて、HMD100の座標空間内の点を、ハンドヘルド電子装置102の座標空間に変換してもよい。この行列の反転を計算し、ハンドヘルド電子装置102の座標空間内の点を、HMD100の座標空間に変換してもよい。この例において、ハンドヘルド電子装置102の座標空間は、ハンドヘルド電子装置102に固定された右手座標系によって規定されてもよく、HMD100の座標空間は、HMS100に固定された右手座標系によって規定されてもよい。ハンドヘルド電子装置102は、反転された行列を、捕えられたフレームごとにHMD100に送信してもよい。そうすると、HMD100は、数、たとえば16数の行列を用いて、ハンドヘルド電子装置102を、現実世界と同じ位置にあるように見えるようレンダリングし、実際の動きに基づいてハンドヘルド電子装置の動きをレンダリングしてもよい。
拡張および/または仮想現実環境においてハンドヘルドデバイスを追跡するためのシステムのブロック図が、図4に示される。このシステムは、第2のユーザ電子装置404と通信する第1のユーザ電子装置400を含み得る。第1のユーザ電子装置400は、たとえば、図2A〜図2Bおよび図3A〜図3Eに関連して先に説明した、ユーザが体験する拡張および/または仮想現実環境を生成するHMDであってもよく、第2のユーザ電子装置402は、たとえば、図1に関連して先に説明した、HMDが生成した拡張および/または仮想現実環境とユーザとの対話を容易にするハンドヘルド電子装置であってもよい。たとえば、先に述べたように、第2の(ハンドヘルド)電子装置402の物理的な動きを、第1の(ヘッドマウント)電子装置400が生成した仮想環境における所望の対話に変換することができる。
第1の電子装置400は、検知システム460と制御システム470とを含み得る。これらはそれぞれ、図2Aおよび図2Bに示される検知システム160および制御システム170と同様であってもよい。図4に示される例示的な実装例において、検知システム460は、たとえば、光センサ、音声センサ、距離/近接センサ、赤外線センサおよび/または投光器、ジャイロスコープ、加速度計、および/またはその他のセンサおよび/またはセンサの各種組合わせを含む、多種多様なセンサを含み得る。いくつかの実装例において、光センサ、画像センサおよび音声センサは、たとえば図2Aおよび図2Bに示されるHMD100のカメラ180のようなカメラなどの、1つの構成要素に含まれていてもよい。制御システム470は、たとえば、電源/停止制御装置、音声およびビデオ制御装置、光学制御装置、遷移制御装置、および/またはその他のこのような装置および/または装置の各種組合わせを含む、多種多様な装置を含み得る。いくつかの実装例において、検知システム460および/または制御システム470は、具体的な実装例に応じて、より多くのまたはより少ない装置を含み得る。検知システム460および/または制御システム470に含まれる要素は、たとえば、図2Aおよび図2Bに示されるHMD100以外のHMDの内部で、異なる物理的構成(異なる物理的位置)を有していてもよい。
第1の電子装置400はまた、検知システム460および制御システム470と通信するプロセッサ490と、たとえば制御システム470のモジュールからアクセス可能なメモリ480と、第1の電子装置400とたとえば第1の電子装置400とペアリングされた第2の電子装置402などの別の外部装置との間の通信を提供する通信モジュール450とを含み得る。
第2の電子装置402は、第2の電子装置402とたとえば第2の電子装置402とペアリングされた第1の電子装置400などの別の外部装置との間の通信を提供する通信モジュール406を含み得る。第2の電子装置402は、検知システム404を含み得る。検知システム404は、たとえばIR投光器およびIRセンサまたはその他の種類の撮像センサを含む画像センサ、たとえばカメラおよびマイクに含まれる音声センサ、たとえば加速度計および/またはジャイロスコープおよび/または磁力計を含む慣性測定部、および、その他のこのようなセンサおよび/またはセンサの各種組合わせを含み得る。プロセッサ409は、第2電子装置402の検知システム404およびコントローラ405と通信し得る。コントローラ405は、メモリ408にアクセスすることができ、第2の電子装置402の全体の動作を制御する。
上記のように、ユーザは、たとえば、ハンドヘルド電子装置102のタッチ面、ボタン、つまみおよびその他の操作装置に与えた入力、ハンドヘルド電子装置102の物理的な動き、およびハンドヘルド電子装置102のその他の操作を通して、ハンドヘルド電子装置102を操作することにより、仮想環境における仮想の特徴、物体などと対話する、たとえばHMD100が生成した仮想環境における仮想の特徴または要素の動きを生じさせることができる。たとえば、ユーザは、仮想環境の中で仮想アイテムを仮想的に保持していることができる。ハンドヘルド電子装置102がHMD100とペアリングされ、かつ、ハンドヘルド電子装置102がユーザの片手または両手で保持されている状態で、ハンドヘルド電子装置102の前面カメラ103は、HMD100上の仮想マーカー115を見て追跡することにより、ハンドヘルド電子装置102に対するHMD100の相対的な位置を確定することができる。この相対的な位置の逆変換を利用して、HMD100に対するハンドヘルド電子装置102の相対的な6DOF運動の場所を求めてこれを追跡することができる。このシステムは、現実世界の環境における、求めたハンドヘルド電子装置102の場所/位置/向き/動きを、仮想環境において保持されている仮想アイテムの対応する動きに、または、検出された動きの種類に対応するその他の動作に変換することができる。
この構成において、HMD100に含まれる視覚マーカー115は、受動マーカーである。すなわち、この例示的な実装例において、マーカー115は、ハンドヘルド電子装置102が検出し得る単なるパターンであって、検出用にハンドヘルド電子装置102が検出する種類の信号を発するものではない。この実装例において、検出、識別、および処理はすべて、ハンドヘルド電子装置102によって行なわれる。これにより、HMD100の作業負荷を軽減することで、HMD100が、利用できる処理リソースおよびバッテリ電源を、仮想環境の生成に適用できるようにすることができる。
本明細書において概要が説明されている実装例に従う、拡張および/または仮想現実環境においてハンドヘルド電子装置を追跡する方法500が、図5に示される。上記のように、ハンドヘルド電子装置は、たとえば図1に示されるハンドヘルド電子装置102であってもよい。ハンドヘルド電子装置102は、たとえば、没入型拡張および/または仮想現実環境を生成するように構成された、図1、2A〜2B、3A〜3Eに示されるHMD100と作動的に結合またはペアリングされてもよい。ハンドヘルド電子装置102は、たとえば、有線接続、たとえばWiFiもしくはBluetooth(登録商標)を介した無線接続、またはその他の種類の接続により、HMD100とペアリングされ、および/または通信してもよい。ブロック510でHMD100およびハンドヘルド電子装置102が起動およびペアリングされ、ブロック520で仮想体験が開始された後、HMD100およびハンドヘルド電子装置102が、データ収集およびデータ合成を実行することにより、ハンドヘルド電子装置102の位置を求めその動きを追跡し、ハンドヘルド電子装置102の動きを仮想環境における対応する対話に変換することができる。
ブロック530で、ハンドヘルド電子装置102のセンサ、たとえばハンドヘルド電子装置102の前面カメラ103は、視野をスキャンしその視野内の画像を収集してもよい。ブロック540で、このシステムは次に、HMD100上の視覚マーカー115に含まれていることがわかっている所定の特徴を探して上記画像をスキャンしてもよい。これは、たとえば、上記特定の非繰返しパターン、複数の明確なコーナーおよび/またはエッジなどを含み得る。画像、具体的には検出した特徴を、所定の特徴を含む視覚マーカー115の既知の画像と比較してもよい。取得した画像を既知の画像と比較してもよく、ハンドヘルド電子装置102に対するHMD100の相対的な位置および/または向きを、たとえばハンドヘルド電子装置102とHMD100とが直交するように位置合わせされた向きのときの、既知の所定の特徴の外観と比較して、取得した画像に現われている所定の特徴がどのように見えるかに基づいて、求めてもよい。ブロック540でハンドヘルド電子装置102に対するHMD100の相対的な位置を求めた後、ブロック550で逆変換を算出することにより、HMD100に対するハンドヘルド電子装置102の相対的な位置を求めてもよい。いくつかの実装例において、ハンドヘルド電子装置102は、実質的に連続的に、または、マーカー115が検出され得る速度で、この画像データを収集および/または処理してもよく、ハンドヘルド電子装置102の動きは、顕著な中断なしで追跡されてもよい。
ブロック560で、位置データをハンドヘルド電子装置102が処理することにより、ハンドヘルド電子装置102の動きを求めてもよく、ブロック570で、求めたハンドヘルド電子装置102の動きを、HMDが生成した仮想環境における対応する対話および/または動きに変換してもよい。HMD100のユーザがハンドヘルド電子装置102の対話および/または動きを利用して仮想環境における体験をすることができるという、技術的効果が得られる。たとえば、現時点で取得した位置および動きおよび/または向きのデータを、過去の時点における位置および動きおよび/または向きのデータと比較することにより、動きの軌跡を求めることができる。動きの軌跡は、データが連続的に収集、処理および合成されるので、実質的に連続的に更新されるであろう。次に、動きの軌跡を用いて、HMD100のユーザが仮想環境において対応する動きまたは対話を体験できるようにすることができる。
このプロセスは、ブロック580において仮想体験が終了したと判断されるまで、繰返し実行されてもよい。
いくつかの実装例において、視覚マーカーは、HMD100、たとえばHMD100のカメラ180が視覚マーカーを用いてハンドヘルド電子装置102の位置を求めその動きを追跡できるよう、ハンドヘルド電子装置102に含まれていてもよい。ハンドヘルド電子装置のようなハンドヘルドデバイスのディスプレイにレンダリングされる視覚マーカーの一例が、図6Aに示される。
図6Aに示されるように、たとえばマトリックスバーコード、または2次元バーコード、またはQRコードなどの視覚マーカー125Aが、ハンドヘルド電子装置102のディスプレイ105上に表示またはレンダリングされてもよい。この例示的な実装例において、視覚マーカー125Aは、視覚マーカー125Aの観察をユーザの手が遮断または妨害しないよう、ユーザがハンドヘルド電子装置102を右手で持っている状態で、ハンドヘルド電子装置102のディスプレイ105の左上の角でレンダリングされている。このようにしてハンドヘルド電子装置102のディスプレイ105上にレンダリングされたマーカー125Aは、たとえば、ハンドヘルド電子装置102が異なる手でもしくは異なる向きで把持される場合に合わせて、またはその他のこのようなユーザ設定に合わせて、ディスプレイ画面上の別の場所に移動させてもよい。この構成により、視覚マーカーを生成する、貼り付ける、または表示するための構成要素を収容するハンドヘルド電子装置102のケースまたはベゼルの空間に依拠することなく、HMD100のカメラ180によってハンドヘルド電子装置102の視覚的な追跡を行なうことができる。また、この構成により、ハンドヘルド電子装置102のディスプレイ105および/またはその他の操作面を、ハンドヘルド電子装置102の前面の外縁まで実質的に拡大することができ、実質的にベゼルは不要になり、装置102の有効表面積を拡大して装置102の実用性を改善することができる。
図6Bに示されるように、いくつかの実装例において、視覚マーカー125Bは、そうでなければ、たとえばHMD100のカメラ180によって視覚マーカー125Bを検出できるよう、ハンドヘルド電子装置102の外面106上に位置していてもよい。視覚マーカー125Bは、たとえば、ハンドヘルド電子装置102の外面と一体化されてもよく、ハンドヘルド電子装置102の外面に加えられたまたは接着されたステッカーであってもよく、ハンドヘルド電子装置102のケース拡張部などであってもよい。いくつかの実装例において、視覚マーカー125Bは、たとえば、HMD100に含まれるIR投光器およびIRセンサ/カメラから検出可能であるが人間の目から見えないものであってもよい。
いくつかの実装例において、HMD100、たとえばHMD100の赤外線センサまたはカメラが赤外線マーカーを用いてハンドヘルド電子装置102の位置を求めその動きを追跡できるよう、赤外線マーカーがハンドヘルド電子装置102によって生成されてもよい。たとえばハンドヘルド電子装置のディスプレイによって生成される赤外線マーカーの一例が図6Cに示される。
図6Cに示されるように、たとえばマトリックスバーコードまたは2次元バーコードまたはQRコードなどの赤外線マーカー125Cを、ハンドヘルド電子装置102のディスプレイ105によって生成してもよい。たとえば、いくつかの実装例において、ハンドヘルド電子装置102は、ディスプレイ105のバックライトにおいて赤外線発光ダイオード(LED)を含んでいてもよく、ディスプレイ105のバックライトにおける赤外線LEDが、HMD100の赤外線センサまたは赤外線カメラには見えるが人の目には見えない赤外線マーカー125Cを生成して放出してもよい。いくつかの実装例において、赤外線マーカー125Cは、ハンドヘルド電子装置102のディスプレイ105によって、たとえばディスプレイ105の画素を駆動して赤外域の光を放射し、HMD100の赤外線カメラまたは赤外線センサには見えるが人の目には見えない複雑なパターンをディスプレイ105が発するようにしてもよい。この構成により、視覚マーカーを生成する、貼り付ける、または表示するための構成要素を収容するハンドヘルド電子装置102のケースまたはベゼルの空間に依拠することなく、HMD100の比較的安価な赤外線カメラまたはセンサによってハンドヘルド電子装置102を比較的高い信頼性で視覚的に追跡することができる。また、この構成により、ハンドヘルド電子装置102のディスプレイ105および/またはその他の操作面を、ハンドヘルド電子装置102の前面の外縁まで実質的に拡大すると、実質的に外側のベゼルは不要になり、装置102の有効表面積を拡大して装置102の有用性を改善することができる。
図6A〜図6Cに示されるマーカーの例であるマーカー125A、125Bおよび125Cは、マトリックスバーコードまたは2次元バーコードまたはQRコードによって定められているが、これは説明し易く図示し易いからにすぎない。しかしながら、マーカー125A、125Bおよび125Cは、先に述べたようにHMD100の画像センサによって検出および認識し得る、画定されたコーナーおよび/またはエッジを含むその他の不規則な非繰返しパターンを含み得る。
本明細書に記載の実装例に従う、拡張および/または仮想現実環境においてハンドヘルド電子装置を追跡する方法700が、図7に示される。上記のように、ハンドヘルド電子装置は、たとえば図1に示されるハンドヘルド電子装置102であってもよい。ハンドヘルド電子装置102は、たとえば、拡張および/または仮想現実環境を生成するように構成された、図1、2A〜2B、3A〜3Eに示されるHMD100とペアリングされてもよい。ハンドヘルド電子装置102は、たとえば、有線接続、たとえばWiFiもしくはBluetoothを介した無線接続、またはその他の種類の接続により、HMD100と作動的に結合またはペアリングされてもよく、および/または通信してもよい。ブロック710でHMD100およびハンドヘルド電子装置102が起動およびペアリングされ、ブロック720で拡張および/または仮想現実体験が開始された後、HMD100およびハンドヘルド電子装置102が、データ収集およびデータ合成を実行することにより、ハンドヘルド電子装置102の位置を求めその位置と動きを追跡し、ハンドヘルド電子装置102の動きを仮想環境における対応する対話および/または動きに変換することができる。
上記のように、視覚マーカー125Aを、ハンドヘルド電子装置102の表示画面上にレンダリングしてもよく、および/または視覚マーカー125Bを、ハンドヘルド電子装置102上に、他のやり方で、配置、貼り付けまたは装着してもよい。ブロック730で、HMD100の画像センサ、たとえばHMD100のカメラ180、またはIR投光器およびIRセンサが、カメラ180の視野をスキャンしその視野の中の画像を収集してもよい。ブロック740で、このシステムは次に、ハンドヘルド電子装置102上の視覚マーカー125Aおよび/または125Bに含まれていることがわかっている所定の特徴を探して上記画像をスキャンしてもよい。これは、たとえば、上記特定の非繰返しパターン、複数の明確なコーナーなどを含み得る。画像、具体的には検出した特徴を、所定の特徴を含む視覚マーカー125A/125Bの既知の画像と比較してもよい。取得した画像を既知の画像と比較してもよく、HMD100に対するハンドヘルド電子装置102の相対的な位置および/または向きを、たとえばハンドヘルド電子装置102とHMD100とが直交するように位置合わせされた向きのときの、既知の所定の特徴の外観と比較して、取得した画像に現われている所定の特徴がどのように見えるかに基づいて、求めてもよい。いくつかの実装例において、HMD100は、この画像データを実質的に連続的に収集し処理してもよい。
ブロック750で、位置データをハンドヘルド電子装置102が処理することにより、ハンドヘルド電子装置102の動きを求めてもよく、ブロック760で、求めたハンドヘルド電子装置102の動きを、HMD100が生成した仮想環境における対応する対話に変換してもよい。たとえば、現時点で取得した位置および動きおよび/または向きのデータを、過去の時点における位置および動きおよび/または向きのデータと比較することにより、データが連続的に収集、処理および合成されるので実質的に連続的に更新される動きの軌跡を求めることができる。
このプロセスは、ブロック770において仮想体験が終了したと判断されるまで、繰返し実行されてもよい。
この構成において、ハンドヘルド電子装置102に含まれる視覚マーカー125Aおよび/または視覚マーカー125Bは、受動マーカーであり、検出、識別、処理、および連続的な追跡はすべて、HMD100によって行なわれる。このようなやり方でハンドヘルド電子装置102の位置を求め動きを追跡することは、1つの視覚マーカー125A/125Bを用いることで確実に実現することができる。しかしながら、このようなやり方でハンドヘルド電子装置102の位置を求め動きを追跡することは、さらに仮想環境を生成しこの仮想環境をユーザに対しディスプレイ140で表示しているHMD100の処理および電力リソースに依存する。
図8は、本明細書に記載の手法を用いて使用され得るコンピュータデバイス800およびモバイルコンピュータデバイス850の例を示す。コンピューティングデバイス800は、プロセッサ802と、メモリ804と、記憶装置806と、メモリ804および高速拡張ポート810に接続している高速インターフェイス808と、低速バス814および記憶装置806に接続している低速インターフェイス812とを含む。コンポーネント802、804、806、808、810、および812の各々は、さまざまなバスを使用して相互接続されており、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。プロセッサ802は、コンピューティングデバイス800内で実行される命令を処理可能であり、これらの命令は、GUIのためのグラフィック情報を、高速インターフェイス808に結合されたディスプレイ816などの外部入出力デバイス上に表示するために、メモリ804内または記憶装置806上に格納された命令を含む。他の実装例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数のタイプのメモリとともに適宜使用されてもよい。加えて、複数のコンピューティングデバイス800が接続されてもよく、各デバイスは(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の一部を提供する。
メモリ804は、情報をコンピューティングデバイス800内に格納する。一実装例では、メモリ804は1つまたは複数の揮発性メモリユニットである。別の実装例では、メモリ804は1つまたは複数の不揮発性メモリユニットである。メモリ804はまた、磁気ディスクまたは光ディスクといった別の形態のコンピュータ読取可能媒体であってもよい。
記憶装置806は、コンピューティングデバイス800のための大容量記憶を提供可能である。一実装例では、記憶装置806は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、または、ストレージエリアネットワークもしくは他の構成におけるデバイスを含むデバイスのアレイといった、コンピュータ読取可能媒体であってもよく、または当該コンピュータ読取可能媒体を含んでいてもよい。コンピュータプログラムプロダクトが情報担体において有形に具体化され得る。コンピュータプログラムプロダクトはまた、実行されると上述のような1つ以上の方法を行なう命令を含んでいてもよい。情報担体は、メモリ804、記憶装置806、またはプロセッサ802上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体である。
高速コントローラ808はコンピューティングデバイス800のための帯域幅集約的な動作を管理し、一方、低速コントローラ812はより低い帯域幅集約的な動作を管理する。機能のそのような割当ては例示にすぎない。一実装例では、高速コントローラ808は、メモリ804、ディスプレイ816に(たとえば、グラフィックスプロセッサまたはアクセラレータを介して)、および、さまざまな拡張カード(図示せず)を受付け得る高速拡張ポート810に結合される。この実装例では、低速コントローラ812は、記憶装置806および低速拡張ポート814に結合される。さまざまな通信ポート(たとえば、USB、Bluetooth、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入出力デバイスに、または、スイッチもしくはルータなどのネットワーキングデバイスに、たとえばネットワークアダプタを介して結合されてもよい。
コンピューティングデバイス800は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、標準サーバ820として、またはそのようなサーバのグループで複数回実現されてもよい。それはまた、ラックサーバシステム824の一部として実現されてもよい。加えて、それは、ラップトップコンピュータ822などのパーソナルコンピュータにおいて実現されてもよい。これに代えて、コンピューティングデバイス800からのコンポーネントは、デバイス850などのモバイルデバイス(図示せず)における他のコンポーネントと組合されてもよい。そのようなデバイスの各々は、コンピューティングデバイス800、850のうちの1つ以上を含んでいてもよく、システム全体が、互いに通信する複数のコンピューティングデバイス800、850で構成されてもよい。
コンピューティングデバイス850は、数あるコンポーネントの中でも特に、プロセッサ852と、メモリ864と、ディスプレイ854などの入出力デバイスと、通信インターフェイス866と、トランシーバ868とを含む。デバイス850にはまた、追加の格納を提供するために、マイクロドライブまたは他のデバイスなどの記憶装置が設けられてもよい。コンポーネント850、852、864、854、866、および868の各々は、さまざまなバスを使用して相互接続されており、当該コンポーネントのうちのいくつかは、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。
プロセッサ852は、メモリ864に格納された命令を含む、コンピューティングデバイス850内の命令を実行可能である。プロセッサは、別個の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実現されてもよい。プロセッサは、たとえば、ユーザインターフェイス、デバイス850が実行するアプリケーション、およびデバイス850による無線通信の制御といった、デバイス850の他のコンポーネント同士の連携を提供してもよい。
プロセッサ852は、ディスプレイ854に結合された制御インターフェイス858およびディスプレイインターフェイス856を介してユーザと通信してもよい。ディスプレイ854は、たとえば、TFT LCD(Thin-Film-Transistor Liquid Crystal Display:薄膜トランジスタ液晶ディスプレイ)、またはOLED(Organic Light Emitting Diode:有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であってもよい。ディスプレイインターフェイス856は、ディスプレイ854を駆動してグラフィカル情報および他の情報をユーザに提示するための適切な回路を含んでいてもよい。制御インターフェイス858は、ユーザからコマンドを受信し、それらをプロセッサ852に送出するために変換してもよい。加えて、デバイス850と他のデバイスとの近接エリア通信を可能にするように、外部インターフェイス862がプロセッサ852と通信した状態で設けられてもよい。外部インターフェイス862は、たとえば、ある実装例では有線通信を提供し、他の実装例では無線通信を提供してもよく、複数のインターフェイスも使用されてもよい。
メモリ864は、情報をコンピューティングデバイス850内に格納する。メモリ864は、1つまたは複数のコンピュータ読取可能媒体、1つまたは複数の揮発性メモリユニット、または、1つまたは複数の不揮発性メモリユニットの1つ以上として実現され得る。拡張メモリ874も設けられ、拡張インターフェイス872を介してデバイス850に接続されてもよく、拡張インターフェイス872は、たとえばSIMM(Single In Line Memory Module)カードインターフェイスを含んでいてもよい。そのような拡張メモリ874は、デバイス850に余分の格納スペースを提供してもよく、または、デバイス850のためのアプリケーションまたは他の情報も格納してもよい。具体的には、拡張メモリ874は、上述のプロセスを実行または補足するための命令を含んでいてもよく、安全な情報も含んでいてもよい。このため、たとえば、拡張メモリ874はデバイス850のためのセキュリティモジュールとして設けられてもよく、デバイス850の安全な使用を許可する命令でプログラミングされてもよい。加えて、ハッキング不可能な態様でSIMMカード上に識別情報を乗せるといったように、安全なアプリケーションが追加情報とともにSIMMカードを介して提供されてもよい。
メモリはたとえば、以下に説明されるようなフラッシュメモリおよび/またはNVRAMメモリを含んでいてもよい。一実装例では、コンピュータプログラムプロダクトが情報担体において有形に具体化される。コンピュータプログラムプロダクトは、実行されると上述のような1つ以上の方法を実行する命令を含む。情報担体は、メモリ864、拡張メモリ874、またはプロセッサ852上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体であり、たとえばトランシーバ868または外部インターフェイス862を通して受信され得る。
デバイス850は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス866を介して無線通信してもよい。通信インターフェイス866は、とりわけ、GSM(登録商標)音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSといった、さまざまなモードまたはプロトコル下での通信を提供してもよい。そのような通信は、たとえば無線周波数トランシーバ868を介して生じてもよい。加えて、Bluetooth、Wi−Fi、または他のそのようなトランシーバ(図示せず)などを使用して、短距離通信が生じてもよい。加えて、GPS(Global Positioning System:全地球測位システム)レシーバモジュール870が、追加のナビゲーション関連および位置関連無線データをデバイス850に提供してもよく、当該データは、デバイス850上で実行されるアプリケーションによって適宜使用されてもよい。
デバイス850はまた、ユーザから口頭情報を受信してそれを使用可能なデジタル情報に変換し得る音声コーデック860を使用して、音声通信してもよい。音声コーデック860はまた、たとえばデバイス850のハンドセットにおいて、スピーカを介すなどして、ユーザに聞こえる音を生成してもよい。そのような音は、音声電話からの音を含んでいてもよく、録音された音(たとえば、音声メッセージ、音楽ファイルなど)を含んでいてもよく、デバイス850上で動作するアプリケーションが生成する音も含んでいてもよい。
コンピューティングデバイス850は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、携帯電話880として実現されてもよい。それはまた、スマートフォン882、携帯情報端末、または他の同様のモバイルデバイスの一部として実現されてもよい。
ここに説明されたシステムおよび手法のさまざまな実装例は、デジタル電子回路、集積回路、特定用途向け集積回路ASIC(application specific integrated circuit:特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合わせで実現され得る。これらのさまざまな実装例は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能な1つ以上のコンピュータプログラムにおける実装例を含んでいてもよく、当該プロセッサは専用であっても汎用であってもよく、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信するとともに、これらにデータおよび命令を送信するように結合されてもよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても公知)は、プログラマブルプロセッサのための機械命令を含んでおり、高レベル手続き型および/またはオブジェクト指向プログラミング言語で、および/またはアセンブリ/機械言語で実現され得る。ここに使用されるように、「機械読取可能媒体」「コンピュータ読取可能媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラムプロダクト、装置および/またはデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(Programmable Logic Device:PLD))を指し、機械命令を機械読取可能信号として受信する機械読取可能媒体を含む。「機械読取可能信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
ユーザとの対話を提供するために、ここに説明されたシステムおよび手法は、情報をユーザに表示するためのディスプレイデバイス(たとえば、CRT(cathode ray tube:陰極線管)またはLCD(liquid crystal display:液晶ディスプレイ)モニタ)と、ユーザが入力をコンピュータに提供できるようにするキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有するコンピュータ上で実現され得る。他の種類のデバイスを使用してユーザとの対話を提供することもでき、たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形態で受信され得る。
ここに説明されたシステムおよび手法は、(たとえばデータサーバとしての)バックエンドコンポーネントを含む、またはミドルウェアコンポーネント(たとえばアプリケーションサーバ)を含む、またはフロントエンドコンポーネント(たとえば、ユーザがここに説明されたシステムおよび手法の実装例とやりとりできるようにするグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)を含む、もしくは、そのようなバックエンド、ミドルウェア、またはフロントエンドコンポーネントの任意の組合わせを含む、コンピューティングシステムにおいて実現され得る。システムのコンポーネントは、任意の形態または媒体のデジタルデータ通信(たとえば通信ネットワーク)によって相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(local area network:LAN)、ワイドエリアネットワーク(wide area network:WAN)、およびインターネットを含む。
コンピューティングシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは一般に互いにリモートであり、典型的には通信ネットワークを介してやりとりする。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行されて互いにクライアント−サーバ関係を有するコンピュータプログラムによって生じる。
いくつかの実装例では、図8に示すコンピューティングデバイスは、仮想現実(VRヘッドセット/HMDデバイス890)とインターフェイス接続するセンサを含み得る。たとえば、図8に示すコンピューティングデバイス850または他のコンピューティングデバイス上に含まれる1つ以上のセンサは、VRヘッドセット890への入力を提供でき、または一般に、VR空間への入力を提供できる。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、生体認証センサ、温度センサ、湿度センサ、および周囲光センサを含み得るものの、それらに限定されない。コンピューティングデバイス850はこれらのセンサを使用して、VR空間におけるコンピューティングデバイスの絶対位置および/または検出された回転を判断可能であり、それは次に、VR空間への入力として使用され得る。たとえば、コンピューティングデバイス850は、コントローラ、レーザポインタ、キーボード、武器などの仮想オブジェクトとしてVR空間に組込まれてもよい。VR空間に組込まれた場合のコンピューティングデバイス/仮想オブジェクトのユーザによる位置付けは、ユーザが、VR空間において仮想オブジェクトをある態様で見るようにコンピューティングデバイスを位置付けることを可能にし得る。たとえば、仮想オブジェクトがレーザポインタを表わす場合、ユーザは、コンピューティングデバイスを、実際のレーザポインタであるかのように操作することができる。ユーザはコンピューティングデバイスをたとえば左右に、上下に、円形に動かして、レーザポインタを使用するのと同様の態様でデバイスを使用することができる。
いくつかの実装例では、コンピューティングデバイス850上に含まれ、またはコンピューティングデバイス850に接続された1つ以上の入力デバイスは、VR空間への入力として使用され得る。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイクロホン、入力機能性を有するイヤホンまたは小型イヤホン、ゲーミングコントローラ、または他の接続可能な入力デバイスを含み得るものの、それらに限定されない。コンピューティングデバイスがVR空間に組込まれた場合にコンピューティングデバイス850上に含まれる入力デバイスとやりとりするユーザは、特定のアクションがVR空間で生じるようにすることができる。
いくつかの実装例では、コンピューティングデバイス850のタッチスクリーンは、VR空間においてタッチパッドとしてレンダリングされ得る。ユーザは、コンピューティングデバイス850のタッチスクリーンとやりとりすることができる。やりとりは、たとえばVRヘッドセット890において、VR空間におけるレンダリングされたタッチパッド上の動きとしてレンダリングされる。レンダリングされた動きは、VR空間においてオブジェクトを制御することができる。
いくつかの実装例では、コンピューティングデバイス850上に含まれる1つ以上の出力デバイスは、VR空間においてVRヘッドセット890のユーザに出力および/またはフィードバックを提供することができる。出力およびフィードバックは、視覚、触覚、または音声によるものであり得る。出力および/またはフィードバックは、振動、1つ以上のライトまたはストロボをオンオフすることもしくは点滅および/または明滅させること、アラームを鳴らすこと、チャイムを鳴らすこと、歌を演奏すること、および音声ファイルを演奏することを含み得るものの、それらに限定されない。出力デバイスは、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含み得るものの、それらに限定されない。
いくつかの実装例では、コンピューティングデバイス850は、コンピュータが生成した3D環境において別のオブジェクトのように見えてもよい。ユーザによるコンピューティングデバイス850とのやりとり(たとえば、タッチスクリーンを回転させ、振動させること、タッチスクリーンに触れること、タッチスクリーンを横切って指をスワイプすること)は、VR空間におけるオブジェクトとのやりとりとして解釈され得る。VR空間におけるレーザポインタの例では、コンピューティングデバイス850は、コンピュータが生成した3D環境において仮想レーザポインタのように見える。ユーザがコンピューティングデバイス850を操作すると、ユーザはVR空間においてレーザポインタの動きを見る。ユーザは、コンピューティングデバイス850上またはVRヘッドセット890上で、VR環境におけるコンピューティングデバイス850とのやりとりからフィードバックを受信する。
いくつかの実装例において、コンピューティングデバイス850はタッチスクリーンを含み得る。たとえば、ユーザは、タッチスクリーン上で生じることを模倣してVR空間内で生じさせることができる特定のやり方で、タッチスクリーンと対話することができる。たとえば、ユーザは、つまむ(pinching)タイプの動きを用いて、タッチスクリーン上に表示されているコンテンツの大きさを変えることができる。このタッチスクリーン上におけるつまむタイプの動きは、VR空間内で提供されている情報の大きさを変えることができる。別の例において、コンピューティングデバイスは、コンピュータによって生成された3D環境における仮想ブックとして与えられてもよい。VR空間では、このブックのページがVR空間内で表示され、ユーザの指でタッチスクリーンをスワイプすることは、仮想ブックのページを裏返す/めくることであると解釈することができる。各ページを裏返す/めくると、ページの内容が変わるのが見え、それに加えて、本のページを裏返す音などの音声フィードバックをユーザに与えることができる。
いくつかの実装例では、コンピューティングデバイスに加えて1つ以上の入力デバイス(たとえばマウス、キーボード)が、コンピュータが生成した3D環境においてレンダリングされ得る。レンダリングされた入力デバイス(たとえば、レンダリングされたマウス、レンダリングされたキーボード)は、VR空間においてオブジェクトを制御するために、VR空間においてレンダリングされたとして使用され得る。
コンピューティングデバイス800は、さまざまな形態のデジタルコンピュータおよびデバイスを表わすよう意図されている。これらのデジタルコンピュータおよびデバイスは、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータを含むがこれらに限定されない。コンピューティングデバイス850は、携帯情報端末、携帯電話、スマートフォン、および他の同様のコンピューティングデバイスといった、さまざまな形態のモバイルデバイスを表わすよう意図されている。ここに示すコンポーネント、それらの接続および関係、ならびにそれらの機能は、単なる例示であるよう意図されており、本文書に記載のおよび/または請求項に記載の本発明の実装例を限定するよう意図されてはいない。
多くの実施形態を説明してきた。しかしながら、明細書の精神および範囲から逸脱することなくさまざまな変更がなされ得ることが理解されるであろう。
加えて、図面に示す論理フローは、所望の結果を達成するために、図示された特定の順序または順番を必要としない。加えて、説明されたフローに他のステップが提供されてもよく、または当該フローからステップが除去されてもよく、説明されたシステムに他のコンポーネントが追加されてもよく、または当該システムから除去されてもよい。したがって、他の実施形態は以下の請求項の範囲内にある。
本明細書に記載の通り、記載されている実装例の特定の特徴を説明してきたが、ここで、当業者は、数多くの変形、代替形、変更、および均等物に想到するであろう。したがって、以下の請求項が、実装例の範囲に含まれるすべてのこのような変形および変更をカバーすることを意図していることが、理解されるであろう。これらの実装例は限定ではなく専ら例示を目的として示されており形態および詳細事項にさまざまな変更を加えることができることが、理解されねばならない。本明細書に記載の装置および/または方法はいずれの部分も、相互に相容れない組合わせを除いて、何らかの組合わせが可能である。本明細書に記載の実装例は、記載されているさまざまな実装例の機能、構成要素および/または特徴の、さまざまな組合わせおよび/または下位の組合わせを含み得る。
ある例示的な実施形態に従うと、ハンドヘルドスマートフォンなどの第1の電子装置を、ヘッドマウントディスプレイなどの第2の電子装置が生成した仮想現実環境において追跡するためのシステムは、第1の電子装置または第2の電子装置のうちの一方に含まれるカメラによって、第1の電子装置または第2の電子装置のうちの他方の上に含まれている少なくとも1つの視覚マーカーを検出することを含み得る。この視覚マーカーの既知の特徴に対応する、視野の中で検出された特徴を用いて、第2の電子装置に対する第1の電子装置の相対的な位置を求めてその動きを追跡することができ、第2の電子装置の動きを、第2の電子装置が生成した仮想体験における対話に変換することができる。
本願の主題の一部を構成し請求項の範囲の一部を構成し得る実施形態を定めるその他の例をまとめたものは以下の通りである。
例1:方法は、第1の電子装置を第2の電子装置と、第1の電子装置と第2の電子装置とが周囲環境の中で動作中に相互通信するように、作動的に結合するステップを含み、第2の装置は、周囲環境の中で動作中に仮想環境を生成し表示するように構成される。この方法はさらに、第1の電子装置または第2の電子装置のうちの一方の上にある少なくとも1つの視覚マーカーを、第1の電子装置または第2の電子装置のうちの他方のセンサによって検出するステップと、少なくとも1つの視覚マーカーにおいて検出された特徴に基づいて、周囲環境の中における第1の電子装置の動きを検出し追跡するステップと、検出し追跡した、周囲環境の中における第1の電子装置の動きを、仮想環境の中における対応する動作に変換するステップとを含む。
例2:例1の方法において、少なくとも1つの視覚マーカーを検出するステップおよび周囲環境の中における第1の電子装置の動きを検出し追跡するステップは、第1の電子装置の光学センサを用いて光学データを収集するステップを含み、光学データは第2の電子装置の画像を含み、収集した光学データをスキャンしスキャンした光学データにおける複数の所定の特徴を検出するステップと、検出した複数の所定の特徴を、第2の電子装置の上にある少なくとも1つの視覚マーカーの既知の画像と比較するステップと、複数の所定の特徴の検出に基づいて、収集した光学データにおいて少なくとも1つの視覚マーカーを識別するステップと、識別した少なくとも1つの視覚マーカーに基づいて、第1の電子装置に対する第2の電子装置の相対的な位置を求めるステップとを含む。
例3:例2の方法において、検出した複数の所定の特徴は、複数のコーナーまたは複数のエッジのうちの少なくとも一方の不規則なパターンを含み、検出した複数の所定の特徴を少なくとも1つの視覚マーカーの既知の画像と比較するステップおよび収集した光学データにおいて少なくとも1つの視覚マーカーを識別するステップは、検出した複数の所定の特徴の不規則なパターンの向きを、少なくとも1つの視覚マーカーの既知の画像における対応する複数の特徴の向きと比較するステップと、比較に基づいて、第1の電子装置に対する第2の電子装置の相対的な位置および向きを求めるステップとを含む。
例4:例3の方法において、第1の電子装置の光学センサを用いて光学データを収集するステップは、第2の電子装置の画像を、第1の電子装置の赤外線センサを用い赤外線投光器で照明して取得するステップを含み、少なくとも1つの視覚マーカーは、赤外線投光器で照明されている間、赤外線センサのみに見える第1の電子装置上の赤外線パターンを含む。
例5:例2〜例4のいずれか1つの方法において、少なくとも1つの視覚マーカーを検出するステップおよび周囲環境の中における第1の電子装置の動きを検出し追跡するステップは、第2の電子装置の位置を逆変換し第2の電子装置に対する第1の電子装置の相対的な位置を求めるステップと、第1の電子装置の現在の位置と、第1の電子装置の過去の位置とを比較することにより、第1の電子装置の動きを追跡するステップとを含む。
例6:例5の方法において、第1の電子装置はハンドヘルドコントローラであり、第2の電子装置はヘッドマウントディスプレイ装置であり、光学センサはハンドヘルドコントローラの前面カメラであり、少なくとも1つの視覚マーカーは、ヘッドマウントディスプレイ装置の第1の表面上の第1の2次元バーコードと、ヘッドマウントディスプレイ装置の第2の表面上の第2の2次元バーコードとを含む。
例7:例1〜例6のいずれか1つの方法において、少なくとも1つの視覚マーカーを検出するステップおよび周囲環境の中における第1の電子装置の動きを検出し追跡するステップは、第2の電子装置の光学センサを用いて画像データを収集するステップを含み、光学データは第1の電子装置の画像を含み、収集した光学データをスキャンしスキャンした光学データにおける複数の所定の特徴を検出するステップと、検出した複数の所定の特徴を、第2の電子装置の上にある少なくとも1つの視覚マーカーの既知の画像と比較するステップと、収集した光学データにおいて少なくとも1つの視覚マーカーを識別するステップと、複数の所定の特徴の検出に基づく識別した少なくとも1つの視覚マーカーに基づいて第2の電子装置に対する第1の電子装置の相対的な位置を求めるステップと、第1の電子装置の現在の位置を第1の電子装置の過去の位置と比較することにより、第1の電子装置の動きを追跡するステップとを含む。
例8:例7の方法において、検出した複数の所定の特徴は、複数のコーナーまたは複数のエッジのうちの少なくとも一方の不規則なパターンを含み、検出した複数の所定の特徴を少なくとも1つの視覚マーカーの既知の画像と比較し収集した光学データに基づいて少なくとも1つの視覚マーカーを識別するステップは、検出した複数の所定の特徴の不規則なパターンの向きを、少なくとも1つの視覚マーカーの既知の画像における対応する複数の特徴の向きと比較するステップと、比較に基づいて、第1の電子装置に対する第2の電子装置の相対的な位置および向きを求めるステップとを含む。
例9:例8の方法において、第2の電子装置の光学センサを用いて光学データを収集するステップは、第1の電子装置の画像を、第2の電子装置の赤外線センサを用い赤外線投光器で照明して取得するステップを含み、少なくとも1つの視覚マーカーは、赤外線投光器で照明されている間、赤外線センサに見える第1の電子装置上の定められた赤外線パターンを含む。
例10:例7〜例9のいずれかの方法において、第1の電子装置はハンドヘルドコントローラであり、第2の電子装置はヘッドマウントディスプレイ装置であり、光学センサはヘッドマウントディスプレイ装置上のカメラであり、視覚マーカーはハンドヘルドコントローラのディスプレイ画面上にレンダリングされたまたはハンドヘルドコントローラの外面上に位置する2次元バーコードである。
例11:システムは、光学センサとプロセッサとを含むハンドヘルド電子装置を備え、ハンドヘルド電子装置は、筐体の外面上に複数の視覚マーカーを有するヘッドマウント電子装置に作動的に結合されるように構成されており、ハンドヘルド電子装置は、ハンドヘルド電子装置の光学センサによって取得した画像と、取得した画像における所定の特徴の識別とに基づいて、ヘッドマウント電子装置に対するハンドヘルド電子装置の相対的な位置および動きを求めるように構成され、所定の特徴は複数の視覚マーカーに対応する。
例12:例11のシステムにおいて、複数の視覚マーカーは、ヘッドマウント電子装置の第1の表面上の第1の視覚マーカーと、ヘッドマウント電子装置の第2の表面上の第2の視覚マーカーとを含む。
例13:例12のシステムにおいて、第1の視覚マーカーは、ヘッドマウント電子装置の第1の表面に対応付けられた第1のパターンによって定められ、第1のパターンは、第1の非繰返しパターンまたは第1の複数の明確なコーナーのうちの少なくとも一方を含み、第2の視覚マーカーは、ヘッドマウント電子装置の第2の表面に対応付けられた第2のパターンによって定められ、第2のパターンは、第2の非繰返しパターンまたは第2の複数の明確なコーナーのうちの少なくとも一方を含む。
例14:例13のシステムにおいて、第1のパターンは、ヘッドマウント電子装置の第1の表面に対応付けられた第1の赤外線パターンであり、第2のパターンは、ヘッドマウント電子装置の第2の表面に対応付けられた第2の赤外線パターンであり、ハンドヘルド電子装置の光学センサは、赤外線投光器と赤外線センサとを含み、第1のパターンおよび第2のパターンが赤外線投光器によって照明されている間、第1のパターンおよび第2のパターンは赤外線センサのみに見える。
例15:例13または例14のシステムにおいて、ヘッドマウント電子装置に対するハンドヘルド電子装置の相対的な位置および動きを求めるとき、ハンドヘルド電子装置は、光学センサが収集した画像において検出された第1のパターンの向きを、第1の視覚マーカーの既知の画像に含まれる第1のパターンの向きと比較し、光学センサが収集した画像において検出された第2のパターンの向きを、第2の視覚マーカーの既知の画像に含まれる第2のパターンの向きと比較し、比較に基づいて、第1の電子装置に対する第2の電子装置の相対的な位置および向きを求めるように、構成されている。
例16:例12〜例15のいずれか1つのシステムにおいて、第1の視覚マーカーは、ヘッドマウント電子装置の前面に対応付けられた第1の2次元バーコードを含み、第2の視覚マーカーは、ヘッドマウント電子装置の下面に対応付けられた第2の2次元バーコードを含む。
例17:例12〜例16のいずれか1つのシステムにおいて、第1の表面はヘッドマウント電子装置の前面であり、第2の表面は、ヘッドマウント電子装置の下面である。
例18:例11〜例17のいずれか1つのシステムにおいて、ヘッドマウント電子装置はプロセッサを含み、プロセッサは、ヘッドマウント電子装置の光学センサを用いてハンドヘルド電子装置の画像を取得し、光学センサによって取得した画像において複数の所定の特徴を検出し、検出した複数の所定の特徴を、複数の視覚マーカーの既知の画像と比較し、比較に基づいて少なくとも1つの視覚マーカーを識別し、識別した少なくとも1つの視覚マーカーに基づいて、ヘッドマウント電子装置に対するハンドヘルド電子装置の相対的な位置を求めるように、構成されている。
例19:例18のシステムにおいて、識別した少なくとも1つの視覚マーカーは、ハンドヘルド電子装置のディスプレイ画面上にレンダリングされたまたはハンドヘルド電子装置の外面上に位置する2次元バーコードである。
例20:例11〜例19のいずれか1つのシステムにおいて、ハンドヘルド電子装置はハンドヘルドコントローラまたはスマートフォンであり、周囲環境におけるハンドヘルド電子装置の動きは、ヘッドマウント電子装置によって生成された仮想環境における対応する対話に変換される。
例21:プロセッサ上で実行されると、例1〜例10のうちいずれか1つに記載の方法を実行する命令を含むコンピュータプログラム。

Claims (19)

  1. 第1の電子装置を第2の電子装置と、前記第1の電子装置と前記第2の電子装置とが周囲環境の中で動作中に相互通信するように、作動的に結合するステップを含み、前記第2の電子装置は、ユーザが使用するヘッドマウントディスプレイ装置であり、前記周囲環境の中で動作中に仮想環境を生成し表示するように構成され、前記第1の電子装置は、前記ユーザが使用するハンドヘルドコントローラであり、
    第1のモードにおいて、前記第2の電子装置に対する前記第1の電子装置の動きを追跡するステップを含み、前記追跡するステップは、
    前記第2の電子装置の上にある複数の視覚マーカーを、前記第1の電子装置のセンサによって検出するステップを含み、前記複数の視覚マーカーは、前記第2の電子装置の第1の表面上に位置する第1の視覚マーカーと、前記第2の電子装置の第2の表面上に位置する第2の視覚マーカーと、を含み、前記第2の表面は前記第1の表面とは異なり、前記追跡するステップは、さらに、
    前記複数の視覚マーカーにおいて検出された特徴に基づいて、前記第1の電子装置に対する前記第2の電子装置の相対的な位置を求め、前記周囲環境の中における前記第1の電子装置の動きを追跡するステップとを含み、前記第2の電子装置の位置を求めるステップは、
    前記第2の電子装置の位置の逆変換を計算するステップと、
    前記第1の電子装置の現在の位置を前記第1の電子装置の過去の位置と比較することにより、前記第1の電子装置の動きを追跡するステップとを含み、さらに、
    前記検出し追跡した、前記周囲環境の中における前記第1の電子装置の動きを、前記仮想環境の中における対応する動作に変換するステップを含む、方法。
  2. 前記複数の視覚マーカーを検出するステップおよび前記周囲環境の中における前記第1の電子装置の動きを追跡するステップは、
    前記第1の電子装置の光学センサを用いて光学データを収集するステップを含み、前記光学データは前記第2の電子装置の画像を含み、
    前記収集した光学データをスキャンし前記スキャンした光学データにおける複数の所定の特徴を検出するステップと、
    前記検出した複数の所定の特徴を、前記第2の電子装置の上にある前記複数の視覚マーカーの既知の画像と比較するステップと、
    前記複数の所定の特徴の検出に基づいて、前記収集した光学データにおいて前記複数の視覚マーカーを識別するステップとを含む、請求項1に記載の方法。
  3. 前記検出した複数の所定の特徴は、複数のコーナーまたは複数のエッジのうちの少なくとも一方の不規則なパターンを含み、
    前記検出した複数の所定の特徴を前記複数の視覚マーカーの既知の画像と比較するステップおよび前記収集した光学データにおいて前記複数の視覚マーカーを識別するステップは、
    前記検出した複数の所定の特徴の前記不規則なパターンの向きを、前記複数の視覚マーカーの前記既知の画像における対応する複数の特徴の向きと比較するステップと、
    前記比較に基づいて、前記第1の電子装置に対する前記第2の電子装置の相対的な位置および向きを求めるステップとを含む、請求項2に記載の方法。
  4. 前記第1の電子装置の光学センサを用いて光学データを収集するステップは、
    前記第2の電子装置の画像を、前記第1の電子装置の赤外線センサを用い赤外線投光器で照明して取得するステップを含み、前記複数の視覚マーカーは、前記赤外線投光器で照明されている間、前記赤外線センサのみに見える前記第1の電子装置上の赤外線パターンを含む、請求項3に記載の方法。
  5. 前記光学センサは前記ハンドヘルドコントローラの前面カメラであり、前記複数の視覚マーカーは、前記ヘッドマウントディスプレイ装置の第1の表面上の第1の2次元バーコードと、前記ヘッドマウントディスプレイ装置の第2の表面上の第2の2次元バーコードとを含む、請求項2に記載の方法。
  6. 第2のモードにおいて、前記第2の電子装置に対する前記第1の電子装置の動きを追跡するステップをさらに含み、前記第2のモードは、
    前記第2の電子装置の光学センサを用いて光学データを収集するステップを含み、前記光学データは前記第1の電子装置の画像を含み、前記第2のモードはさらに、
    前記収集した光学データをスキャンし前記スキャンした光学データにおける複数の所定の特徴を検出するステップと、
    前記検出した複数の所定の特徴を、前記第2の電子装置の上にある前記複数の視覚マーカーの既知の画像と比較するステップと、
    前記収集した光学データにおいて前記複数の視覚マーカーを識別するステップと、
    前記複数の所定の特徴の検出に基づく前記識別した複数の視覚マーカーに基づいて前記第2の電子装置に対する前記第1の電子装置の相対的な位置を求めるステップと、
    前記第1の電子装置の現在の位置を前記第1の電子装置の過去の位置と比較することにより、前記第1の電子装置の動きを追跡するステップとを含む、請求項1に記載の方法。
  7. 前記検出した複数の所定の特徴は、複数のコーナーまたは複数のエッジのうちの少なくとも一方の不規則なパターンを含み、
    前記検出した複数の所定の特徴を前記複数の視覚マーカーの既知の画像と比較し前記収集した光学データにおいて前記複数の視覚マーカーを識別するステップは、
    前記検出した複数の所定の特徴の前記不規則なパターンの向きを、前記複数の視覚マーカーの既知の画像における対応する複数の特徴の向きと比較するステップと、
    前記比較に基づいて、前記第1の電子装置に対する前記第2の電子装置の相対的な位置および向きを求めるステップとを含む、請求項6に記載の方法。
  8. 前記第2の電子装置の光学センサを用いて光学データを収集するステップは、
    前記第1の電子装置の画像を、前記第2の電子装置の赤外線センサを用い赤外線投光器で照明して取得するステップを含み、前記複数の視覚マーカーは、前記赤外線投光器で照明されている間、前記赤外線センサに見える前記第1の電子装置上の定められた赤外線パターンを含む、請求項7に記載の方法。
  9. 前記光学センサは前記ヘッドマウントディスプレイ装置上のカメラであり、前記視覚マーカーは前記ハンドヘルドコントローラのディスプレイ画面上にレンダリングされたまたは前記ハンドヘルドコントローラの外面上に位置する2次元バーコードである、請求項6に記載の方法。
  10. ヘッドマウント電子装置に作動的に結合されるように構成されたハンドヘルド電子装置を備え、前記ヘッドマウント電子装置は、前記ヘッドマウント電子装置の筐体の外面上に複数の視覚マーカーを有し、前記複数の視覚マーカーは、前記ヘッドマウント電子装置の第1の表面上に設けられた第1の視覚マーカーと、前記ヘッドマウント電子装置の第2の表面に設けられた第2の視覚マーカーとを含み、前記第2の表面は前記第1の表面とは異なり、前記ハンドヘルド電子装置は光学センサとプロセッサとを含み、
    前記ハンドヘルド電子装置は、
    前記ハンドヘルド電子装置の前記光学センサによって取得した画像と、前記取得した画像における所定の特徴の識別とに基づいて、前記ヘッドマウント電子装置に対する前記ハンドヘルド電子装置の相対的な位置を求め、
    前記ハンドヘルド電子装置に対する前記ヘッドマウント電子装置の相対的な位置の逆変換を計算することにより、前記ヘッドマウント電子装置に対する前記ハンドヘルド電子装置の相対的な位置を求めるように、構成されている、システム。
  11. 前記第1の視覚マーカーは、前記ヘッドマウント電子装置の前記第1の表面に対応付けられた第1のパターンによって定められ、前記第1のパターンは、第1の非繰返しパターンまたは第1の複数の明確なコーナーのうちの少なくとも一方を含み、
    前記第2の視覚マーカーは、前記ヘッドマウント電子装置の前記第2の表面に対応付けられた第2のパターンによって定められ、前記第2のパターンは、第2の非繰返しパターンまたは第2の複数の明確なコーナーのうちの少なくとも一方を含む、請求項10に記載のシステム。
  12. 前記第1のパターンは、前記ヘッドマウント電子装置の前記第1の表面に対応付けられた第1の赤外線パターンであり、前記第2のパターンは、前記ヘッドマウント電子装置の前記第2の表面に対応付けられた第2の赤外線パターンであり、
    前記ハンドヘルド電子装置の前記光学センサは、赤外線投光器と赤外線センサとを含み、前記第1のパターンおよび前記第2のパターンが前記赤外線投光器によって照明されている間、前記第1のパターンおよび前記第2のパターンは前記赤外線センサのみに見える、請求項11に記載のシステム。
  13. 前記ハンドヘルド電子装置に対する前記ヘッドマウント電子装置の相対的な位置および動きを求めるとき、前記ハンドヘルド電子装置は、
    前記光学センサが収集した画像において検出された前記第1のパターンの向きを、前記第1の視覚マーカーの既知の画像に含まれる前記第1のパターンの向きと比較し、
    前記光学センサが収集した画像において検出された前記第2のパターンの向きを、前記第2の視覚マーカーの既知の画像に含まれる前記第2のパターンの向きと比較し、
    前記比較に基づいて、前記ハンドヘルド電子装置に対する前記ヘッドマウント電子装置の相対的な位置および向きを求めるように、
    構成されている、請求項11に記載のシステム。
  14. 前記第1の視覚マーカーは、前記ヘッドマウント電子装置の前面に対応付けられた第1の2次元バーコードを含み、前記第2の視覚マーカーは、前記ヘッドマウント電子装置の下面に対応付けられた第2の2次元バーコードを含む、請求項10に記載のシステム。
  15. 前記第1の表面は前記ヘッドマウント電子装置の前面であり、前記第2の表面は、前記ヘッドマウント電子装置の下面である、請求項1014のいずれか1項に記載のシステム。
  16. 前記ヘッドマウント電子装置はプロセッサを含み、前記プロセッサは、
    前記ヘッドマウント電子装置の光学センサを用いて前記ハンドヘルド電子装置の画像を取得し、
    前記光学センサによって取得した画像において複数の所定の特徴を検出し、
    前記検出した複数の所定の特徴を、前記複数の視覚マーカーの既知の画像と比較し、
    前記比較に基づいて少なくとも1つの視覚マーカーを識別し、
    前記識別した少なくとも1つの視覚マーカーに基づいて、前記ヘッドマウント電子装置に対する前記ハンドヘルド電子装置の相対的な位置を求めるように、
    構成されている、請求項10に記載のシステム。
  17. 前記識別した少なくとも1つの視覚マーカーは、前記ハンドヘルド電子装置のディスプレイ画面上にレンダリングされたまたは前記ハンドヘルド電子装置の外面上に位置する2次元バーコードである、請求項16に記載のシステム。
  18. 前記ハンドヘルド電子装置はハンドヘルドコントローラまたはスマートフォンであり、
    周囲環境における前記ハンドヘルド電子装置の動きは、前記ヘッドマウント電子装置によって生成された仮想環境における対応する対話に変換される、請求項10〜17のいずれか1項に記載のシステム。
  19. プロセッサ上で実行されると、請求項1〜9のいずれか1項に記載の方法を実行する命令を含むコンピュータプログラム。
JP2017556673A 2015-07-07 2016-06-28 仮想現実においてハンドヘルド電子装置を追跡するためのシステム Active JP6895390B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562189292P 2015-07-07 2015-07-07
US62/189,292 2015-07-07
US15/193,777 US10083544B2 (en) 2015-07-07 2016-06-27 System for tracking a handheld device in virtual reality
US15/193,777 2016-06-27
PCT/US2016/039813 WO2017007637A1 (en) 2015-07-07 2016-06-28 System for tracking a handheld device in virtual reality

Publications (2)

Publication Number Publication Date
JP2018530797A JP2018530797A (ja) 2018-10-18
JP6895390B2 true JP6895390B2 (ja) 2021-06-30

Family

ID=56611554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556673A Active JP6895390B2 (ja) 2015-07-07 2016-06-28 仮想現実においてハンドヘルド電子装置を追跡するためのシステム

Country Status (6)

Country Link
US (1) US10083544B2 (ja)
EP (1) EP3320413B1 (ja)
JP (1) JP6895390B2 (ja)
KR (1) KR102038638B1 (ja)
CN (1) CN107646098A (ja)
WO (1) WO2017007637A1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10334076B2 (en) * 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
US10099122B2 (en) * 2016-03-30 2018-10-16 Sony Interactive Entertainment Inc. Head-mounted display tracking
US10650591B1 (en) 2016-05-24 2020-05-12 Out of Sight Vision Systems LLC Collision avoidance system for head mounted display utilized in room scale virtual reality system
US10664993B1 (en) 2017-03-13 2020-05-26 Occipital, Inc. System for determining a pose of an object
US11494986B2 (en) * 2017-04-20 2022-11-08 Samsung Electronics Co., Ltd. System and method for two dimensional application usage in three dimensional virtual reality environment
US10444865B2 (en) * 2017-05-01 2019-10-15 Google Llc Tracking of position and orientation of objects in virtual reality systems
GB2555501B (en) * 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
US10719125B2 (en) 2017-05-09 2020-07-21 Microsoft Technology Licensing, Llc Object and environment tracking via shared sensor
CN109844694B (zh) * 2017-06-15 2020-08-25 腾讯科技(深圳)有限公司 使用集线器连接两个不同环境的系统和方法
US20180374269A1 (en) * 2017-06-21 2018-12-27 INVRSE Reality Limited Augmented reality and virtual reality mobile device user interface automatic calibration
WO2018232742A1 (en) 2017-06-23 2018-12-27 Tencent Technology (Shenzhen) Company Limited METHOD AND DEVICE FOR POINTING AN OBJECT IN A VIRTUAL REALITY (VR) SCENE, AND VR APPARATUS
GB2566924B (en) * 2017-07-27 2022-08-03 Mo Sys Engineering Ltd Positioning system
US10754496B2 (en) 2017-08-24 2020-08-25 Microsoft Technology Licensing, Llc Virtual reality input
US20190068900A1 (en) * 2017-08-30 2019-02-28 Lenovo (Singapore) Pte. Ltd. Display Component Emitting Both Visible Spectrum and Infrared Spectrum Light
US10796487B2 (en) * 2017-09-27 2020-10-06 Fisher-Rosemount Systems, Inc. 3D mapping of a process control environment
US11861136B1 (en) * 2017-09-29 2024-01-02 Apple Inc. Systems, methods, and graphical user interfaces for interacting with virtual reality environments
JP7027109B2 (ja) 2017-10-13 2022-03-01 任天堂株式会社 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
US10866652B2 (en) 2017-11-13 2020-12-15 Samsung Electronics Co., Ltd. System and method for distributed device tracking
KR102122600B1 (ko) * 2018-03-07 2020-06-12 매직 립, 인코포레이티드 주변 디바이스들의 시각적 추적
US10969600B2 (en) * 2018-03-08 2021-04-06 Apple Inc. Electronic devices with optical markers
EP3557378B1 (en) * 2018-04-16 2022-02-23 HTC Corporation Tracking system for tracking and rendering virtual object corresponding to physical object and the operating method for the same
EP3756074A4 (en) 2018-04-19 2021-10-20 Hewlett-Packard Development Company, L.P. INPUTS TO DEVICES WITH VIRTUAL REALITY FROM TOUCH SURFACE DEVICES
CN110555358B (zh) * 2018-06-01 2023-09-12 苹果公司 用于检测和识别ar/vr场景中的特征部的方法和设备
US11054638B2 (en) 2018-06-13 2021-07-06 Reavire, Inc. Tracking pointing direction of device
US10962783B2 (en) 2018-06-19 2021-03-30 Apple Inc. Electronic devices having electrically adjustable optical layers
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
US11036284B2 (en) 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
US11189054B2 (en) * 2018-09-28 2021-11-30 Apple Inc. Localization and mapping using images from multiple devices
CN109785381B (zh) * 2018-12-06 2021-11-16 苏州炫感信息科技有限公司 一种光学惯性融合空间定位方法及定位系统
US11461906B2 (en) * 2018-12-31 2022-10-04 Numeric Engineering, Inc. Systems and methods for monitoring offshore structures
CN111813214B (zh) * 2019-04-11 2023-05-16 广东虚拟现实科技有限公司 虚拟内容的处理方法、装置、终端设备及存储介质
US10699087B1 (en) * 2019-07-10 2020-06-30 Zebra Technologies Corporation Alternative method to interact with a user interface using standard barcode scanners paired up with an augmented reality heads up display
US10916062B1 (en) 2019-07-15 2021-02-09 Google Llc 6-DoF tracking using visual cues
US10942585B2 (en) * 2019-07-22 2021-03-09 Zspace, Inc. Trackability enhancement of a passive stylus
EP3798986A1 (en) * 2019-09-27 2021-03-31 Apple Inc. Location aware visual markers
KR20210067525A (ko) 2019-11-29 2021-06-08 이보람 버츄얼 카메라 트랙킹 시스템, 이를 이용한 mr 환경 실시간 합성시스템
WO2021112107A1 (ja) * 2019-12-04 2021-06-10 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2021096407A (ja) * 2019-12-18 2021-06-24 富士通クライアントコンピューティング株式会社 検出装置、情報処理装置、および、情報処理システム
US11348320B2 (en) 2020-04-02 2022-05-31 Samsung Electronics Company, Ltd. Object identification utilizing paired electronic devices
WO2021236170A1 (en) 2020-05-18 2021-11-25 Google Llc Low-power semi-passive relative six-degree-of-freedom tracking
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
US11930420B1 (en) 2020-09-15 2024-03-12 Apple Inc. Handheld electronic devices with contextual input-output capabilities
US11845001B2 (en) * 2021-01-14 2023-12-19 Htc Corporation Calibration system and method for handheld controller
EP4105764A1 (en) * 2021-06-18 2022-12-21 Auki Labs Ltd A computer implemented method for positioning and orienting an electronic device in a shared virtual space
US11693491B1 (en) * 2021-08-23 2023-07-04 Waleed Abdulla Tracking a paired peripheral input device based on a contact criterion
WO2023181151A1 (ja) * 2022-03-23 2023-09-28 株式会社ソニー・インタラクティブエンタテインメント マーカー装置、コンピュータシステム、方法およびプログラム
US11625787B1 (en) * 2022-05-03 2023-04-11 Capital One Services, Llc Augmented reality vehicle display systems
JP2024018242A (ja) * 2022-07-29 2024-02-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
WO2024122801A1 (ko) * 2022-12-09 2024-06-13 삼성전자주식회사 외부 전자 장치의 위치에 기반하여 시각적 객체를 표시하기 위한 전자 장치 및 그 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574479A (en) 1994-01-07 1996-11-12 Selectech, Ltd. Optical system for determining the roll orientation of a remote unit relative to a base unit
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
JP2004233201A (ja) * 2003-01-30 2004-08-19 Canon Inc 位置姿勢計測方法
JP5231809B2 (ja) * 2005-01-12 2013-07-10 スィンクオプティクス インコーポレイテッド ハンドヘルドビジョン型絶対ポインティングシステム
US7864159B2 (en) * 2005-01-12 2011-01-04 Thinkoptics, Inc. Handheld vision based absolute pointing system
JP5681850B2 (ja) * 2010-03-09 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
US9897805B2 (en) 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US8749396B2 (en) * 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
US8581738B2 (en) * 2011-08-25 2013-11-12 Sartorius Stedim Biotech Gmbh Assembling method, monitoring method, and augmented reality system used for indicating correct connection of parts
JP5538483B2 (ja) * 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
CN105229720B (zh) * 2013-05-21 2018-05-15 索尼公司 显示控制装置、显示控制方法以及记录介质
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US20140362110A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9377626B2 (en) * 2014-02-18 2016-06-28 Merge Labs, Inc. Remote control augmented motion data capture

Also Published As

Publication number Publication date
KR20170130580A (ko) 2017-11-28
US10083544B2 (en) 2018-09-25
EP3320413B1 (en) 2020-01-01
EP3320413A1 (en) 2018-05-16
KR102038638B1 (ko) 2019-10-30
US20170011553A1 (en) 2017-01-12
CN107646098A (zh) 2018-01-30
JP2018530797A (ja) 2018-10-18
WO2017007637A1 (en) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6895390B2 (ja) 仮想現実においてハンドヘルド電子装置を追跡するためのシステム
JP6820405B2 (ja) 拡張および/または仮想現実環境における6自由度コントローラを用いた仮想オブジェクトの操作
CN109891367B (zh) 在增强和/或虚拟现实环境中使用手势生成虚拟符号表面
US11181986B2 (en) Context-sensitive hand interaction
CN107667328B (zh) 用于在增强和/或虚拟现实环境中跟踪手持设备的系统
CN109074149B (zh) 用于增强或虚拟现实环境的头戴式参考系中的对象跟踪
CN109074154B (zh) 增强和/或虚拟现实中的悬停触摸输入补偿
US20140306891A1 (en) Holographic object feedback
JP2023526270A (ja) 低電力セミパッシブ相対6自由度トラッキング

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200305

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200310

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200529

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200602

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201117

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210126

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210330

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210511

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R150 Certificate of patent or registration of utility model

Ref document number: 6895390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150