JP6554631B2 - 仮想現実環境においてナビゲートする方法、システム、および装置 - Google Patents

仮想現実環境においてナビゲートする方法、システム、および装置 Download PDF

Info

Publication number
JP6554631B2
JP6554631B2 JP2017532919A JP2017532919A JP6554631B2 JP 6554631 B2 JP6554631 B2 JP 6554631B2 JP 2017532919 A JP2017532919 A JP 2017532919A JP 2017532919 A JP2017532919 A JP 2017532919A JP 6554631 B2 JP6554631 B2 JP 6554631B2
Authority
JP
Japan
Prior art keywords
user
movement
virtual reality
posture
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017532919A
Other languages
English (en)
Other versions
JP2018501570A (ja
Inventor
グロッシンガー、ナダブ
アロン、エミル
デイビッド、イド バル
デイビッド、イド バル
ソロドニク、エフラット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2018501570A publication Critical patent/JP2018501570A/ja
Application granted granted Critical
Publication of JP6554631B2 publication Critical patent/JP6554631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、概して仮想現実(VR)環境に関し、特に、VR環境においてナビゲートするための方法、システム、および装置に関する。
本発明の背景技術の記載に先立って、以下で用いる用語の定義を記載する。
本明細書で使用する用語「仮想現実」(VR)は、現実世界または仮想世界のある場所における物理的存在をシミュレート可能なコンピュータシミュレーション環境として定義される。仮想現実は、仮想の味覚、視覚、嗅覚、聴覚、触覚などの感覚体験を再現可能である。多くの従来のVRシステムは三次元(3D)仮想環境を提示するニアアイ(near eye)ディスプレイを使用する。
本明細書で使用する用語「拡張現実」(AR)は、物理的な現実世界の環境の生の直接的または間接的な視野として定義され、この物理的現実世界の環境の要素は、音声、動画、画像、GPSデータなどのコンピュータにより生成された知覚入力によって拡張(補足)される。これは、より一般的な概念として、コンピュータにより現実の視野が修正(場合によっては拡張ではなく減少)される媒介現実(mediated reality)に関する。
本明細書で使用する用語「ニアアイディスプレイ」は、着用可能な投影ディスプレイを含む装置として定義され、通常は、3D視覚を生成するために僅かに異なる視野がそれぞれの目に提示されるという意味で立体視である。
用語「仮想現実ヘッドセット」は「ゴーグル」とも呼ばれ、コンピュータ出力を表示する湾曲型(wrap-around)ビジュアルインターフェースである。一般に、コンピュータディスプレイ情報は、現実世界環境の3次元表現として提示される。ゴーグルは、コンピュータディスプレイ(スマートフォンの形態を取り得る)を単に保持する構造のみに加えて光学系を含んでいても含んでいなくてもよい。
本明細書で使用する用語「仮想現実ナビゲーション」は、ユーザの目に投影されたシーンの各変化をもたらす仮想環境全体の動きとして定義される。VRシステムは、現実世界の動きと仮想世界の動きとの間に、通常、1対1の比率を維持しない(例えば、現実世界で一歩前進することは必ずしも仮想世界で一歩前進することを意味しない)。したがって、ユーザによるVRナビゲーションを可能にするために、あらゆるタイプの入力装置が使用される。
図1は、ユーザ10が、ユーザ10の各目に対してシーン(例えば、タージマハル)の合成画像15A,15Bを投影するヘッドマウント立体ディスプレイ12(例えば、Oculus Rift(商標))を着用した場合の従来の仮想現実(VR)システムを示す。各目に対し僅かに異なる角度で合成シーンが入力されることで、ユーザの脳内に3D知覚が生成される。また、ユーザの視角または視線方向をリアルタイムで検出することができる加速度計またはジャイロスコープ(図示略)などのセンサがヘッドマウントディスプレイ12に備えられてもよい。これにより、VRシステムは、ユーザの新たな頭の向きに合うように画像15A,15Bを調節することができる。このような調整がリアルタイムで実行されることにより、現実世界における頭の動きを模倣する仮想現実の錯覚が実現され得る。
上述のようにユーザの視点を追跡する以外にも、VRシステムは、ジョイスティック14(あるいは、マウス、タッチパッド、またはキーボード)などの入力装置を介して仮想世界とのさらなる相互作用を提供する。このような入力装置は、ユーザ10が視覚的インジケータを使用してVRナビゲーションを実行することを可能にする。例えば、VRシーンの立体画像15A,15Bに示されたカーソル16A,16Bなどをユーザが移動させることが可能な視覚インジケータをユーザに提示することができる。そして、ジョイスティック14でトリガを引くなどのユーザ10による次の動作に応答して、ユーザは、カーソルで指し示した位置に向かって仮想環境内を進むことができる。ユーザ10が現実世界を一歩か二歩移動することに限定されているとき、仮想世界でユーザは長距離を歩き回ることができる。上述したような入力装置は、現在、仮想世界におけるナビゲーション問題に対処するために使用されている。必然的に、そのような従来の入力装置の使用は、ユーザによる全体的なVR体験を損なわせる。
本発明の一実施形態によれば、姿勢および/またはジェスチャを用いて仮想現実シーンにおいてナビゲートするための入力装置として機能するシステムが提供される。システムは、ユーザの両目に合成3Dシーンを投影して仮想現実環境を生成するように構成されたニアアイディスプレイと、前記ユーザの少なくとも1つの身体部分のジェスチャを導出するように構成されたジェスチャ及び姿勢取得装置と、前記合成3Dシーンにおいて、前記導出された前記身体部分のジェスチャを前記ユーザの移動または動きに変換し、前記変換された移動または動きに基づいて、前記仮想現実環境の前記ユーザの視点を修正するように構成されたコンピュータプロセッサとを含み得る。
本発明の他の実施形態によれば、姿勢およびジェスチャを用いて仮想現実シーンにおいてナビゲートするための方法が提供される。方法は、ユーザに仮想現実ビューを提示するために、ニアアイディスプレイを介して前記ユーザの両目に合成3Dシーンを投影すること、前記ユーザの少なくとも1つの身体部分によって実行される少なくとも1つのジェスチャまたは姿勢を識別すること、検出されたジェスチャまたは姿勢に関連付けられたベクトルの少なくとも1つのメトリックを測定すること、前記測定されたメトリックに基づいて、仮想現実環境に前記ユーザの移動または動きを適用すること、前記仮想現実環境における前記ユーザの移動または動きを反映するために前記仮想現実ビューを修正することを含み得る。
本発明のこれらの、付加的な、および/または他の態様および/または実施形態の利点は以下の詳細な説明で説明され、それらは、以下の詳細な説明から推測可能であり、および/または本発明の実施形態の実施よって理解可能である。
従来技術による仮想現実システムを例示する概略図。 本発明のいくつかの実施形態による仮想現実システムを例示する概略図。 本発明のいくつかの実施形態による仮想現実システムの態様を例示する図。 本発明のいくつかの実施形態による仮想現実システムの態様を例示する図。 本発明のいくつかの実施形態による仮想現実システムの態様を例示する図。 本発明の実施形態の仮想現実システムにおいて取り得る構造を例示するブロック図。 本発明の実施形態における方法を例示するフローチャート。 本発明のいくつかの実施形態による更なる態様を例示する図。 本発明のいくつかの実施形態による更なる態様を例示する図。 本発明のいくつかの実施形態の別の態様を例示する概略図。 本発明のいくつかの実施形態の更に別の態様を例示する図。 本発明のいくつかの実施形態の更に別の態様を例示する図。 本発明のいくつかの実施形態の更に別の態様を例示する図。 本発明のいくつかの実施形態による方法の更に別の態様を例示するフローチャート。 本発明のいくつかの実施形態の更に別の態様を例示する図。
本発明の実施形態をより良く理解し、どのように実施することができるかを示すために一例として添付図面を参照する。なお、図面において、同様の符号は対応する要素または部分を示す。
以下、図面を参照して詳細に説明するが、図示する詳細は単なる例示であり、本技術の好ましい実施形態の説明のみを目的としたものであり、本技術の原理および概念的側面の最も有用で容易に理解される説明として提供される。この点において、本技術の基本的な理解に必要なもの以外について本技術の構造的な詳細を示すことはしていない。図面とともに以下の説明を参照することにより、本発明の種々の形態を実際にどのように実施することができるかについて当業者に明らかとなる。
本技術の少なくとも1つの実施形態を詳細に説明するが、本発明はその適用において、以下に説明または図示する構成要素による詳細な構成および配置に限定されない。本技術は、他の実施形態に適用可能であるかまたは様々な方法で実施または実行される。また、本明細書で使用する表現および用語は、説明を目的としたものであり、限定とみなされるべきではない。
本発明のいくつかの実施形態は、ユーザに直感的な種々の身体姿勢および/またはジェスチャを実行することによって仮想現実環境でナビゲートするための方法、システム、および装置を提供する。具体的には、ユーザは、予め設定されたナビゲーションコマンドに本発明の実施形態によってリアルタイムで変換される方法でユーザ自身の身体または身体部分を動かすことができる。したがって、現実世界における特定の姿勢および/またはジェスチャによって、仮想現実世界における対応する動きを引き起こすことができる。
本発明のいくつかの実施形態は、ユーザによって適用された予め設定された姿勢またはジェスチャを最初に検出し、次いで、そのジェスチャまたは姿勢に関連付けられた定量的メトリックの測定を行う。これらのメトリックは、姿勢またはジェスチャに関連付けられたベクトルに関連し得るものであり、ベクトルの長さおよび空間的な角度を含み得る。いくつかの実施形態では、ベクトルのメトリックは、通常は連続的に仮想現実世界の定量的ナビゲーションコマンドに変換される。したがって、仮想現実におけるナビゲーションコマンドは、予め設定された終了動作がユーザによって実行されない限り変更されない。そのような終了動作は、基本姿勢または何らかの手操作を再開することを含み得る。
図2は、スマートフォン220などのモバイル装置とともに使用するように構成された仮想現実(VR)ヘッドセット240(ゴーグル)などの周辺環境200に取り付けられて一体化された本発明のいくつかの実施形態による装置210の斜視図である。装置210は、赤外線(IR)パターン照明器212などの照明器(例えば、レーザ送信機)と、IRカメラ214などのカメラとを含み得る。また、装置210は、初期画像処理を行うように構成されたプリプロセッサ(図示略)を含み得る。また、装置210は、VRヘッドセットをともに構成するスマートフォン220やニアアイディスプレイ240と物理的および電子的にインターフェースするように構成されている。このようなVRヘッドセット(ゴーグル)は、当該技術分野で知られているように、スマートフォンとともに使用するように構成することができ、通常は、スマートフォンのディスプレイ(図示しない反対側の面)と通信可能な光学機器と、カメラ222を含み得るスマートフォン220を収容するためのスリーブ250と、VRヘッドセット(ゴーグル)をユーザの頭部に固定するためのストラップ230とを含む。ただし、装置210は、Google Glass(商標)やOculus Rift(商標)などのニアアイディスプレイとインターフェースすることも可能である。
動作時に、装置210は、以下に詳述するように、ユーザの1つまたは複数の身体部分の直観的な姿勢およびジェスチャを使用してVRナビゲーションコマンドを供給する手段として機能し得る。
図3A〜図3Cは、本発明のいくつかの実施形態による仮想現実システムの態様を例示する図である。図3Aは、本発明の一実施形態による動作時のVRナビゲーション装置300を例示する概略図である。ユーザ10は、ニアアイディスプレイ330を装着しており、VRナビゲーション装置300は、排他的ではないが上述したように拡張機能(アドオン)として取り付けられ得る。VRナビゲーション装置300は、視野(FOV)322を有する照明器(例えば、レーザ送信器)320と、FOV312を有する撮像部(例えば、カメラ)310とを含み得る。両方のFOVはユーザの周辺の環境を網羅するのに十分大きいことが有利である。実用的には、両FOVは、両手を身体の両側に広げて開く場合などを含む両手の動きをカバーすることが重要である。これにより、「縦方向」の向きも可能であるが、照明器とカメラの両方の「横方向」の向きにも有益となる。非限定的な構成として、「横方向」の向きに対しては55°の水平FOVおよび43°の垂直FOVを含むことができ、「縦方向」の向きに対しては55°の垂直FOVおよび43°の水平FOVを含むことができる。
動作時、ニアアイディスプレイ330は、例えば、モバイル装置(図示略)などの外部コンピュータプロセッサを介してユーザ10の両目に合成シーンを投影するように構成することができる。照明器320は、ユーザ10および/またはその近傍にパターン光324を照射することができる。このパターン光の反射を撮像部310で撮像した後、コンピュータプロセッサ(ここでは図示せず)によって分析することができる。コンピュータプロセッサは、ユーザ10により実行されている姿勢またはジェスチャのタイプを導出することができる。ここでは、ユーザ10の手12の垂直上向きの指示指(pointing finger)14が、ベクトル340に沿って位置14Aから位置14Bに下げられる。このように指示指が下げられたことが検出されると、ベクトル340に関連付けられたメトリックがさらに分析されることにより、方向や変位などの(現実世界における)ベクトルのメトリックが(仮想世界における)対応するナビゲーション動作に変換される。図3Bは、ユーザの指示指が位置14Aにあるときにユーザ10が見ているものを示し、図3Bは、ユーザ10の指示指が位置14Bに移動したとき仮想世界で前進したことを示す。
図4は、本発明のいくつかの実施形態によるVRシステム400Bを示すブロック図である。システム400Bは、ジェスチャ及び姿勢取得装置402Bを含むかまたはそれに関連付けて動作可能とされ得る。このジェスチャ及び姿勢取得装置402Bは、ユーザの様々な身体部分やユーザが保持する物体の位置および向きにおける種々の経時的な変化を取得するように構成され得る。本明細書では、位置および向きを「姿勢」といい、姿勢の経時変化を「ジェスチャ」という。
非限定的な一つの例では、ジェスチャ及び姿勢取得装置402Bは、シーンの立体視を撮像する1つまたは複数の可視光カメラに基づき得る。このビデオ画像は、ユーザの動きを導出するためにプロセッサ404Bによって実行される種々の画像処理アルゴリズムを使用して処理される。別の可能な実施態様では、上述したパターン光が使用される。この場合、シーンから戻ってくるパターン光の反射が、姿勢および/またはジェスチャが推定される深さマップを生成するために分析される。
プロセッサ404Bは、ジェスチャ及び姿勢取得装置402Bからの生データ(技術によっては、複数のビデオ画像やパターン反射など)を受信し、そのプロセッサ上で実行される分類アルゴリズムを使用して、予め設定された基準(またはデータベース)に基づいて姿勢またはジェスチャを識別するように構成され得る。特定の姿勢またはジェスチャが識別されると、その検出された姿勢またはジェスチャにどの形式のVR移動またはVRナビゲーション動作が関連付けられているかを判断するために、姿勢及びジェスチャ・リポジトリ408Bを使用することができる。
したがって、姿勢及びジェスチャ・リポジトリ408Bに格納された辞書に基づいて、プロセッサ404Bは、ユーザに提示されるVRシーンの視点を調整して対応するVRナビゲーション動作に適合させるようにニアアイディスプレイ409Bに指示することができる。例えば、ユーザ410Bがジェスチャ420Bで手を振る場合、そのジェスチャ420Bは、プロセッサ404Bおよびリポジトリ208BによってVRシーンで「前進」と解釈され得る。その結果、プロセッサ204Bは、ニアアイディスプレイ409Bによって見るユーザ410Bの視点を前方に進めるように、ニアアイディスプレイ209Bに指示することができる。なお、以下で詳細に説明するように、手420Bを振ることは、VR世界で前進することを模倣する任意の他の操作(例えば、水泳の動き)に置き換えることができる。また、ジェスチャを使用してVRナビゲーション動作を引き起こすだけでなく、予め設定された静的な姿勢もVRナビゲーション動作を引き起こすために用いることができる。例えば、ユーザ410Bの手の振りは、手が特定の角度で上方に傾いたときに終了する。この姿勢は、「進む」を意味するナビゲーション動作コマンド(予めそのように設定されている場合)として解釈され、手がほぼその特定の角度で傾斜している限り、ユーザはVR世界で前進し続ける。上述したように、少なくともいくつかの実施形態では、ジェスチャ及び姿勢取得装置402Bはシステム400Bの外部にあり、遠隔地から位置および方向に関する生データを提供することができる。
図5は、本発明のいくつかの実施形態による方法500を示すフローチャートである。処理が開始されると、物体510の姿勢が識別される。姿勢が検出されると、検出された姿勢を空間的に表すベクトルが物体から導出される。このベクトルを仮想現実におけるナビゲーション動作に移行することで、そのベクトルの長さと角度に基づく連続的な動きが仮想世界530に適用される。次いで、方法は、終了動作またはトリガが識別されたかどうかを繰り返しチェックする(540)。終了動作が識別された場合、仮想世界での動きが終了する(550)。終了動作が識別されていない場合、その終了動作が識別されるまで、連続的な動きが繰り返し適用される(530)。なお、上記説明は、姿勢だけでなくジェスチャにも適用可能である。静的な姿勢であっても仮想世界の動きを引き起こすという点で姿勢の適用は優れている。
図6Aは、本発明の実施形態のVRシステムによる姿勢に関する態様を示す図である。一連の胴体の傾斜が示されている。姿勢611Cは、他のすべてのジェスチャまたは姿勢の元となる基本姿勢である。姿勢612Cにおいて、ユーザは現実世界で前方に傾き、この動作は、VRナビゲーション領域においてVRナビゲーションコマンドとして解釈され得る。上述のように、このコマンドは、611Cから612Cへの移行(例えば、ジェスチャ)であってもよいし、所定のVRナビゲーション動作を引き起こす角度αを規定する212C(例えば、姿勢)の単なる静的事象であってもよい。
同様に、姿勢613Cにおける前方への更なる傾きは、すでに発生しているVRナビゲーション動作の促進因子として働き、ここでは角度βが角度αよりも大きくなるにつれて動きがより速くなる。基本姿勢614Cに戻ると、終了動作とみなされ、通常は、VRナビゲーション動作がその状況に基づいて除去されるか、または少なくともその影響が低減される。
図6Bは、本発明のVRシステムの実施形態による姿勢に関する別の態様を示す図である。ここでは、基本姿勢は、互いに離間して特定の距離D1に配置された2つの手のひら621Dである。姿勢の種類(例えば、2つの手のひらが横並びに伸びた状態)が識別されると、その距離の測定値が姿勢622DでD2となることでVRナビゲーション動作が引き起こされ得る。この場合、D2の絶対値またはD1とD2との差が、上述したリポジトリによって予め設定されたVRナビゲーション動作に対応するメトリックとして機能する。
姿勢623Dでは、両手の間の距離D2は同じままである。いくつかの実施形態によれば、この場合、手は静的であり全く動かないものの、進行中のナビゲーションコマンドと解釈され得る。姿勢624Dでは、両手の間の横方向の距離D3が、VRナビゲーション動作に変換されるメトリックとして使用される。2つ以上の身体部分の間の比率、距離、および角度はすべて、対応するVRナビゲーションコマンドまたは動作として解釈されるメトリックとして使用することができる。
図7は、ユーザ700Aが仮想世界における動きまたは変位を引き起こし得るさらに別の方法を示す。ユーザ700Aは、身体を位置720から、前傾角度αを規定する位置710まで前方に傾ける。現実世界における前傾動作は、例えばセグウェイ(商標)を制御する場合と同様の方法で、仮想世界における前進動作に変換され得る。
具体的には、ユーザ700Aの胴体が位置710と基本位置720との間の非ゼロ角度αを規定する限り、仮想世界における前進動作が継続する。角度αの値は、前進の速度に影響を及ぼし得る。グラフ700Bに示されるように、現実世界の動きと、対応する仮想世界の動きとは線形関係を示していない。むしろグラフ700Bに示されるように、胴体の小さな傾きは仮想世界には影響を与えず、仮想世界での動きは、予め設定された角度αを超えた場合にのみ開始される。そして、仮想世界での動きが開始されると、仮想世界で前進するのに小さな傾きでも十分となる。特定の角度を超えると胴体の傾斜に対する感度が再び低下することで、前進速度の上限が効果的に付与される。
いくつかの実施形態では、使用される胴体の傾きは、位置722で装置によって生成された深さマップと、位置712で装置によって生成された深さマップとの差を分析することによって検出される。具体的には、位置720から位置710への移動中に現実世界の視点が変化すると、装置によって生成される深さマップも同様に変化する。深さマップの変化を分析することにより、胴体の傾きを間接的に推定することができる。なお、そのようなジェスチャは、ユーザを見る遠隔外部カメラ(ここでは図示せず)を必要とする場合もある。
図8Aおよび8Bは、本発明のいくつかの実施形態のさらに別の態様を示す図である。図8Aは、位置800Aにおけるユーザを示しており、2つの手810A,820Aが前方に互いに隣接して延びている。図8Bは、位置800Bにおけるユーザを示しており、2つの手810B,820Bがそれらの間に角度γを規定している。前方に延びた2つの手の姿勢の種類が認識されると、角度γの対応するメトリックが測定され、仮想世界におけるナビゲーションコマンドのガイダンスとして使用され得る。
図9は、本発明のいくつかの実施形態のさらに別の態様を示す図である。ここでは、仮想現実ナビゲーションは、ユーザ900の肩を、例えば、位置920から、変位930を規定する位置910に持ち上げることによって引き起こされ、この変位930が測定されることで仮想現実世界の対応するナビゲーションコマンドに変換される。なお、本明細書で説明するこのようなジェスチャは、シーン内に位置してユーザ900に向けられた遠隔カメラ940を必要とする場合もある。
図10は、本発明のいくつかの実施形態による態様を示す高レベルのフローチャートである。本発明の実施形態の一つの課題は、視線方向または頭の向きにおける変化と、頭部の位置に影響を及ぼしVRナビゲーションコマンドとして解釈されるべき意図的なジェスチャまたは姿勢とを区別することにある。この区別は、視点を変更する目的のみのためにユーザの頭が動いていることに関連していると認識されるものを身体全体のジェスチャから減算することによって実行され得る。
本発明のいくつかの実施形態によれば、パターン光の反射を分析することは、ユーザの頭部に対して身体部分のジェスチャを取り出すために、ユーザの頭の動きに関連する動き成分を減算することを含み得る。取得された動きは、望ましくない頭の動きを除去した、いわゆる「純粋なジェスチャ」となる。
非限定的な可能な実施形態によれば、反射に基づいて動きが識別されると(1010)、ユーザの頭が動いたかどうかがチェックされる(1020)。ユーザの頭が動いた場合は、手が同様に動いたかどうかがさらにチェックされる(1022)。手が動いた場合は、何も動作を行う必要がない(1030)。頭と手で異なる動きが行われた場合は、頭の動きと手の動きとの減算が行われる(1040)。頭が動かなかった場合には、手が動いたかどうかがチェックされる(1024)。手が動かなかった場合は、何も動作が行われない(1030)。手が動いた場合は、頭の動きと手の動きとの減算が行われる(1040)。
図11は、本発明の一実施形態によるシステムおよび環境を例示する概略図である。ユーザ10は、照明器1120および撮像装置1110をさらに含むニアアイディスプレイ1100を着用している。動作中、ニアアイディスプレイ1130は、ユーザ10の両目に合成シーンを投影するように構成されている。照明器1110は、ユーザ10自身および/またはユーザ10の近傍をパターン光1122にて照明し、そのパターン光の反射が撮像装置1110によって撮像され、ニアアイディスプレイ1100内のコンピュータプロセッサ1130によって分析されることで、リアルタイムで変化する位置および向きが取得される。ユーザ10が所定のジェスチャを行う場合、ジョイスティック18A/18Bなどの仮想入力装置が画像内に現れる。ユーザは、仮想世界で仮想ジョイスティックを掴み、現実世界におけるジェスチャを用いてその仮想ジョイスティックを制御することができる。すると、そのジョイスティックの向きの変化が20A/20Bで示されるように画像19A,19B内に現れる。ここでは、実際のジョイスティックが含まれておらず、むしろ、完全に仮想化されたジョイスティックが含まれている点に着目することが重要である。なお、任意の入力装置を仮想化することができる。この実施形態の焦点は、ジョイスティックを把持し制御することを模倣するユーザによって姿勢およびジェスチャが実行される点にあり、これにより、直感的な身体ジェスチャが可能となる。
以上の説明において、一つの実施形態は本発明の一例または実現例であり、「一実施形態」や「実施形態」や「いくつかの実施形態」などの記載は、必ずしもすべてが同じ実施形態を指すとは限らない。
本発明の種々の特徴が単一の実施形態の文脈で説明されている場合でも、それらの特徴を別々にまたは任意の適切な組み合わせで提供することもできる。あるいは、明瞭化のために別々の実施形態の文脈で本発明が説明されている場合でも、本発明を単一の実施形態で実施することもできる。
本明細書において、「いくつかの実施形態」や「一実施形態」や「他の実施形態」などは、それらの実施形態に関連して説明されている特定の特徴、構造、または特性が少なくともいくつかの実施形態において含まれていることを意味し、必ずしも本発明のすべての実施形態に含まれていることを意味しない。
本明細書で使用する表現および用語は、限定として解釈されるべきでなく、説明のみを目的とする。
本発明の教示の原理および使用は、実施例や添付の図面を参照することによって、より良く理解され得る。
本明細書で説明する詳細は、本発明の適用に対する限定を意図しない。
また、本発明は種々の方法で実行または実施することができ、上述した説明以外の実施形態でも実施することができる。
用語「含む」、「備える」、「からなる」やその変形表現は、1つまたは複数の構成要素、特徴、ステップ、あるいは整数またはグループの追加を排除するものではなく、構成要素、特徴、ステップまたは整数を特定するものと解釈されるべきである。
明細書または特許請求の範囲が「追加」の要素を指す場合、その追加の要素が2つ以上存在することを排除しない。
明細書または特許請求の範囲が「一つ」の要素を参照する場合、そのような参照は、その要素が1つのみ存在すると解釈されるべきではない。
本明細書において、構成要素、特徴、構造、または特性が含まれ「得る」と述べる場合、その特定の構成要素、特徴、構造、または特性が含まれることが必須とされるわけではない。
適用可能な場合には、実施形態を説明するために状態図、フローチャート、またはその両方を使用する場合があるが、本発明はこれらの図または対応する説明に限定されるものではない。例えば、処理の流れは、それぞれ図示したボックスや状態を通じて行う必要はなく、また、図示し説明したものと全く同じ順序で行う必要はない。
本発明の方法は、手動で、自動で、またはそれらの組み合わせで、選択されたステップまたは処理を実行または完了することによって実施することができる。
特許請求の範囲および明細書に記載した説明、実施例、方法および材料は、限定として解釈されるべきでなく、単に例示として解釈されるべきである。
本明細書で使用する技術用語および科学用語の意味は、他に定義されない限り、本発明が属する技術分野の当業者によって一般的に理解される意味である。
本発明は、本明細書で説明するものと同等または類似の方法および材料を用いて試験または実施において実施することができる。
本発明を限定された数の実施形態に関して説明したが、これらは本発明の範囲を限定するものではなく、むしろ、好ましい実施形態のいくつかの例示として解釈されるべきである。他の可能な変形、変更、および適用もまた本発明の範囲内に含まれる。したがって、本発明の範囲は、上記説明したものによって限定されるべきではなく、添付の特許請求の範囲およびそれらの同等物によって限定されるべきである。

Claims (22)

  1. 方法であって、
    ユーザに仮想物体を含む仮想現実ビューを提示するために前記ユーザの両目に合成3Dシーンを投影すること、
    前記ユーザの少なくとも1つの身体部分によって実行される少なくとも1つのジェスチャまたは姿勢を識別すること、
    前記識別されるジェスチャまたは姿勢を空間的に表すベクトルを導出すること、
    前記ベクトルの角度と前記ベクトルの長さのうちの少なくとも1つに基づいて、仮想現実環境における前記ユーザの連続的な移動または動きに前記ベクトルを変換すること、ここで、移動の速度は角度の値に基づいており、
    前記仮想物体を備えるアクションインターフェースまたは前記ユーザの連続的な移動または動きを決定すること、
    前記仮想現実環境における前記ユーザおよび前記仮想物体の移動または動きを反映するために前記仮想現実ビューを修正すること
    を備える方法。
  2. 前記少なくとも1つのジェスチャまたは姿勢を識別することは、予め設定された姿勢およびジェスチャのデータベースに分類子を適用することを含む、請求項1に記載の方法。
  3. 前記仮想現実環境における前記ユーザの移動または動きは、前記ベクトルの角度と前記ベクトルの長さのうちの少なくとも1つが予め設定された閾値を越える値を維持する限り継続して実行される、請求項1に記載の方法。
  4. 前記仮想現実環境における前記ユーザの移動または動きは、予め設定された終了動作を検出することによって終了する、請求項1に記載の方法。
  5. 前記仮想現実環境における前記ユーザの移動または動きは、基本姿勢位置への前記身体部分の復帰を検出することによって終了する、請求項1に記載の方法。
  6. 前記識別される姿勢は、前記ユーザの胴体を前方へ傾けることである、請求項1に記載の方法。
  7. 前記識別される姿勢は、前記ユーザの肩を上げることである、請求項1に記載の方法。
  8. 前記識別される姿勢は、前記ユーザの少なくとも2つの身体部分の間の空間関係によって規定され、当該方法は、
    前記少なくとも2つの身体部分の間の角度を判定すること、
    当該判定した角度を前記仮想現実環境における前記ユーザの連続的な移動または動きに変換することをさらに備える、請求項1に記載の方法。
  9. 前記識別されるジェスチャまたは姿勢に関連付けられた前記ベクトルは空間的な方向角度をさらに含む、請求項1に記載の方法。
  10. 前記少なくとも1つのジェスチャまたは姿勢を識別することは、前記ユーザの頭部に対して前記少なくとも1つの身体部分の姿勢およびジェスチャのみを得るために、前記ユーザの頭の動きに関連する動き成分を除去することをさらに含む、請求項1に記載の方法。
  11. 方法であって、
    ユーザに仮想現実ビューを提示するために前記ユーザの両目に合成3Dシーンを投影すること、
    前記ユーザの少なくとも1つの身体部分によって実行される少なくとも1つのジェスチャまたは姿勢を識別すること、
    前記識別されるジェスチャまたは姿勢を空間的に表すベクトルを導出すること、
    前記ベクトルの角度と前記ベクトルの長さのうちの少なくとも1つに基づいて、仮想現実環境における前記ユーザの連続的な移動または動きに前記ベクトルを変換すること、ここで、移動の速度は角度の値に基づいており、
    前記仮想現実環境における前記ユーザの移動または動きを反映するために前記仮想現実ビューを修正すること、
    仮想ユーザインターフェース物体を前記合成3Dシーンに重ね合わせて、前記ユーザが前記仮想ユーザインターフェース物体に対してジェスチャおよび姿勢を適用することを可能とすること
    を備る方法。
  12. システムであって、
    ユーザに仮想物体を含む仮想現実ビューを提示するために前記ユーザの両目に合成3Dシーンを投影するように構成された装置と、
    コンピュータプロセッサであって、
    前記ユーザの少なくとも1つの身体部分によって実行される少なくとも1つのジェスチャまたは姿勢を識別し、
    前記識別されるジェスチャまたは姿勢を空間的に表すベクトルを導出し、
    前記ベクトルの角度と前記ベクトルの長さのうちの少なくとも1つに基づいて、仮想現実環境における前記ユーザの連続的な移動または動きに前記ベクトルを変換し、ここで、移動の速度は角度の値に基づいており、
    前記仮想物体を備えるアクションインターフェースまたは前記ユーザの連続的な移動または動きを決定すること、
    前記仮想現実環境における前記ユーザおよび前記仮想物体の移動または動きを反映するために前記仮想現実ビューを修正するように構成された前記コンピュータプロセッサと
    を備えるシステム。
  13. 前記コンピュータプロセッサはさらに、予め設定された姿勢およびジェスチャのデータベースに分類子を適用することによって前記少なくとも1つのジェスチャまたは姿勢を識別するように構成されている、請求項12に記載のシステム。
  14. 前記コンピュータプロセッサはさらに、前記ベクトルの角度と前記ベクトルの長さのうちの少なくとも1つが予め設定された閾値を越える値を維持する限り前記仮想現実環境における前記ユーザの移動または動きを継続して実行するように構成されている、請求項12に記載のシステム。
  15. 前記コンピュータプロセッサはさらに、予め設定された終了動作を検出することによって前記仮想現実環境における前記ユーザの移動または動きを終了するように構成されている、請求項12に記載のシステム。
  16. 前記コンピュータプロセッサはさらに、基本姿勢位置への前記身体部分の復帰を検出することによって前記仮想現実環境における前記ユーザの移動または動きを終了するように構成されている、請求項12に記載のシステム。
  17. 前記識別される姿勢は、前記ユーザの胴体を前方へ傾けることである、請求項12に記載のシステム。
  18. 前記識別される姿勢は、前記ユーザの肩を上げることである、請求項12に記載のシステム。
  19. 前記識別される姿勢は、前記ユーザの少なくとも2つの身体部分の間の空間関係によって規定され、前記コンピュータプロセッサはさらに、前記少なくとも2つの身体部分の間の角度を判定して、当該判定した角度を前記仮想現実環境における前記ユーザの連続的な移動または動きに変換するように構成されている、請求項12に記載のシステム。
  20. 前記識別されるジェスチャまたは姿勢に関連付けられた前記ベクトルは空間的な方向角度をさらに含む、請求項12に記載のシステム。
  21. 前記コンピュータプロセッサはさらに、前記ユーザの頭部に対して前記少なくとも1つの身体部分の姿勢およびジェスチャのみを得るために、前記ユーザの頭の動きに関連する動き成分を除去するように構成されている、請求項12に記載のシステム。
  22. システムであって、
    ユーザに仮想現実ビューを提示するために前記ユーザの両目に合成3Dシーンを投影するように構成された装置と、
    コンピュータプロセッサであって、
    前記ユーザの少なくとも1つの身体部分によって実行される少なくとも1つのジェスチャまたは姿勢を識別し、
    前記識別されるジェスチャまたは姿勢を空間的に表すベクトルを導出し、
    前記ベクトルの角度と前記ベクトルの長さのうちの少なくとも1つに基づいて、仮想現実環境における前記ユーザの連続的な移動または動きに前記ベクトルを変換し、ここで、移動の速度は角度の値に基づいており、
    前記仮想現実環境における前記ユーザの移動または動きを反映するために前記仮想現実ビューを修正するように構成された前記コンピュータプロセッサと
    を備え、
    前記コンピュータプロセッサはさらに、仮想ユーザインターフェース物体を前記合成3Dシーンに重ね合わせて、前記ユーザが前記仮想ユーザインターフェース物体に対してジェスチャおよび姿勢を適用することを可能とするように構成されている、システム。
JP2017532919A 2014-12-18 2015-12-18 仮想現実環境においてナビゲートする方法、システム、および装置 Active JP6554631B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462093493P 2014-12-18 2014-12-18
US62/093,493 2014-12-18
PCT/US2015/066907 WO2016100931A1 (en) 2014-12-18 2015-12-18 Method, system and device for navigating in a virtual reality environment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018244584A Division JP6810125B2 (ja) 2014-12-18 2018-12-27 仮想現実環境においてナビゲートする方法、システム、および装置

Publications (2)

Publication Number Publication Date
JP2018501570A JP2018501570A (ja) 2018-01-18
JP6554631B2 true JP6554631B2 (ja) 2019-08-07

Family

ID=56127742

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017532919A Active JP6554631B2 (ja) 2014-12-18 2015-12-18 仮想現実環境においてナビゲートする方法、システム、および装置
JP2018244584A Active JP6810125B2 (ja) 2014-12-18 2018-12-27 仮想現実環境においてナビゲートする方法、システム、および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018244584A Active JP6810125B2 (ja) 2014-12-18 2018-12-27 仮想現実環境においてナビゲートする方法、システム、および装置

Country Status (6)

Country Link
US (2) US9659413B2 (ja)
EP (1) EP3234741A4 (ja)
JP (2) JP6554631B2 (ja)
KR (4) KR20210099163A (ja)
CN (2) CN113050802A (ja)
WO (1) WO2016100931A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5926184B2 (ja) * 2009-09-22 2016-05-25 ペブルステック リミテッド コンピュータ装置の遠隔制御
CN113050802A (zh) * 2014-12-18 2021-06-29 脸谱科技有限责任公司 用于在虚拟现实环境中导航的方法、系统及设备
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
EP3106963B1 (en) 2015-06-16 2019-07-24 Nokia Technologies Oy Mediated reality
JP6203346B1 (ja) * 2016-08-16 2017-09-27 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
DK3545385T3 (da) 2016-11-25 2021-10-04 Sensoryx AG Bærbart bevægelsessporingssystem
US10055028B2 (en) * 2016-12-05 2018-08-21 Google Llc End of session detection in an augmented and/or virtual reality environment
CN106775245B (zh) * 2016-12-19 2020-02-14 传线网络科技(上海)有限公司 基于虚拟现实的用户属性设置方法及装置
US11157131B2 (en) 2017-02-24 2021-10-26 Vrad Inc. Virtual reality-based radiology practice apparatus and method
US11436811B2 (en) 2017-04-25 2022-09-06 Microsoft Technology Licensing, Llc Container-based virtual camera rotation
US10417827B2 (en) * 2017-05-04 2019-09-17 Microsoft Technology Licensing, Llc Syndication of direct and indirect interactions in a computer-mediated reality environment
FR3069936B1 (fr) 2017-08-03 2019-09-27 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif
JP7073481B2 (ja) * 2018-03-08 2022-05-23 塁 佐藤 画像表示システム
WO2020068739A1 (en) * 2018-09-27 2020-04-02 Dakiana Research Llc Moving an avatar based on real-world data
WO2020106299A1 (en) * 2018-11-21 2020-05-28 Hewlett-Packard Development Company, L.P. Augmenting live images of a scene for occlusion
CN110221690B (zh) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端
EP3942401A1 (en) 2019-06-20 2022-01-26 Dirtt Environmental Solutions Ltd. Voice communication system within a mixed-reality environment
US11462000B2 (en) * 2019-08-26 2022-10-04 Apple Inc. Image-based detection of surfaces that provide specular reflections and reflection modification
KR102464437B1 (ko) 2022-05-04 2022-11-09 주식회사 엠펀치 기가 픽셀 미디어 객체 감상 및 거래를 제공하는 메타버스 기반 크로스 플랫폼 서비스 시스템

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11305907A (ja) * 1998-04-21 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> 仮想現実空間内移動インタフェース装置及び情報生成方法並びに情報生成プログラムを記録した記録媒体
JP2001229394A (ja) * 2000-02-17 2001-08-24 Nippon Telegr & Teleph Corp <Ntt> 仮想空間制御方法、仮想空間制御装置、および仮想空間制御プログラムを記録した記録媒体
JP2001250123A (ja) * 2000-03-06 2001-09-14 Nippon Telegr & Teleph Corp <Ntt> 仮想空間制御方法、仮想空間制御装置、および仮想空間制御プログラムを記録した記録媒体
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
JP2006323769A (ja) * 2005-05-20 2006-11-30 Tokai Univ 対面入力装置
WO2007130582A2 (en) * 2006-05-04 2007-11-15 Sony Computer Entertainment America Inc. Computer imput device having gearing effects
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8488246B2 (en) * 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9366862B2 (en) * 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
KR20130000401A (ko) * 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US9134534B2 (en) * 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US8582867B2 (en) * 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8657683B2 (en) * 2011-05-31 2014-02-25 Microsoft Corporation Action selection gesturing
US20120320080A1 (en) 2011-06-14 2012-12-20 Microsoft Corporation Motion based virtual object navigation
US9002099B2 (en) * 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
EP2761362A2 (en) * 2011-09-26 2014-08-06 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20130137076A1 (en) 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
JP5689850B2 (ja) * 2012-05-25 2015-03-25 株式会社ソニー・コンピュータエンタテインメント 映像解析装置、映像解析方法、および注視点表示システム
IN2015KN00682A (ja) * 2012-09-03 2015-07-17 Sensomotoric Instr Ges Für Innovative Sensorik Mbh
JP6066676B2 (ja) 2012-11-06 2017-01-25 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイおよび映像提示システム
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9977492B2 (en) * 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
US9202313B2 (en) * 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
JP5696908B2 (ja) * 2013-02-15 2015-04-08 コニカミノルタ株式会社 操作表示システム
US20140282275A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a zooming gesture
US9443354B2 (en) * 2013-04-29 2016-09-13 Microsoft Technology Licensing, Llc Mixed reality interactions
US9367960B2 (en) * 2013-05-22 2016-06-14 Microsoft Technology Licensing, Llc Body-locked placement of augmented reality objects
JP2014235634A (ja) * 2013-06-04 2014-12-15 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
KR101347037B1 (ko) * 2013-07-31 2014-01-03 주식회사 장 자동화 종류가 상이한 식물종자가 부착되는 종자붙임 멀칭재 제조 방법 및 종자붙임 멀칭재
US9285872B1 (en) * 2013-12-12 2016-03-15 Google Inc. Using head gesture and eye position to wake a head mounted device
CN113050802A (zh) * 2014-12-18 2021-06-29 脸谱科技有限责任公司 用于在虚拟现实环境中导航的方法、系统及设备
US9588593B2 (en) * 2015-06-30 2017-03-07 Ariadne's Thread (Usa), Inc. Virtual reality system with control command gestures

Also Published As

Publication number Publication date
JP6810125B2 (ja) 2021-01-06
EP3234741A4 (en) 2018-08-22
KR102284821B1 (ko) 2021-08-03
JP2019083033A (ja) 2019-05-30
KR20180088754A (ko) 2018-08-06
WO2016100931A8 (en) 2017-07-13
JP2018501570A (ja) 2018-01-18
US20170169618A1 (en) 2017-06-15
WO2016100931A1 (en) 2016-06-23
KR20210097818A (ko) 2021-08-09
US9659413B2 (en) 2017-05-23
KR20210099163A (ko) 2021-08-11
CN107209561A (zh) 2017-09-26
US9972136B2 (en) 2018-05-15
KR20170081272A (ko) 2017-07-11
US20160180595A1 (en) 2016-06-23
EP3234741A1 (en) 2017-10-25
CN113050802A (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
JP6554631B2 (ja) 仮想現実環境においてナビゲートする方法、システム、および装置
CN110045816B (zh) 近眼显示器和系统
CN108780360B (zh) 虚拟现实导航
EP3564788B1 (en) Three-dimensional user input
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20140015831A1 (en) Apparatus and method for processing manipulation of 3d virtual object
US20130050069A1 (en) Method and system for use in providing three dimensional user interface
US20140139429A1 (en) System and method for computer vision based hand gesture identification
JP2023507867A (ja) 人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
WO2017122270A1 (ja) 画像表示装置
JP2018032217A (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
US11423585B2 (en) Velocity-based controls
JP2018110871A (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6290493B2 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6403843B1 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JPWO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2024500740A (ja) オブジェクトの選択の方法及びシステム
Reiners et al. Blurry (Sticky) Finger: Proprioceptive Pointing and Selection of Distant Objects for Optical See-through based Augmented Reality

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190604

R150 Certificate of patent or registration of utility model

Ref document number: 6554631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250