JP7324843B2 - ヘッドマウント情報処理装置およびその制御方法 - Google Patents
ヘッドマウント情報処理装置およびその制御方法 Download PDFInfo
- Publication number
- JP7324843B2 JP7324843B2 JP2021525503A JP2021525503A JP7324843B2 JP 7324843 B2 JP7324843 B2 JP 7324843B2 JP 2021525503 A JP2021525503 A JP 2021525503A JP 2021525503 A JP2021525503 A JP 2021525503A JP 7324843 B2 JP7324843 B2 JP 7324843B2
- Authority
- JP
- Japan
- Prior art keywords
- controller
- rotation
- head
- command
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0331—Finger worn pointing device
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
《HMDの概略》
図1は、本発明の実施の形態1によるヘッドマウント情報処理装置の外形例を示す概略図である。図2(a)および図2(b)は、図1におけるコントローラのそれぞれ異なる外形例を示す概略図である。図1のヘッドマウント情報処理装置(HMD)1は、本体デバイス2と、コントローラ3とを備える。本体デバイス2は、ユーザの頭部に装着された状態で使用され、ディスプレイに拡張現実(AR)の情報や仮想現実(VR)の情報等を表示することができる。この際の表示方式として、VR型(非透過型)またはMR型(透過型)等が知られている。コントローラ3は、ユーザの手首または手に装着された状態(例えば巻いた状態)で使用され、ユーザの操作に応じて本体デバイス2を制御する。
図24は、本発明の比較例となるヘッドマウント情報処理装置において、コントローラの外形例を示す概略図である。図24に示すコントローラ110は、ユーザが手に所持した状態で使用される。コントローラ110は、例えば、2個のボタンスイッチ(AおよびB)を備える。ユーザは、コントローラ110の方向を操作することで、図3に示したポインティングビーム12の指し位置を操作し、指し位置を実行ボタン11に合わせた状態でボタンスイッチ(例えばA)を押下することで実行ボタン11を選択する。
図4は、図1において、ユーザによるコントローラの操作方法の一例を説明する図である。図4に示すように、ユーザは、コントローラ3を手首に装着した状態(例えば巻いた状態)で使用する。ユーザは、図3においてポインティングビーム12の指し位置を操作する場合、図4の方向操作16aに示されるように、腕の方向を変えることでコントローラの方向15を変える。また、ユーザは、図3において指し位置が指すオブジェクト(実行ボタン)11を選択する場合、図4の回転操作16bに示されるように、手首の回転によってコントローラ3を回転させる。ここで、コントローラの方向15は、コントローラ3を回転する際の回転軸の方向と一致する。言い換えれば、コントローラ3の方向15は、コントローラ3が有するリストバンド形状の軸線方向となる。
図5は、図1のヘッドマウント情報処理装置の概略構成例を示す回路ブロック図である。図5において、コントローラ3は、例えば、位置・姿勢センサ5と、カメラ20と、測距センサ21と、CPU(Central Processing Unit)22と、メモリ23と、近接通信インタフェース24と、これらを相互に接続するバス26と、近接通信インタフェース24に接続されるアンテナ25とを備える。位置・姿勢センサ5は、加速度センサ(3軸加速度センサ)30と、ジャイロセンサ(3軸角速度センサ)31と、地磁気センサ32とを備え、コントローラ3の位置・姿勢を検出する。
図6Aは、図5のコントローラにおけるCPU周りの主要部の構成例を示すブロック図であり、図6Bは、図5の本体デバイスにおけるCPU周りの主要部の構成例を示すブロック図である。図6Aにおいて、制御部70は、センサデータ処理部75と、通信制御部76とを備える。これらの各部は、例えば、図5のCPU22がメモリ23に記憶されるプログラム35を実行することでCPU22上に実装される。
図7は、図5のヘッドマウント情報処理装置における概略的な制御方法の一例を示すフロー図である。図7において、コントローラ3は、電源オンの後(ステップS101)、初期化処理を行う(ステップS102)。初期化処理は、センサデータの処理に伴う座標軸を初期化するためのものであり、例えば、ユーザに、予め定めた操作方法で初期化コマンドを入力させることで行われる。
《記号の用法》
以下、図6Aおよび図6Bに示した制御部70,80の詳細な処理内容について説明する。コントローラ3における位置・姿勢センサ5の検出結果を処理する方式として、代表的には、オイラー角を用いる方式や、正規化四元数を用いる方式等が挙げられる。実施の形態1では、一例として、正規化四元数を用いる場合を想定する。正規化四元数を用いるにあたって、まずは、明細書で使用する記号の用法について説明する。
q=cos(η/2)+nXsin(η/2)i+nYsin(η/2)j+nZsin(η/2)k …(1)
[q]=q/(qq*)1/2 …(2)
p=pXi+pYj+pZk …(3)
PS(n)p=-nSc(np) …(4)
p2=qp1q* …(5)
R(n1,n2)=[1-n2n1] …(6)
qT1=R(nZ12,nZ) …(7)
nY12m=qT1nY12qT1 * …(8)
qT2=R(nY12m,nY) …(9)
qT=qT2qT1 …(10)
n2=qT *n1qT …(11)
まず、コントローラ3に紐付けされるコントローラ座標系の表現について説明する。コントローラ座標系の座標軸は、ジャイロセンサ31の座標軸である。図8Aおよび図8Bは、図6Aのコントローラに紐付けされるコントローラ座標系の一例を示す図である。図8Aおよび図8Bには、一例として、ユーザが、右手にコントローラ3を装着し、位置・姿勢センサ5(ジャイロセンサ31)を手首の内側に配置した例が示される。
ωC=ωXi+ωYj+ωZk …(12)
ωS=qCSωCqCS * …(13)
ΔqCS/Δt=(1/2)ωSqCS=(1/2)qCSωC …(14)
aC=aXi+aYj+aZk …(15)
aS=qCSaCqCS * …(16)
ΔvS/Δt=aS-gS …(17)
ΔOCS/Δt=vS …(18)
図7の初期化処理(ステップS102,S202)に際し、ユーザは、まず、腕を基準の位置に置き、そこでコントローラ3の初期化コマンドを入力する。初期化コマンドは、例えば、前述したように手首を3回内側に倒す(右手の場合は左に回転させる)といった動作の他に、もう一方の手でコントローラ3を3回叩く、といった動作で入力されてもよい。あるいは、初期化コマンドは、このような動作に限らず、例えば、本体デバイス2に設置されたハードスイッチの押下等によって入力されてもよい。
gS=gC …(19)
図7におけるステップS204の処理の詳細について説明する。図8Bに示されるように、ユーザの腕の方向は、コントローラ座標系において単位ベクトルnACで定められる。そして、初期化時点からの回転qCSによって、各時点(各検出周期)における腕の方向が算出される。初期座標系における腕の方向の単位ベクトルをnASとすると、単位ベクトルnASは式(20)で求まる。
nAS=qCSnACqCS * …(20)
qCSU=qT *qCSqT …(21)
nAU=qCSUnAU0qCSU * …(22)
次に、図7におけるステップS205の処理の詳細について説明する。手首の回転は、腕の方向を回転軸とした回転である。このため、ジャイロセンサ31の出力から当該回転軸方向の成分を抽出することで、手首の回転を検出することができる。図8Bに示したように、コントローラ座標系における腕の方向(図8BではX軸方向)の単位ベクトルをnACとする。
ωRC=PS(nAC)ωC …(23)
ΔRRC/Δt=ωRC …(24)
RRC0=<RRC> …(25)
<RRC(t+Δt)>=ξRRC(t)+(1-ξ)<RRC(t)> …(26)
図7のステップS102で述べたように、ユーザは、腕を基準の位置に置いた状態で初期化コマンドを入力する。基準の位置は、例えば、腕を水平方向に保つ位置である。ただし、ユーザが腕を水平方向に保ったつもりでも、実際には、腕が水平方向から若干ズレてしまっている場合がある。すなわち、ユーザが体感する水平方向と、重力加速度に基づく実際の水平方向との間に誤差が生じ得る。この誤差は、ユーザが腕の方向によってポインティングビーム12を操作する際に、ユーザに違和感を生じさせる。そこで、水平方向をユーザの体感に整合させるため、重力加速度ベクトルを利用した補正を行ってもよい。
qCS0=R(gS,gS0) …(27)
図15は、図1において、本体デバイスのディスプレイに表示される図3とは異なる画像の一例を示す図である。図15では、図3に示したポインティングビーム12の代わりにカーソル13が表示される。この場合、ユーザの視線から見て、カーソル13に重なったオブジェクト(実行ボタン)11が選択対象となる。図3の場合と同様に、ユーザは、カーソルの位置(指し位置)を、腕の方向で制御する。
以上、実施の形態1のヘッドマウント情報処理装置を用いることで、代表的には、ユーザの利便性を向上させることが可能になる。具体的には、ユーザは、図24に示したようなコントローラ110を用いる場合と異なり、手を自由に使えるようになる。また、ユーザの動き方に応じてトリガ命令(コマンド)の数を増やすことが可能になる。なお、前述したように、このユーザの動き方に応じたトリガ命令(コマンド)は、図24に示したようなコントローラ110に適用することも可能である。
《トリガ命令の変形例》
図16Aは、本発明の実施の形態2によるヘッドマウント情報処理装置において、図6Bの操作命令変換部によるトリガ命令の判別方法の一例を示す図である。図16Bは、図16Aに応じた、図6Bの表示制御部の処理内容の一例を説明する図である。図6Bの操作命令変換部87は、コントローラ3を回転させた状態が維持された場合に、ドラッグ&ドロップの開始命令を発行し、当該回転させた状態が元に戻された場合に、ドラッグ&ドロップの終了命令を発行する。
OCSd=PS(nAS)(OCS-OCS0) …(28)
D=(OCSdOCSd *)1/2 …(29)
以上、実施の形態2のヘッドマウント情報処理装置を用いることで、実施の形態1で述べた各種効果に加えて、トリガ命令(コマンド)の数を更に増やすことが可能になる。また、図18における突き出し操作16cと、図16Bにおけるドラッグ動作とを組み合わせて用いることも可能である。この場合、ユーザは、例えば、3D表示内でオブジェクトを移動する際に、突き出し操作16cによって3D表示内の奥行き方向へオブジェクトを移動することが可能になる。
《コントローラによる制御方法のその他の例》
図20は、本発明の実施の形態3によるヘッドマウント情報処理装置において、図6Aおよび図6Bの構成例を利用したその他の制御方法の一例を説明する図である。例えば、図6Bの操作命令変換部87は、回転検出部92によって検出されるコントローラ3の回転の回転量(回転角RRC)を、本体デバイス2における連続的な制御で使用される状態制御命令に変換してもよい。状態制御として、例えば、仮想空間内での回転の位置・速度制御等が挙げられる。
以上、実施の形態3のヘッドマウント情報処理装置を用いることで、実施の形態1等で述べた各種効果に加えて、ユーザは、手首の回転操作によって本体デバイス2に対して連続的な制御(状態制御)を行うことが可能になる。
《コントローラの装着箇所(変形例)》
図21は、本発明の実施の形態4によるヘッドマウント情報処理装置において、コントローラの装着箇所の変形例を示す図である。ユーザは、図21に示されるように、コントローラ3を手首ではなく、手(甲または掌位置)に巻いた状態で使用してもよい。この場合、手首に巻く場合と比較して手の自由度が低下するものの、ユーザは、掌部分の向きでポインティングビームの方向を制御できるため、腕の方向を大きく変更しなくて済む。
図23は、本発明の実施の形態4によるヘッドマウント情報処理装置において、ユーザ座標系の変形例を示す図である。ユーザ座標系は、図10に示したような本体デバイス2に固定される座標系の他に、図23に示されるように、ユーザの胴体に固定される座標系であってもよい。図23の例では、胴体の正面水平方向がX軸とされ、水平面内でユーザの左手方向がY軸とされ、垂直方向がZ軸とされる。
《HMDにおけるその他の変形例》
《複合センサ》
例えば、図5において、コントローラ3に搭載されるジャイロセンサ31の検出結果とカメラ20の撮像画像との組み合わせによって、ポインティングビームの指し位置を制御することも可能である。具体的には、例えば、コントローラ3は、カメラ20の撮像画像に基づいて、手の甲(または掌でもよい)の特徴点の方向を検出し、当該特徴点の基準点からの方向変化分を画像処理によって検出する。
qH=R(nH0,nH) …(30)
qHS=qCSqHqCS * …(31)
qCSM=qHSqCS=qCSR(nH0,nH) …(32)
前述した図9の例では、コントローラ3の角度変化量αと、ポインティングビームの角度変化量αとが同じである場合を示したが、ポインティングビームの角度変化量は、コントローラ3の角度変化量よりも大きい、または小さくてもよい。これにより、ユーザは、例えば、腕の動きを抑えた状態でポインティングビームの指し位置を操作することや、または、指し位置をきめ細かく制御すること等が可能になる。その結果、ユーザの利便性の向上が図れる。
|λ|=2cos-1(Sc(qCS)) …(33)
qCSm=cos(w|λ|/2)+sin(w|λ|/2)Vc(qCS)/sin(|λ|/2) …(34)
コントローラ3を使用するか否か(すなわちオン・オフ)を切り替える場合、明示的なスイッチ等を設けてもよいが、自動的にオン・オフを切り替える機能を設けることも可能である。具体的には、本体デバイス2は、例えば、操作命令変換部87からのトリガ命令が一定期間発行されなかった場合、タイムアウトとしてコントローラ3からの入力を無効にする。その後、コントローラからの入力を再開する場合には、例えば、ユーザに初期化コマンドを発行させる。
Claims (9)
- ユーザの頭部に装着された状態で使用される本体デバイスと、前記ユーザの手首または手に装着された状態で使用され、前記本体デバイスを制御するコントローラと、を有するヘッドマウント情報処理装置であって、
前記コントローラは、
前記本体デバイスと通信を行う近接通信インタフェースと、
前記コントローラの位置・姿勢を検出する位置・姿勢センサと、
を有し、
前記本体デバイスは、
前記コントローラと通信を行う近接通信インタフェースと、
所定の画像を表示するディスプレイと、
を有し、
前記コントローラまたは前記本体デバイスは、
前記位置・姿勢センサの検出結果に基づき、前記コントローラの方向を演算によって検出する方向検出部と、
前記位置・姿勢センサの検出結果に基づき、前記コントローラの方向を回転軸とする前記コントローラの回転を演算によって検出する回転検出部と、
前記方向検出部の検出結果および前記回転検出部の検出結果を、前記本体デバイスに対する命令に変換する操作命令変換部と、
を有し、
前記本体デバイスは、ポインティングビームまたはカーソルの2次元空間上での指し位置を前記ディスプレイに表示し、前記2次元空間上での指し位置を移動命令に応じて制御し、前記2次元空間上での指し位置が指すオブジェクトをトリガ命令に応じて選択する表示制御部を有し、
前記ユーザは、腕の方向によって前記コントローラの方向を変えることで、前記ディスプレイに表示される前記2次元空間上での指し位置を動かし、手首の回転によって前記コントローラを回転させることで、前記2次元空間上での指し位置が指す前記オブジェクトを選択し、
前記操作命令変換部は、前記方向検出部によって検出された前記コントローラの方向を前記移動命令に変換し、前記回転検出部によって検出された前記コントローラの回転を前記トリガ命令に変換する、
ヘッドマウント情報処理装置。 - 請求項1記載のヘッドマウント情報処理装置において、
前記操作命令変換部は、前記回転検出部によって検出された前記コントローラの回転の回転量が予め定めた回転閾値を超えた場合に前記トリガ命令を発行し、前記回転閾値よりも小さい値である回転開始閾値を超えた場合に回転開始通知を発行し、
前記表示制御部は、前記回転開始通知を受けた時点で、前記2次元空間上での指し位置が指す前記オブジェクトを仮選択状態にし、その後、前記トリガ命令を受けた場合に、前記トリガ命令を受けた時点での前記2次元空間上での指し位置が前記仮選択状態の前記オブジェクトを指しているか否かに関わらず前記仮選択状態の前記オブジェクトを選択状態に変更する、
ヘッドマウント情報処理装置。 - 請求項1記載のヘッドマウント情報処理装置において、
前記操作命令変換部は、前記コントローラを回転させた状態が維持された場合に、ドラッグ&ドロップの開始命令を発行し、前記回転させた状態が元に戻された場合に、前記ドラッグ&ドロップの終了命令を発行し、
前記表示制御部は、前記ドラッグ&ドロップの開始命令から前記ドラッグ&ドロップの終了命令までの期間で発行された前記移動命令に応じて、前記2次元空間上での指し位置が指すオブジェクトの位置を移動する、
ヘッドマウント情報処理装置。 - 請求項1記載のヘッドマウント情報処理装置において、
前記コントローラまたは前記本体デバイスは、さらに、前記位置・姿勢センサの検出結果に基づき、前記回転軸の方向に向けた前記コントローラの移動を演算によって検出する突出検出部を有し、
前記操作命令変換部は、さらに、前記突出検出部によって検出された前記コントローラの移動を、前記本体デバイスに対する別のトリガ命令に変換する、
ヘッドマウント情報処理装置。 - 請求項1記載のヘッドマウント情報処理装置において、
前記本体デバイスは、前記操作命令変換部からの前記トリガ命令が一定期間発行されなかった場合、前記コントローラからの入力を無効にする、
ヘッドマウント情報処理装置。 - 請求項1記載のヘッドマウント情報処理装置において、
前記コントローラは、
前記位置・姿勢センサの一つである3軸角速度センサと、
前記ユーザの手を撮像するカメラと、
を備え、
前記方向検出部は、前記位置・姿勢センサの検出結果に基づいて検出される前記コントローラの方向に、前記カメラの撮像画像に基づいて検出される手の方向を加えた方向を、前記操作命令変換部へ出力する、
ヘッドマウント情報処理装置。 - 請求項1記載のヘッドマウント情報処理装置において、
前記コントローラは、ウォッチ型の携帯情報端末である
ヘッドマウント情報処理装置。 - ユーザの頭部に装着された状態で使用される本体デバイスと、前記ユーザが手に所持した状態で使用され、前記本体デバイスを制御するコントローラと、を有するヘッドマウント情報処理装置であって、
前記コントローラは、
前記本体デバイスと通信を行う近接通信インタフェースと、
前記コントローラの位置・姿勢を検出する位置・姿勢センサと、
を有し、
前記本体デバイスは、
前記コントローラと通信を行う近接通信インタフェースと、
所定の画像を表示するディスプレイと、
を有し、
前記コントローラまたは前記本体デバイスは、
前記位置・姿勢センサの検出結果に基づき、前記コントローラの方向を演算によって検出する方向検出部と、
前記位置・姿勢センサの検出結果に基づき、前記コントローラの方向を回転軸とする前記コントローラの回転を演算によって検出する回転検出部と、
前記方向検出部の検出結果および前記回転検出部の検出結果を、前記本体デバイスへの命令に変換する操作命令変換部と、
を有し、
前記本体デバイスは、ポインティングビームまたはカーソルの2次元空間上での指し位置を前記ディスプレイに表示し、前記2次元空間上での指し位置を移動命令に応じて制御し、前記2次元空間上での指し位置が指すオブジェクトをトリガ命令に応じて選択する表示制御部を有し、
前記ユーザは、手の方向によって前記コントローラの方向を変えることで、前記ディスプレイに表示される前記2次元空間上での指し位置を動かし、前記コントローラを所持した状態での手首の回転によって、前記2次元空間上での指し位置が指す前記オブジェクトを選択し、
前記操作命令変換部は、前記方向検出部によって検出された前記コントローラの方向を前記移動命令に変換し、前記回転検出部によって検出された前記コントローラの回転を前記トリガ命令に変換する、
ヘッドマウント情報処理装置。 - ユーザの頭部に装着された状態で使用される本体デバイスと、前記ユーザの手首または手に巻いた状態で使用され、前記本体デバイスを制御するコントローラと、を有するヘッドマウント情報処理装置の制御方法であって、
前記コントローラは、前記本体デバイスと通信を行う近接通信インタフェースと、前記コントローラの位置・姿勢を検出する位置・姿勢センサと、を有し、
前記本体デバイスは、前記コントローラと通信を行う近接通信インタフェースと、所定の画像を表示するディスプレイと、を有し、
前記本体デバイスは、ポインティングビームまたはカーソルの2次元空間上での指し位置を前記ディスプレイに表示し、前記2次元空間上での指し位置を移動命令に応じて制御し、前記2次元空間上での指し位置が指すオブジェクトをトリガ命令に応じて選択し、
前記ユーザは、腕の方向によって前記コントローラの方向を変えることで、前記ディスプレイに表示される2次元空間上での指し位置を動かし、手首の回転によって前記コントローラを回転させることで、前記2次元空間上での指し位置が指す前記オブジェクトを選択し、
前記制御方法は、
前記位置・姿勢センサの検出結果に基づき、前記コントローラの方向を演算によって検出する第1の工程と、
前記位置・姿勢センサの検出結果に基づき、前記コントローラの方向を回転軸とする前記コントローラの回転を演算によって検出する第2の工程と、
前記第1の工程での検出結果での検出結果を前記移動命令に変換し、前記第2の工程での検出結果を前記トリガ命令に変換する第3の工程と、
を有する、
ヘッドマウント情報処理装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023124295A JP2023129717A (ja) | 2019-06-13 | 2023-07-31 | ヘッドマウント情報処理装置およびその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/023483 WO2020250377A1 (ja) | 2019-06-13 | 2019-06-13 | ヘッドマウント情報処理装置およびその制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023124295A Division JP2023129717A (ja) | 2019-06-13 | 2023-07-31 | ヘッドマウント情報処理装置およびその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020250377A1 JPWO2020250377A1 (ja) | 2020-12-17 |
JP7324843B2 true JP7324843B2 (ja) | 2023-08-10 |
Family
ID=73781340
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021525503A Active JP7324843B2 (ja) | 2019-06-13 | 2019-06-13 | ヘッドマウント情報処理装置およびその制御方法 |
JP2023124295A Pending JP2023129717A (ja) | 2019-06-13 | 2023-07-31 | ヘッドマウント情報処理装置およびその制御方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023124295A Pending JP2023129717A (ja) | 2019-06-13 | 2023-07-31 | ヘッドマウント情報処理装置およびその制御方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11886629B2 (ja) |
JP (2) | JP7324843B2 (ja) |
CN (1) | CN113966497A (ja) |
WO (1) | WO2020250377A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023032173A1 (ja) * | 2021-09-03 | 2023-03-09 | 日本電気株式会社 | 仮想空間提供装置、仮想空間提供方法、及びコンピュータ読み取り可能な記憶媒体 |
CN115494951A (zh) * | 2022-09-29 | 2022-12-20 | 歌尔科技有限公司 | 交互方法、装置和显示设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015146058A (ja) | 2014-01-31 | 2015-08-13 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP2017120575A (ja) | 2015-12-28 | 2017-07-06 | 株式会社テック技販 | 姿勢動作検出装置 |
JP2018508251A (ja) | 2015-01-23 | 2018-03-29 | ネオフェクト シーオー., エルティーディー.NEOFECT Co., LTD. | 手のリハビリ運動システム及び方法 |
JP2018124651A (ja) | 2017-01-30 | 2018-08-09 | セイコーエプソン株式会社 | 表示システム |
JP2019012154A (ja) | 2017-06-30 | 2019-01-24 | Mxモバイリング株式会社 | Vrを用いた消火体験シミュレーションシステム、体験用消火器、及びプログラム |
US20190146598A1 (en) | 2017-11-13 | 2019-05-16 | Samsung Electronics Co., Ltd | System and method for distributed device tracking |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110199303A1 (en) * | 2010-02-18 | 2011-08-18 | Simpson Samuel K | Dual wrist user input system |
US9649558B2 (en) | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
-
2019
- 2019-06-13 CN CN201980097473.9A patent/CN113966497A/zh active Pending
- 2019-06-13 US US17/617,995 patent/US11886629B2/en active Active
- 2019-06-13 JP JP2021525503A patent/JP7324843B2/ja active Active
- 2019-06-13 WO PCT/JP2019/023483 patent/WO2020250377A1/ja active Application Filing
-
2023
- 2023-07-31 JP JP2023124295A patent/JP2023129717A/ja active Pending
- 2023-12-22 US US18/394,390 patent/US20240143066A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015146058A (ja) | 2014-01-31 | 2015-08-13 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP2018508251A (ja) | 2015-01-23 | 2018-03-29 | ネオフェクト シーオー., エルティーディー.NEOFECT Co., LTD. | 手のリハビリ運動システム及び方法 |
JP2017120575A (ja) | 2015-12-28 | 2017-07-06 | 株式会社テック技販 | 姿勢動作検出装置 |
JP2018124651A (ja) | 2017-01-30 | 2018-08-09 | セイコーエプソン株式会社 | 表示システム |
JP2019012154A (ja) | 2017-06-30 | 2019-01-24 | Mxモバイリング株式会社 | Vrを用いた消火体験シミュレーションシステム、体験用消火器、及びプログラム |
US20190146598A1 (en) | 2017-11-13 | 2019-05-16 | Samsung Electronics Co., Ltd | System and method for distributed device tracking |
Also Published As
Publication number | Publication date |
---|---|
US20220308658A1 (en) | 2022-09-29 |
WO2020250377A1 (ja) | 2020-12-17 |
CN113966497A (zh) | 2022-01-21 |
US11886629B2 (en) | 2024-01-30 |
US20240143066A1 (en) | 2024-05-02 |
JPWO2020250377A1 (ja) | 2020-12-17 |
JP2023129717A (ja) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5032887B2 (ja) | ポインター移動方法及び記録媒体 | |
US10534431B2 (en) | Tracking finger movements to generate inputs for computer systems | |
US9959679B2 (en) | Floating graphical user interface | |
US20190346940A1 (en) | Computing interface system | |
US9223402B2 (en) | Head mounted display and method of controlling digital device using the same | |
US10565725B2 (en) | Method and device for displaying virtual object | |
US9829998B2 (en) | Information processing apparatus, input apparatus, information processing system, information processing method, and program | |
US20240143066A1 (en) | Head-mounted information processing apparatus and its controlling method | |
KR101541082B1 (ko) | 손 재활 운동 시스템 및 방법 | |
US10540006B2 (en) | Tracking torso orientation to generate inputs for computer systems | |
US20190187784A1 (en) | Calibration of Inertial Measurement Units Attached to Arms of a User and to a Head Mounted Device | |
US11960635B2 (en) | Virtual object display device and virtual object display method | |
CN112041785A (zh) | 跟踪手姿势的方法及其电子设备 | |
JP2010152761A (ja) | 入力装置、制御装置、制御システム、電子機器及び制御方法 | |
US11054917B2 (en) | Wearable device and control method, and smart control system | |
US20210165486A1 (en) | Tracking upper arm movements using sensor modules attached to the hand and forearm | |
US11775064B1 (en) | Multiple-magnet hand-mounted position-tracking device | |
KR20240080903A (ko) | 카메라를 통한 비전 인식 기반 핸드 트래킹 방법 및 장치 | |
KR20170082053A (ko) | 웨어러블 제어 장치 및 상기 장치를 이용한 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7324843 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |