JP7328322B2 - 入力デバイス - Google Patents

入力デバイス Download PDF

Info

Publication number
JP7328322B2
JP7328322B2 JP2021507381A JP2021507381A JP7328322B2 JP 7328322 B2 JP7328322 B2 JP 7328322B2 JP 2021507381 A JP2021507381 A JP 2021507381A JP 2021507381 A JP2021507381 A JP 2021507381A JP 7328322 B2 JP7328322 B2 JP 7328322B2
Authority
JP
Japan
Prior art keywords
light
tracked
light emitting
input device
extending direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021507381A
Other languages
English (en)
Other versions
JPWO2020189691A1 (ja
Inventor
孝範 南野
憲三 西川
健 五十嵐
佳昭 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020189691A1 publication Critical patent/JPWO2020189691A1/ja
Priority to JP2023127005A priority Critical patent/JP7568799B2/ja
Application granted granted Critical
Publication of JP7328322B2 publication Critical patent/JP7328322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Image Input (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)

Description

本開示は、被トラッキング部を有する入力デバイスに関する。
入力デバイスに発光部を設け、発光部からの光をカメラで検知することによって、入力デバイスの位置や姿勢をトラッキングする技術がある。特開2011-164932号公報には、球状の発光部が設けられた、ゲーム操作用の入力デバイスが開示されている。
入力デバイスに、分散配置されている複数の発光部を設けることが検討されている。しかしながら、カメラを通して入力デバイスを見たときに、入力デバイスの姿勢によっては、隣り合う2つの発光部が重なってしまい、1つの発光部と認識されることがある。このことは、トラッキング処理の精度に影響を生じることがある。
本開示で提案する入力デバイスは、グリップと、複数の発光部を有し、一方向に伸びている被トラッキング部と、を有している。前記被トラッキング部は、第1発光部が設けられ、前記被トラッキングの延伸方向で伸びている第1外面と、第2発光部が設けられ、前記被トラッキングの延伸方向で伸びている第2外面と、遮光部と、を含んでいる。前記第1外面と第2外面は前記被トラッキング部の延伸方向に直交する方向で並んでいる。前記第1外面は前記第1方向を向いている。前記第2外面は前記第1方向とは異なる第2方向を向いている。前記遮光部は、前記第1発光部と前記第2発光部より外側に位置する。この構造によると、カメラを通して得た画像において、2つの発光部が重なってしまうことを防ぐことができる。
本開示で提案する入力デバイスが利用されるシステムの例を説明するための図である。 本開示で提案する入力デバイスの例を示す背面図である。 入力デバイスの例を示す側面図である。 図3で示すIV-IV線で得られる被トラッキング部の断面を模式的に示す図である。 図3で示すV-V線で得られる被トラッキング部の断面を模式的に示す図である。 遮光部の機能を説明するための図である。 変形例による遮光部の断面を模式的に示す図である。 別の変形例による遮光部の断面を模式的に示す図である。 さらに別の変形例による遮光部の断面を模式的に示す図である。 本開示で提案する入力デバイスの他の例を示す背面図である。 図10Aで示す入力デバイスの例を示す側面図である。 図10Bで示すXc-Xc線で得られる被トラッキング部の断面を模式的に示す図である。
以下において、本開示で提案する入力デバイスの例について説明する。本明細書では、図2のZ1及びZ2で示す方向をそれぞれ上方及び下方と称し、図2のX1及びX2で示す方向をそれぞれ右方及び左方と称し、図3のY1及びY2で示す方向をそれぞれ前方及び後方と称する。これらの方向は、図1に示すようにユーザが入力デバイス100を握ってこれを使用しているときのユーザから見た方向に対応している。
[システム概要]
図1で示すように、入力デバイス100は、例えば、ヘッドマウントディスプレイ(HMD)2とともに使用される。ユーザはHMD2を頭部に装着し、右手及び/又は左手に入力デバイス100を保持する。HMD2は前方に向いているカメラを有している。入力デバイス100には、後述する複数の発光部Hが設けられている。発光部Hの位置はカメラを通して検知され、発光部の位置に基づいて、入力デバイス100の位置と姿勢(すなわち、ユーザの手の位置や向き)が算出される。入力デバイス100は、後述するように、ユーザが指で操作する複数の操作部(例えば、操作ボタンや、操作スティック、タッチセンサなど)を有している。HMD2の表示部には、入力デバイス100の位置や、その姿勢、操作部に対してなされた操作などに基づいて生成された動画像(例えば、ゲーム画像)が表示される。
入力デバイス100の位置と姿勢の算出は、HMD2に搭載されている情報処理装置によって実行されてもよいし、外部の情報処理装置(例えば、HMD2とは別個のゲーム装置や、パーソナルコンピュータ)によって実行されてもよい。入力デバイス100は、モーションセンサー(例えば、加速度センサや、ジャイロセンサー)を有してもよい。情報処理装置は、発光部Hの位置だけでなく、モーションセンサーの出力に基づいて、入力デバイス100の位置や姿勢を算出してもよい。また、動画像の生成も、HMD2に搭載されている情報処理装置によって実行されてもよいし、外部の情報処理装置によって実行されてもよい。入力デバイス100の位置等の算出と動画像の生成が、外部の情報処理装置によって実行される場合、HMD2のカメラで取得した画像情報は、外部の情報処理装置に無線または有線で送信される。外部の情報処理装置によって生成された動画像情報は無線又は有線でHMD2に送信される
なお、図1で例示するシステムとは異なり、入力デバイス100はHMD2とは別個に使用されてもよい。この場合、入力デバイス100の位置や姿勢をトラッキングするためのカメラは、必ずしもHMD2に設けられている必要はなく、ユーザから前方に離れた位置に配置されてもよい。例えば、カメラは、入力デバイス100の位置や姿勢に基づいて生成された動画像を表示する外部の表示装置(例えば、テレビジョンやパーソナルコンピュータのモニター)に取り付けられてもよい。
[入力デバイスの全体構成]
右手用の入力デバイス100の外形と左手用の入力デバイス100の外形は左右対称であってよい。以下では、右手用の入力デバイス100について詳説する。
図2で示すように、入力デバイス100の本体10は、グリップ11Bと、複数の操作部が配置されている操作領域11Aとを有している。本体10はその上部に操作領域11Aを有し、グリップ11Bは操作領域11Aから下側に伸びている。操作領域11Aに配置されている操作部は、グリップ11Bを握っている状態で親指又は人指し指によって操作できる。グリップ11Bは、例えば、母指球、中指、薬指、及び小指によって保持される。
図2及び図3で示すように、操作領域11Aには、例えば、操作ボタン13・14・15と操作スティック16とが操作部として配置される。操作ボタン13は操作領域11Aの前面11aに配置され(図3参照)、例えば人指し指で操作される。操作ボタン14・15と操作スティック16は操作領域11Aの背面11bに配置され(図2参照)、例えば親指で操作される。操作スティック16は径方向に倒したり、スライド可能な操作部である。操作領域11Aに設けられる操作部は、ここで説明する例に限られない。例えば、タッチセンサや、トリガーボタン、タッチセンサ付きボタンが操作領域11Aに設けられてもよい。また、操作領域11Aに設けられる操作部の数は、1つや、2つでもよいし、4つ以上でもよい。
図2で示すように、入力デバイス100は、複数の発光部Hが配置されている被トラッキング部30を有している(図において発光部は黒丸で示されている。)。図で示す例では、被トラッキング部30は、本体10の右方に位置し、本体10の最上部と本体10の最下部とに接続している。被トラッキング部30は、本体10の最上部から、左右方向における外側に膨らむように湾曲しながら下方に伸びている。
被トラッキング部30の位置と形状は、HMD2に搭載されているカメラによって発光部Hが安定的に検出できる位置であれば、図で示す例に限られない。例えば、被トラッキング部30は本体10の左方に位置してもよいし、本体10の上方、下方、後方、又は前方に位置してもよい。また、被トラッキング部30の形状は、湾曲した棒状ではなく、まっすぐに伸びている棒状であってもよいし、環状であってもよい。被トラッキング部30の形状が環状である場合、被トラッキング部30は、グリップ11Bを握っているユーザの手や手首を取り囲むように配置されてよい。
本体10にも発光部Hが設けられてもよい。例えば、操作領域11Aの前面11aや、背面11bに複数の発光部Hが設けられたり、図2で示す様に、グリップ11Bの下部11eに複数の発光部Hが設けられてもよい。
[被トラッキング部]
以下において、被トラッキング部30の構造について詳説する。以下の説明において言及する方向は、被トラッキング部30の要素(部品や、部材、部分)の相対的な位置関係を説明するために使用されており、入力デバイス100における被トラッキング部30の位置を限定するものではない。
図4で示すように、被トラッキング部30は、被トラッキング部30の外面Aを構成する外装部材31と、外装部材31の内側に配置される複数の光源Sとを有している。光源Sとして、例えば発光ダイオード(LED)を利用できる。光源Sは、例えば外装部材31の内側で外装部材31に沿って配置される。この場合、複数の光源Sの位置は発光部Hの位置にそれぞれ対応している。光源Sは、例えば、図示していないフレームによって支持されているフレキシブル基板(FPC)に実装される。外装部材31は、例えば不透明な材料で形成される。外装部材31自体が不透明な材料で形成されてもよいし、外装部材31の表面に光を通さない材料が塗布されてもよい。外装部材31が不透明な材料で形成される場合、外装部材31において発光部Hの位置だけは光を通す材料によって形成される。外装部材31における発光部Hの位置には、光を通す孔が形成されてもよい。
図4で示すように、外面Aは、第1外面A1と第2外面A2とを含んでいる。2つの外面A1・A2は、被トラッキング部30の延伸方向で伸び、且つ延伸方向に直交する方向で並んでいる。入力デバイス100の例において、被トラッキング部30は、上下方向において伸び且つ右方に膨らむように湾曲している(図2参照)。そのため、2つの外面A1・A2は、図3で示すように上下方向において伸び、且つ右方に膨らむように湾曲している。外面A1・A2は前後方向において隣り合って形成され、互いに繋がっている。入力デバイス100の例では、外面Aは、第1外面A1から第2外面A2にかけて緩やかに湾曲している。外面Aは、2つの外面A1・A2の間で屈曲し、それらの間に角を有してもよい。図3で示すように、2つの外面A1・A2のそれぞれに、複数の発光部Hが設けられている。各外面A1・A2において、複数の発光部Hは被トラッキング部30の延伸方向で並んでいる。
第1外面A1が向いている方向(図5で示す法線D1の方向)と、第2外面A2が向いている方向(図5で示す法線D2の方向)は異なっている。入力デバイス100の例では、被トラッキング部30の延伸方向に対して直交する面(例えば、水平面)で得られる断面において、外面A1は後方且つ右方に向いており、外面A2は前方且つ右方に向いている(図5において、X1、Y1、及びY2がそれぞれ入力デバイス100の右方、前方、後方を表している。)。
[遮光部]
図3で示すように、HMD2に搭載されているカメラで入力デバイス100を見たとき、第1外面A1にある発光部Hとカメラとを結ぶ直線L1と、第2外面A2にある発光部Hとカメラとを結ぶ直線L2との間に、入力デバイス100とカメラの相対位置によって決まる角度θが形成される。入力デバイス100とカメラの相対位置によっては、この角度θが小さくなり、カメラによって取得された画像においてこの2つの発光部Hが重なる可能性がある。このことは、入力デバイス100のトラッキング精度(位置及び姿勢の算出精度)に影響する。
そこで、入力デバイス100の例では、図4で示すように、被トラッキング部30に遮光部Bを設けている。遮光部Bは外装部材31の一部であり、第1外面A1にある発光部H1と、第2外面A2にある発光部H2との間に位置している。(この発光部H1・H2は、第1外面A1にある複数の発光部Hと、第2外面A2にある複数の発光部Hとのうち最も距離が小さい2つである。)遮光部Bは、2つの発光部H1・H2よりも外側に位置する部分である。言い換えると、遮光部Bは、2つの発光部H1・H2を結ぶ直線L3よりも外側に位置する部分である。入力デバイス100の例では、遮光部Bは直線L3よりも右方に位置している。このような遮光部Bによると、カメラによって取得された画像においてこの2つの発光部H1・H2が重なることを防ぐことができる。図4で示す例のように、遮光部Bの頂部Apから線L3までの距離Dは発光部Hの直径R1よりも大きくてもよい。遮光部Bの頂部Apから線L3までの距離Dは発光部Hの直径R1の1.5倍よりも大きくてもよい。
遮光部Bは、図5で示すように、被トラッキング部30の延伸方向に対して直交する平面で得られる断面で見たときに、第1外面A1と第2外面A2とに接する仮想的な円弧Vaより外側に位置する部分を含むのが望ましい。円弧Vaは、例えば、第1外面A1の発光部H1の位置で第1外面A1と接し、且つ第2外面A2と接する円弧である。第2外面A2の幅W2が小さい場合、円弧Vaは、例えば、第1外面A1の発光部H1の位置で第1外面A1と接し、且つ第2外面A2を含む仮想平面と接する円弧であってよい。円弧Vaは、中心Pcを有する真円の一部である。なお、入力デバイス100の例では、後述するように、外面Aの頂部Apから発光部H1まで距離N1は、外面Aの頂部Apから発光部H2までの距離N2よりも大きい。上述した円弧Vaは、2つの発光部H1・H2のうち距離が大きい発光部H1によって規定される円弧である。
このような遮光部Bの存在により、カメラによって取得された画像において2つの発光部H1・H2が重なることを、効果的に防ぐことができる。例えば、図6で示すように、入力デバイス100の後方にカメラが位置しているために、発光部H1とカメラとを結ぶ直線L1と、発光部H2とカメラとを結ぶ直線L2との間の角度θがθlimとなった場合、直線L2と遮光部Bとが交差するので、カメラによって取得された画像において発光部H2が写らない。
図3で示すように、遮光部Bは被トラッキング部30の延伸方向に伸びている。遮光部Bは、被トラッキング部30の発光部Hが設けられている領域の全体に亘って形成されているのが望ましい。遮光部Bの位置は、入力デバイス100の例に限られない。遮光部Bは、例えば被トラッキング部30の延伸方向において断続的に形成されてもよい。例えば、距離が小さい2つの発光部H(第1外面A1の発光部Hと第2外面A2の発光部H)に遮光部Bが形成されるものの、距離が大きい2つの発光部H(第1外面A1の別の発光部Hと第2外面A2の別の発光部H)の間には、遮光部Bは形成されていなくてもよい。
なお、本明細書において、「外面A」とは、被トラッキング部30の最表面にある部材で構成される面であり、不透明な外装部材や透明な外装部材によって構成される。「発光部H」とは、外装部材において光が通る部分である。例えば、図4及び図5で示すように、外装部材31が不透明な材料で形成され、光を通す材料又は孔が光源Sの位置に形成されている構造においては、その光を通す材料が形成された部分又は光を通す孔が形成された部分が発光部Hである。これに対して、被トラッキング部30の最表面に透明な外装部材が配置され、その外装部材の内側に光源Sが配置されている、後述する構造(図7参照)においては、その光源Sに対向する部分が発光部Hである。また、被トラッキング部30の最表面に透明な外装部材が配置され、その外装部材の内側に導光部材が配置され、光源Sの光が導光部材によって案内される、後述する構造(図8・図9参照)においては、その導光部材の端面(光出射面)に対向する部分が発光部Hである。発光部Hの光軸の方向は、外面A1・A2が向いている方向と実質的に同じとなる。
図5で示すように、遮光部Bは、例えば、不透明な外装部材31の一部として形成される。この構造によると、部品数を増やすことなく、遮光部Bを確保できる。入力デバイス100の例では、第1外面A1と第2外面A2との間の境を含む外面Aの一部が遮光部Bとして機能している。より詳細には、第1外面A1とこれに接続されている第2外面A2との間の稜線(言い換えると角部)が形成されており、この稜線が遮光部Bとして機能する。なお、稜線を遮光部Bとして機能させるのではなく、例えば、外装部材31は、第1外面A1と第2外面A2との間に、外装部材31と一体的に形成されているリブ(壁部)を有し、このリブが遮光部Bとして機能してもよい。
さらに他の例では、遮光部Bは、外装部材31とは別個に形成された部材であってもよい。例えば、遮光部Bは、例えばスポンジや、シリコーン、ゴム、プラスチックなどの材料で外装部材31とは別個に形成され、外装部材31や、或いは被トラッキング部30のフレームに取り付けられてもよい。
また、入力デバイス100の例では、図3で示す様に、第1外面A1は第2外面A2より後方に位置している。したがって、ユーザが入力デバイス100を保持しているときに、第1外面A1は第2外面A2よりもカメラに近い面、すなわちユーザの身体に近い面となる。そのため、第1外面A1は、第2外面A2によりも、カメラによって取得された画像に表示され易い。図5で示すように、被トラッキング部30の延伸方向に対して直交する断面を見たとき、第1外面A1の幅W1は第2外面A2の幅W2よりも大きい。つまり、入力デバイス100の例では、カメラにより近い第1外面A1の幅W1が、カメラからより遠い第2外面A2の幅W2よりも大きい。この構造によると、第1外面A1に設けられる発光部Hの位置や数についての自由度を増すことができる。その結果、第2外面A2の幅W2が第1外面A1の幅W1よりも大きい場合に比して、トラッキング精度を向上させることが容易となる。
また、図5で示すように、被トラッキング部30の延伸方向に対して直交する断面を見たとき、第1外面A1と第2外面A2との間にある頂部Apから発光部H1までの距離N1は、頂部Apから発光部H2までの距離N2よりも大きい。(頂部Apとは、被トラッキング部30の断面を見たときに、被トラッキング部30の外面Aにおいて最も曲率が大きくなる部分である。)距離のこの関係は、第1外面A1に設けられている他の発光部Hと、第2外面A2に設けられている他の発光部Hについても成立してよい。被トラッキング部30のこの構造によると、カメラで取得した画像において、第1外面A1にある発光部H1の周囲に形成される背景がおおきくなる。例えば入力デバイス100が使用されている部屋の模様や照明の光が、カメラで取得した画像において発光部H1の直ぐ近くに写ることを防ぐことができる。その結果、発光部H1がカメラを通して正しく認識されやすくなり、トラッキング精度の向上を図ることができる。
発光部Hは、第1外面A1の前後方向での幅W1の範囲において、第1外面A1の後端Aeから幅W1の2/3の範囲W3に位置しているのが望ましい。言い換えると、発光部Hは、カメラに向いた方向での端部Aeから幅W1の2/3の範囲W3に位置しているのが望ましい。発光部Hは、カメラに向いた方向での端部Aeから幅W1の1/2の範囲に位置しているのが、より望ましい。
図3で示すように、第1外面A1には、被トラッキング部30の延伸方向で並んでいる複数の発光部Hが設けられ、第2外面A2にも、同延伸方向で並んでいる複数の第2発光部Hが設けられている。このため、トラッキング精度を向上できる。入力デバイス100の例では、第1外面A1に設けられている発光部Hの数は、第2外面A2にある発光部Hの数よりも多い。つまり、カメラによって取得された画像に表示され易い発光部Hの数が多い。
また、図3で示すように、第1外面A1にある発光部Hの位置と、第2外面A2にある発光部Hの位置は、被トラッキング部30の延伸方向(入力デバイス100の例において上下方向)においてずれている。このため、第1外面A1にある発光部Hと第2外面A2にある発光部Hとの間に十分な距離が確保され、その結果、第1外面A1にある発光部Hとカメラとを結ぶ直線L1と、第2外面A2にある発光部Hとカメラとを結ぶ直線L2との間の角度θも十分に確保され易くなる。
[被トラッキング部の他の例]
遮光部Bは、外装部材31とは異なる部材によって構成されてもよい。図7~図9は、被トラッキング部30の変形例を説明するための図である。これらの図では、これまで説明した箇所と同一符号を付している。
図7で示す例では、被トラッキング部30Aは、外装部材31の内側に配置され光源Sを支持するフレーム33を有している。光源Sは図示していない基板に実装され、この基板がフレーム33に取り付けられてよい。外装部材31は、透明な材料で形成されている。この場合、フレーム33の一部が遮光部Bとしてよい。この遮光部Bも仮想的な円弧Vaの外側に位置している。この構造によれば、光源Sを支持しているフレーム33を遮光部Bとして機能させることができるので、部品数の増加を抑えることができる。
図8で示す例では、被トラッキング部30Bは、被トラッキング部30Bの延伸方向に沿って配置されている基板34と導光部材35a・35bとを有している。基板34の両面(第1基板面34a・第2基板面34b)に光源Sが実装されている。基板34は、例えばリジット基板である。基板34は、第1基板面34aが第1外面A1に向き、第2基板面34bが第2外面A2に向くように配置されている。第1基板面34aに実装されている光源Sの光は導光部材35aによって、第1外面A1にある発光部H1に案内され、第2基板面34に実装されている光源Sの光は導光部材35bによって、第2外面A2にある発光部H2に案内される。外装部材31は、透明な材料で形成されている。この構造では、基板34の一部が遮光部Bとして機能してよい。この遮光部Bも、仮想的な円弧Vaの外側に位置している。
図8で示す例では、基板34は、外面Aの頂部Apに沿って配置されている。すなわち、前後方向における基板34の位置は頂部Apの位置に一致している。しかしながら、基板34は、同図の二点鎖線で示すように頂部Apの位置から後方(Y2方向)にずれていてもよいし、反対に前方(Y1方向)にずれていてもよい。
図9で示す例では、被トラッキング部30Cは、被トラッキング部30Cの延伸方向に沿って配置されている基板134と、導光部材135a・135bと、壁部材136とを有している。基板134の一方の基板面134aだけに光源Sが実装されている。基板134は、基板面134aが第1外面A1と第2外面A2とに向くように配置されている。基板面134aに実装されている2つ光源Sの光は、導光部材135a・135bによって、第1外面A1にある発光部H1と第2外面A2にある発光部H2とにそれぞれ案内される。外装部材31は、透明な、或いは光を通す材料で形成されている。壁部材136は基板134に対して立つように配置され、その一部が遮光部Bとして機能している。この遮光部Bも、仮想的な円弧Vaの外側に位置している。
[入力デバイスの他の例]
図10A~図10Cに示す入力デバイス200では、被トラッキング部230は本体210の左方に配置されている。被トラッキング部230は、被トラッキング部230の延伸方向に伸びている第1外面A1、第2外面A2、及び第3外面A3を有している。3つの外面A1・A2・A3は、被トラッキング部230の延伸方向に対して直交する方向(入力デバイス200の例では、前後方向)に並んでいる。各外面A1・A2・A3に発光部Hが設けられている。
図10Cで示すように、遮光部B1は、第1外面A1にある発光部H1と、第2外面A2にある発光部H2との間に位置している。遮光部B2は、第2外面A2にある発光部H2と、第3外面A3にある発光部H3との間に位置している。遮光部B1は、2つの発光部H1・H2よりも外側に位置する部分を含み、遮光部B2は、2つの発光部H2・H3よりも外側に位置する部分を含む。
また、図10Cで示す発光部H1・H2、外面A1・A2、及び遮光部B1との関係は、図5を参照して説明した発光部H1・H2及び遮光部Bとの関係と同じであってよい。図10Cで示す発光部H2・H3、外面A2・A3、及び遮光部B2との関係は、図5を参照して説明した発光部H1・H2及び遮光部Bとの関係と同じであってよい。すなわち、遮光部B1は、第1外面A1と第2外面A2とに接する仮想的な円弧Vaより外側に位置する部分を含むのが望ましい。同様に、遮光部B2も、第2外面A2と第3外面A3とに接する仮想的な円弧Vaより外側に位置する部分を含むのが望ましい。(2つの外面A1・A2に接する円弧と、2つの外面A2・A3に接する円弧は同じでなくてもよい。)以上が図10A~図10Cで示される入力デバイス200の説明である。
さらに他の例では、被トラッキング部30の形状は環状であってもよい。この場合、2つの外面A1・A2は周方向に伸び、周方向に対して垂直な方向(環状の被トラッキング部30の中心線に沿った方向)で並んでいる。そして、隣り合う2つの外面A1・A2の間に、同じく周方向で伸びている遮光部Bが形成される。
入力デバイス100の例では、遮光部Bは、被トラッキング部30の発光部Hが設けられている領域の全体に亘って形成されていた。しかしながら、遮光部Bは、第1外面A1にある1つの発光部Hと第2外面A2に設けられている1つの発光部Hとの間にだけ設けられてもよい。
さらに他の例では、入力デバイス100は操作ボタン13・14・15や操作スティック16など、指で操作する操作部を有していなくてもよい。この場合でも、ユーザは、グリップ11Bを握っている状態で、入力デバイス100を動かすことによって、HMD2に表示される動画像にその動きを反映させることができてよい。
上述したように、入力デバイス100の位置や姿勢をトラッキングするためのカメラは、必ずしもHMD2に設けられている必要はなく、ユーザから前方に離れた位置に配置されてもよい。例えば、カメラは、入力デバイス100の位置や姿勢に基づいて生成された動画像を表示する外部の表示装置(例えば、テレビジョンやパーソナルコンピュータのモニター)に取り付けられてもよい。
また、入力デバイス100の位置や姿勢をトラッキングするためのカメラの種類は、特に限定されない。カメラは、可視光を検知するイメージセンサを有してもよいし、赤外線イメージセンサでもよい。また、カメラは、画角全体のうち変化があった画素の情報のみを出力するセンサ(Dynamic Vision Sensorや、Event Driven Sensorなど)を搭載するものでもよい。

Claims (13)

  1. カメラを通して位置及び/又は姿勢が検出される入力デバイスであって、
    グリップと、グリップを握っている状態で指で操作できる複数の操作部が配置されている操作領域とを有し、操作領域が上部に配置されている本体と
    複数の発光部を有し、一方向に伸びている被トラッキング部と、を有し、
    前記被トラッキング部は、
    第1発光部が設けられ、前記被トラッキング部の延伸方向で伸びている第1外面と、
    第2発光部が設けられ、前記被トラッキング部の延伸方向で伸びている第2外面と、
    遮光部と、を含み、
    前記第1外面と前記第2外面は前記被トラッキング部の延伸方向に直交する方向で並んでおり、
    前記第1外面は第1方向を向いており、
    前記第2外面は前記第1方向とは異なる第2方向を向いており、
    前記遮光部は、前記第1発光部と前記第2発光部より外側に位置し、
    前記第1外面には、前記被トラッキング部の延伸方向で並んでいる複数の第1発光部が設けられ、
    前記第2外面には、前記被トラッキング部の延伸方向で並んでいる複数の第2発光部が設けられ、
    前記複数の第1発光部の位置と前記複数の第2発光部の位置は、前記被トラッキング部の延伸方向においてずれている
    入力デバイス。
  2. カメラを通して位置及び/又は姿勢が検出される入力デバイスであって、
    グリップと、グリップを握っている状態で指で操作できる複数の操作部が配置されている操作領域とを有し、操作領域が上部に配置されている本体と
    複数の発光部を有し、一方向に伸びている被トラッキング部と、を有し、
    前記被トラッキング部は、
    第1発光部が設けられ、前記被トラッキング部の延伸方向で伸びている第1外面と、
    第2発光部が設けられ、前記被トラッキング部の延伸方向で伸びている第2外面と、
    遮光部と、を含み、
    前記第1外面と前記第2外面は前記被トラッキング部の延伸方向に直交する方向で並んでおり、
    前記第1外面は第1方向を向いており、
    前記第2外面は前記第1方向とは異なる第2方向を向いており、
    前記遮光部は、前記第1発光部と前記第2発光部より外側に位置し、
    前記被トラッキング部の延伸方向に対して直交する断面において、前記第1外面と前記第2外面との間にある頂部から前記第1発光部までの距離は、前記頂部から前記第2発光部までの距離よりも大きい
    入力デバイス。
  3. カメラを通して位置及び/又は姿勢が検出される入力デバイスであって、
    グリップと、グリップを握っている状態で指で操作できる複数の操作部が配置されている操作領域とを有し、操作領域が上部に配置されている本体と
    複数の発光部を有し、一方向に伸びている被トラッキング部と、を有し、
    前記被トラッキング部は、
    第1発光部が設けられ、前記被トラッキング部の延伸方向で伸びている第1外面と、
    第2発光部が設けられ、前記被トラッキング部の延伸方向で伸びている第2外面と、
    遮光部と、を含み、
    前記第1外面と前記第2外面は前記被トラッキング部の延伸方向に直交する方向で並んでおり、
    前記第1外面は第1方向を向いており、
    前記第2外面は前記第1方向とは異なる第2方向を向いており、
    前記遮光部は、前記第1発光部と前記第2発光部より外側に位置し、
    前記被トラッキング部の延伸方向に対して直交する断面において、前記第1外面の幅は前記第2外面の幅よりも大きい
    入力デバイス。
  4. 前記遮光部は、前記第1外面と前記第2外面とに接する仮想的な円弧より外側に位置する部分を含む
    請求項1乃至3のいずれかに記載の入力デバイス。
  5. 前記遮光部は、前記第1発光部の位置で前記第1外面と接し、且つ前記第2外面又は前記第2外面を含む仮想平面と接する仮想的な円弧の外側に位置する部分を含む
    請求項1乃至3のいずれかに記載の入力デバイス。
  6. 前記複数の第1発光部の位置と前記複数の第2発光部の位置は前記被トラッキング部の延伸方向においてずれている
    請求項2又は3に記載の入力デバイス。
  7. 前記被トラッキング部の延伸方向に対して直交する断面において、前記第1外面と前記第2外面との間にある頂部から前記第1発光部までの距離は、前記頂部から前記第2発光部までの距離よりも大きい
    請求項1又は3に記載の入力デバイス。
  8. 前記被トラッキング部の延伸方向に対して直交する断面において、前記第1外面の幅は前記第2外面の幅よりも大きい
    請求項1又は2に記載の入力デバイス。
  9. 前記第1外面と前記第2外面の間の境を含む前記被トラッキング部の外面が、前記遮光部として機能する
    請求項1乃至3のいずれかに記載の入力デバイス。
  10. 前記第1外面と前記第2外面とを構成する外装部材をさらに有し、
    前記外装部材が前記遮光部として機能する部分を含んでいる
    請求項1乃至3のいずれかに記載の入力デバイス。
  11. 前記被トラッキング部は、前記第1外面と前記第2外面の内側に配置され光源を支持しているフレームを有し、
    前記フレームが前記遮光部として機能する部分を含んでいる
    請求項1乃至3のいずれかに記載の入力デバイス。
  12. 前記第1外面には、前記被トラッキング部の延伸方向で並んでいる複数の第1発光部が設けられ、
    前記第2外面には、前記被トラッキング部の延伸方向で並んでいる複数の第2発光部が設けられ、
    前記遮光部は前記被トラッキング部の延伸方向に伸びている
    請求項1乃至3のいずれかに記載の入力デバイス。
  13. 前記被トラッキング部は、前記グリップの側面に向いている第3外面を有し、
    前記第1外面と前記第2外面は、前記被トラッキング部における第3外面とは反対側の面である
    請求項1乃至3のいずれかに記載の入力デバイス。
JP2021507381A 2019-03-18 2020-03-17 入力デバイス Active JP7328322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023127005A JP7568799B2 (ja) 2019-03-18 2023-08-03 入力デバイス

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019050278 2019-03-18
JP2019050278 2019-03-18
PCT/JP2020/011828 WO2020189691A1 (ja) 2019-03-18 2020-03-17 入力デバイス

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023127005A Division JP7568799B2 (ja) 2019-03-18 2023-08-03 入力デバイス

Publications (2)

Publication Number Publication Date
JPWO2020189691A1 JPWO2020189691A1 (ja) 2020-09-24
JP7328322B2 true JP7328322B2 (ja) 2023-08-16

Family

ID=72520162

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021507381A Active JP7328322B2 (ja) 2019-03-18 2020-03-17 入力デバイス
JP2023127005A Active JP7568799B2 (ja) 2019-03-18 2023-08-03 入力デバイス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023127005A Active JP7568799B2 (ja) 2019-03-18 2023-08-03 入力デバイス

Country Status (5)

Country Link
US (1) US20220155848A1 (ja)
EP (1) EP3944059A4 (ja)
JP (2) JP7328322B2 (ja)
CN (1) CN113544628B (ja)
WO (1) WO2020189691A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12064682B2 (en) 2022-06-10 2024-08-20 Sony Interactive Entertainment Inc. Deployment of dynamic vision sensor hybrid element in method for tracking a controller and simultaneous body tracking, slam or safety shutter
US12059609B2 (en) 2022-06-10 2024-08-13 Sony Interactive Entertainment Inc. Asynchronous dynamic vision sensor LED AI tracking system and method
US11995226B2 (en) 2022-06-10 2024-05-28 Sony Interactive Entertainment Inc. Dynamic vision sensor tracking based on light source occlusion
US12029971B2 (en) 2022-06-10 2024-07-09 Sony Interactive Entertainment LLC Hybrid pixel dynamic vision sensor tracking using IR and ambient light (or depth sensor)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017195515A (ja) 2016-04-20 2017-10-26 キヤノン株式会社 頭部装着装置および把持装置
WO2017213818A1 (en) 2016-06-11 2017-12-14 Sony Interactive Entertainment Inc. Directional interface object
JP2018016493A (ja) 2017-11-01 2018-02-01 東芝テック株式会社 作業支援装置及びプログラム
JP2018106258A (ja) 2016-12-22 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019500660A (ja) 2015-11-02 2019-01-10 フェイスブック テクノロジーズ, エルエルシーFacebook Technologies, LLC 構造化光を用いた視線追跡
JP2019012536A (ja) 2018-08-17 2019-01-24 株式会社コロプラ 情報提供方法、プログラム、および、情報提供装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101288186B1 (ko) 2005-07-01 2013-07-19 힐크레스트 래보래토리스, 인크. 3d 포인팅 장치
US20070080940A1 (en) * 2005-10-07 2007-04-12 Sharp Kabushiki Kaisha Remote control system, and display device and electronic device using the remote control system
US8344325B2 (en) * 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
JP5161900B2 (ja) 2010-02-09 2013-03-13 株式会社ソニー・コンピュータエンタテインメント 操作デバイス
KR102138510B1 (ko) * 2013-08-27 2020-07-28 엘지전자 주식회사 근접 터치 기능을 구비한 전자 장치 및 그 제어 방법
CN106575164B (zh) 2014-09-10 2020-10-09 索尼公司 检测装置、检测方法、控制装置和控制方法
US9898091B2 (en) * 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
US10007339B2 (en) * 2015-11-05 2018-06-26 Oculus Vr, Llc Controllers with asymmetric tracking patterns
US9977494B2 (en) * 2015-12-30 2018-05-22 Oculus Vr, Llc Tracking constellation assembly for use in a virtual reality system
CN205899500U (zh) 2016-07-27 2017-01-18 上海拆名晃信息科技有限公司 用于实现人机交互的手柄
US10549183B2 (en) * 2016-10-11 2020-02-04 Valve Corporation Electronic controller with a hand retainer, outer shell, and finger sensing
US10579151B2 (en) * 2017-01-04 2020-03-03 Htc Corporation Controller for finger gesture recognition and method for recognizing finger gesture

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500660A (ja) 2015-11-02 2019-01-10 フェイスブック テクノロジーズ, エルエルシーFacebook Technologies, LLC 構造化光を用いた視線追跡
JP2017195515A (ja) 2016-04-20 2017-10-26 キヤノン株式会社 頭部装着装置および把持装置
WO2017213818A1 (en) 2016-06-11 2017-12-14 Sony Interactive Entertainment Inc. Directional interface object
JP2018106258A (ja) 2016-12-22 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018016493A (ja) 2017-11-01 2018-02-01 東芝テック株式会社 作業支援装置及びプログラム
JP2019012536A (ja) 2018-08-17 2019-01-24 株式会社コロプラ 情報提供方法、プログラム、および、情報提供装置

Also Published As

Publication number Publication date
JP7568799B2 (ja) 2024-10-16
JP2023145707A (ja) 2023-10-11
JPWO2020189691A1 (ja) 2020-09-24
EP3944059A1 (en) 2022-01-26
EP3944059A4 (en) 2022-12-21
WO2020189691A1 (ja) 2020-09-24
CN113544628B (zh) 2024-08-16
CN113544628A (zh) 2021-10-22
US20220155848A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
JP7328322B2 (ja) 入力デバイス
JP7271245B2 (ja) 入力デバイス
JP6931509B2 (ja) 入力装置および画像表示システム
JP6668170B2 (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
WO2013088725A1 (en) Head-mounted display and information display apparatus
US20180160881A1 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
JP7401671B2 (ja) 入力デバイス
JP2017220421A (ja) 操作デバイス
JP7353773B2 (ja) 複数のマーカを備えたデバイス
US20220146737A1 (en) Input device
JP3126898B2 (ja) 頭部搭載型ディスプレイ装置
JP7311550B2 (ja) 入力デバイス
JP2018151852A (ja) 入力装置、入力制御方法、およびコンピュータープログラム
WO2023047495A1 (ja) 入力デバイス
JP2021047771A (ja) 制御装置、撮像装置、制御方法、および、プログラム
JP2012083866A (ja) 指取り付け型触覚再現機能付き処理装置
WO2023047494A1 (ja) 入力デバイス
JP7323566B2 (ja) 入力デバイス
KR20240145853A (ko) 외부 객체에 의한 터치 입력을 인식하기 위한 웨어러블 장치 및 그 방법
JP2015152448A (ja) 情報処理装置
JP2013164736A (ja) 携帯型情報機器用入力装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R150 Certificate of patent or registration of utility model

Ref document number: 7328322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150