JP6574892B2 - 制御装置及び制御プログラム - Google Patents

制御装置及び制御プログラム Download PDF

Info

Publication number
JP6574892B2
JP6574892B2 JP2018502990A JP2018502990A JP6574892B2 JP 6574892 B2 JP6574892 B2 JP 6574892B2 JP 2018502990 A JP2018502990 A JP 2018502990A JP 2018502990 A JP2018502990 A JP 2018502990A JP 6574892 B2 JP6574892 B2 JP 6574892B2
Authority
JP
Japan
Prior art keywords
user
button
hand
control device
thumb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018502990A
Other languages
English (en)
Other versions
JPWO2017150127A1 (ja
Inventor
平田 真一
真一 平田
良尚 高橋
良尚 高橋
洋一 西牧
洋一 西牧
祐一 町田
祐一 町田
邦仁 澤井
邦仁 澤井
泰史 奥村
泰史 奥村
永井 規浩
規浩 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2017150127A1 publication Critical patent/JPWO2017150127A1/ja
Application granted granted Critical
Publication of JP6574892B2 publication Critical patent/JP6574892B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、制御装置及び制御プログラムに関する。
家庭用ゲーム機等におけるコントローラデバイスは、ユーザが行ったボタン押下やデバイスを振る等の動作を検出して、ゲーム機等の本体に当該検出したユーザの動作を表す情報を送出している。
従来、こうしたコントローラのうちには、加速度センサ等を内蔵し、ユーザがデバイス自体を振る動作を行ったときに、どのようなタイミングで、どの程度の強さで振られているのかを検出して出力するものがあった。また、手袋のようにユーザの手に装着して、指の動きを検出するデバイスが知られている。
しかしながら、上記従来のデバイスでは、ユーザの手に装着されるものでない場合は、ユーザがデバイスに対して行った動作を検出できるだけであり、また、手袋のようなデバイスでは、ユーザの指の動きは検出できるものの、手袋を装着することによる違和感が生じ、ゲームなどに対する没入感が損われることがあった。
本発明は上記実情に鑑みて為されたもので、装着時の違和感を軽減しつつ、ユーザの指の動きを検出可能なデバイスを制御する制御装置、及び制御プログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、ユーザの左手と右手とのどちらかに装着されるものとして設定されるデバイスの制御装置であって、当該デバイスから所定の情報を取得する取得手段と、前記取得した所定の情報に基づいて、前記デバイスがユーザの左手と右手のどちらに装着されるものであるかを判断する判断手段と、を有することとしたものである。
本発明によると、デバイス装着時の違和感を軽減しつつ、デバイスが、ユーザの左右のどちらの手に装着されるものであるかを簡便に判断し、ユーザの指の動きが検出可能となる。
本発明の実施の形態に係る制御装置が制御するデバイスを正面側から見た斜視図である。 本発明の実施の形態に係る制御装置が制御するデバイスを背面側から見た斜視図である。 本発明の実施の形態に係る制御装置の構成例を表すブロック図である。 本発明の実施の形態に係る制御装置の例を表す機能ブロック図である。 本発明の実施の形態に係る制御装置の設定するボタンの設定テーブル例を表す説明図である。 本発明の実施の形態に係る制御装置による親指検出例を表す説明図である。 本発明の実施の形態に係る制御装置が制御するデバイスの親指の検出範囲の例を表す説明図である。 本発明の実施の形態に係る制御装置の動作例を表すフローチャート図である。 本発明の実施の形態に係る制御装置のもう一つの動作例を表すフローチャート図である。
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
本発明の実施の形態の一例に係る制御装置10が制御の対象とするデバイス20は、ユーザの左手または右手のどちらかに装着されるものとして設定される。このデバイス20の一例は、図1,図2に例示するようなものである。図1はデバイス20を正面側から見た斜視図であり、図2はデバイス20を背面側から見た斜視図である。本実施の形態の一例では、このデバイス20は、デバイス本体210と、附属品の一つである固定具220とを含んで構成される。なお、デバイス本体210は、ユーザの左手に装着されるものとして設定される場合と、右手に装着されるものとして設定される場合とで、その形状が同一となっていてよい。
デバイス本体210は、ユーザにより把持される把持部211と、操作部212とを含む。把持部211は、左側面221及び右側面222を有し、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図1,2の例では、正面側に親指センサ部231と、ボタン操作部232とを含み、背面側には、第1指センサ233と、ロッキングボタン234と、表示部235とを含む。また把持部211の背面側には、第2指センサ241と、第3指センサ242とが配されている。
デバイス本体210の左側面221または右側面222のいずれか一方側には、附属品としての固定具220が固定される。また、左側面221または右側面222の他方側には、別の附属品としてのバッテリ240が固定されてもよい。本実施の形態の例では、固定具220は例えば、環状部を有するベルトである。このベルトは可撓性を有する。また環状部の直径は、ベルトに取り付けられたバックルの係止位置によって調整可能となっており、固定時には環状部の直径をユーザの手の指の付け根付近の周長に合わせて締めつける。また着脱時には、この環状部の直径をユーザの手の指の付け根付近の周長より大きくする(締めつけを緩める)。
このデバイス20は、この固定具220にユーザの人差指から小指までを通し、デバイス本体210をユーザの親指の付根に当接させた位置に固定して用いる。図1,2の例では、このときには、デバイス20の右側面222側がユーザの手の平に押付けられてデバイス20が固定される。またこのデバイス20の大きさは、ここでユーザが自然にデバイス本体210を把持すると、ユーザの親指末節はデバイス20の正面側のボタン操作部232に到達し、ユーザの親指の基節側が親指センサ部231に近接する程度の大きさとする。またこのときユーザの人差指はデバイス20背面側のロッキングボタン234に触れる位置となり、ユーザは把持部211を手の平と、中指、薬指、小指とで握りこむようになるものとする。もっとも、この状態からユーザが手を開いても、固定具220によりデバイス20はユーザの手に固定されるので、デバイス20が落下することはない。
親指センサ部231は、例えば、ユーザが自然にデバイス本体210を把持したとき、ユーザの親指の末節側が到達する位置よりやや下方、ユーザの親指の基節側が近接する位置に配される。この親指センサ部231は、デバイス20の正面側であってデバイス20の表面の法線方向を中心とし、デバイス20正面の左側面側から右側面側までの比較的広角の角度範囲を検出可能範囲として、この検出可能範囲においてユーザの親指を検出する。そして親指センサ部231は、当該親指を検出した位置(上記角度範囲内の角度)と、親指センサ部231から検出したユーザの親指までの距離とを検出し、これらの情報を含む、検出結果情報を制御装置10に出力する。この親指センサ部231は例えば、カメラや、光学センサ、焦電センサ、静電容量センサ等、どのようなものでも構わない。ボタン操作部232は、少なくとも一つのボタンを含み、ユーザの押下操作があったときに、操作がされたボタンを特定する情報と、押下があったこと、あるいは押下の量等の操作の内容を表す情報を、制御装置10に出力する。
なお、ボタン操作部232の少なくとも一部のボタンは、押下操作のみならず傾倒操作が可能となっていてもよい。この場合、ユーザが傾倒操作を行うと、ボタン操作部232は、操作がされたボタンを特定する情報とともに、傾倒方向や傾倒量(傾倒角度に応じた量)等、操作の内容を表す情報を制御装置10に出力する。
またここで、押下操作に応じてどれだけ押下されたかを表す情報が取得できる場合、ボタン操作部232は、最大押下量を「1」とし、押下がない状態を「0」として、押下された量の最大押下量に対する割合として0から1までの間の値を押下量の情報として出力してもよい。
ボタン操作部232は、傾倒方向や傾倒量の情報を、次のように出力する。すなわち、ボタン操作部232は、ボタンの傾倒方向のうち、デバイス本体210の長手方向に沿った方向をy軸、これに直交する方向をx軸として傾倒方向を表現する。またボタン操作部232は、傾倒操作されていない状態を「0」、最大の傾倒角度を「1」とし、x軸の正の方向、及びx軸の負の方向の傾倒量を、それぞれx軸の正の方向及びx軸の負の方向への傾倒角度の最大の傾倒量に対する割合として0から1までの間の値を出力する。ボタン操作部232は、y軸方向の正負のそれぞれの方向の傾倒量についても、y軸方向の傾倒角度の最大の傾倒量に対する割合として0から1までの間の値を出力する。
この例では、ボタンがx軸の正の方向に可動量の1/2、y軸の負の方向に可動量の1/2だけ傾倒されると、次のような情報が出力されることとなる。すなわち出力は、x軸の正の方向に0.5、x軸の負の方向に0(x軸負の方向への傾倒はなし)、y軸の正の方向に0.5、y軸の負の方向に0(y軸負の方向への傾倒はなし)となる。
ロッキングボタン234は、デバイス20の背面側に突出した第1の位置と、デバイス20側へ押し込まれた第2の位置との間で揺動するボタンである。ロッキングボタン234は、ユーザの人差指等で押し込み操作され、その押し込み量を表す情報を制御装置10に出力する。具体的にこのロッキングボタン234は、ポテンショメータ等を含んで構成できるが、押し込み量が検出できれば、この構成に限られるものではない。
表示部235は、例えば多色に発光可能なLED(Light Emission Diode)を含む。この表示部235は、制御装置10から入力される指示に従い、LEDを、当該指示された発光態様(指示された色で点灯、あるいは指示された間隔で断続的に点灯するなどの態様)で発光させる。
また本実施の形態においてはこのロッキングボタン234に、第1指センサ233が取り付けられる。第1指センサ233は、ロッキングボタン234に人差指が触れているか否かを検出して、当該検出の結果を表す情報を制御装置10に出力する。この第1指センサ233は例えば静電容量センサ等で構成できる。
さらに本実施の形態の一例では、ロッキングボタン234には、力覚提示装置が接続されていてもよい。この力覚提示装置は、制御装置10から入力される指示に従い、ロッキングボタン234の押し込みに抗する力を呈示する。具体的にこの力覚提示装置は、ロッキングボタン234を押し込むときに回転するロータを含むモーターや、ロッキングボタン234の押し込みにより被駆動体が直線的に移動する直動型アクチュエータ等で構成できる。このようにモーター等を用いる場合、力覚提示装置は押し込みによる回転や被駆動体の移動があったときに、当該回転や移動とは逆方向に力を加えるようモーターやアクチュエータを制御する。このような力覚提示装置については広く知られたものを採用できるので、ここでの詳しい説明を省略する。
さらに本実施の形態では、デバイス20は、図示しないバイブレータや、ハプティックデバイス、スピーカー等、デバイス本体210を振動させ、デバイス20が固定されているユーザの手に振動を伝達することで、触覚を呈示することとしてもよい。このような触覚呈示の方法についてもここでの詳しい説明を省略する。
第2指センサ241は、デバイス20の把持部211にユーザの中指が近接しているか(あるいは触れているか)否かを検出する。そして当該検出の結果を表す情報を、制御装置10に出力する。同様に、第3指センサ242は、デバイス20の把持部211にユーザの薬指または小指が近接しているか(あるいは触れているか)否かを検出する。そして当該検出の結果を表す情報を、制御装置10に出力する。これら第2指センサ241、第3指センサ242はいずれも、静電容量センサや光学センサ等で構成できる。ここで光学センサは、赤外光を放射する発光部と、赤外光を検出する受光部とを有し、発光部から放射された光が対象物に反射して受光部に入射する割合を測定するものなどがある。このような光学センサによると、光学センサ近傍に対象物が近接するほど、受光部に入射する光の強度を発光部から放射された光の強度で除した割合(比強度と呼ぶ)rが大きくなるので、指等の接近が検出できる。
また本実施の形態では、デバイス20は、左側面221と右側面222とのいずれの側に、所定の附属品である固定具220が固定されているかを検出するセンサ(固定具センサ)を備えている。この固定具センサは具体的には、固定具220を装着したときにオンとなるマイクロスイッチ等を、左側面221と右側面222とにそれぞれ配することで実現できる。このような所定の附属品を取り付けたときに、取り付けた側を検出する構成については、その他広く知られた方法を用いることができるので、ここでの詳しい説明を省略する。本実施の形態では、この固定具センサによる検出の結果は制御装置10に入力される。
制御装置10は、例えばデバイス20のデバイス本体210に内蔵される。この制御装置10は図3に例示するように、制御部11と、記憶部12と、デバイスインタフェース13と、通信部14とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では制御部11は、予め定めた種類の附属品が装着されている側面が、デバイス20の左右いずれの側面であるかを検出し、当該検出の結果に基づいて、デバイス20がユーザの左手と右手のどちらに装着されるものであるかを判断する。この制御部11の具体的な処理の内容については、後に詳しく述べる。
記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
デバイスインタフェース13は、デバイス20の親指センサ部231、ボタン操作部232、第1指センサ233、ロッキングボタン234、第2指センサ241、第3指センサ242、及び、力覚提示装置に接続され、親指センサ部231、ボタン操作部232、第1指センサ233、ロッキングボタン234、第2指センサ241、第3指センサ242が出力する情報を制御部11に出力する。また、このデバイスインタフェース13は、制御部11から入力される指示を、力覚提示装置に対して出力する。
通信部14は、USB(Universal Serial Bus)等のシリアルインタフェースあるいは、ブルートゥース(登録商標)等の無線通信インタフェースを含んで構成される。この通信部14は、家庭用ゲーム機等、デバイス20が検出するユーザの手や指の動き等に基づいて動作する機器(以下本体機器と呼ぶ)との間で通信可能に接続され、この本体機器から指示を受信して制御部11に出力する。また制御部11が出力する情報を本体機器に対して送出する。
ここで制御装置10の制御部11の動作について説明する。本実施の形態においてこの制御部11は、機能的には図4に例示するように、情報検出部31と、左右判断部32と、ボタン設定部33と、検出範囲設定部34と、情報受入部35と、送出部36とを含んで構成されている。
情報検出部31は、固定具センサからの入力を受け入れる。本実施の形態の一例では、左側面221側に配した固定具センサの出力と、右側面222側に配した固定具センサの出力との双方を受け入れる。そして情報検出部31は、受け入れた出力のうち、オンとなっている固定具センサが配されている側を、固定具が装着されている側として検出する。具体的に、左側面221に配した固定具センサの出力がオンとなっていれば(固定具220は左側面221または右側面222のいずれか一方にのみ装着するため、この場合、右側面222に配した固定具センサの出力はオフとなる)、情報検出部31は、固定具が左側面221に装着されていると検出する。また、右側面222に配した固定具センサの出力がオンとなっていれば(この場合は、左側面221に配した固定具センサの出力がオフとなる)、情報検出部31は、固定具が右側面222に装着されていると検出する。
左右判断部32は、情報検出部31の検出結果に基づいて、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを判断する。具体的に、左側面221側に固定具が装着されている場合、デバイス20はユーザの左手に装着されるものとなる。また右側面222側に固定具が装着されている場合、デバイス20はユーザの右手に装着されるものとなる。
そこで、左右判断部32は、情報検出部31が、固定具が左側面221に装着されていると検出したときには、当該デバイス20はユーザの左手に装着されるものと判断する。またこの左右判断部32は、情報検出部31が、固定具が右側面222に装着されていると検出したときには、当該デバイス20はユーザの右手に装着されるものと判断する。
ボタン設定部33は、本体機器側から入力される指示等に従い、ボタン操作部232等に対して機能を割り当てる。具体的に本実施の形態の一例では、制御装置10は、図5に例示するように、ボタン操作部232に含まれるボタンを特定する情報(B)ごと、かつ、当該ボタンに対する操作の内容(P)ごと(押下の有無ごと、あるいは傾倒ないし移動された方向ごと等)に、操作がされたときに出力するべき情報(X)を関連付けてボタンマップとして記憶部12内に保持している。そして制御装置10は、ボタン操作部232から操作されたボタンを特定する情報と、操作の内容を表す情報とを受け入れて、当該受け入れた情報に関連付けて保持されている、出力するべき情報を読み出し、当該読み出した情報を送出部36を介して本体機器に送出する。
また、このボタンマップでは、操作がされたときに出力するべき情報(X)として機能を特定する情報に代えて、傾倒の方向を表す情報と、傾倒量を表す情報との組としても構わない。このとき、傾倒の方向を表す情報は、デバイス本体210の長手方向に沿った方向をy軸、これに直交する方向をx軸として表現されてもよい。例えば、デバイス本体210の長手方向であって、上方(デバイス本体210をユーザの手に装着した状態で、当該装着した手の親指を伸ばしたとき、当該親指の根元から先端へ至る方向)にボタンが傾倒操作されたときには、傾倒方向をy軸正の方向とし、下方(y軸に沿って上方とは反対側)にボタンが傾倒操作されたときには、傾倒方向をy軸負の方向とする。また、デバイス本体210をユーザの手に装着した状態で、親指センサ231をユーザに向かい合う方向としたときに、デバイス本体210の左方向にボタンが傾倒操作されたときには、傾倒方向をx軸負の方向とし、x軸に沿ってx軸負の方向とは反対側に傾倒操作されたときには、傾倒方向をx軸正の方向とする。また、この例においてボタンを押し込み操作したときには、当該押し込みの方向をz軸正の方向としてもよい。
またこの例では、傾倒操作されていない状態を「0」、最大の傾倒角度を「1」とし、x,y軸方向の各傾倒角度を、それぞれの最大の傾倒量に対する割合として0から1までの間の値として出力するべきとして設定する。押し込み量についても同様に、押し込み操作されていない状態を「0」、最大の押し込み量を「1」として、z軸方向の押し込み量を、最大の押し込み量に対する割合として0から1までの値として出力するべきとして設定する。
ボタン設定部33は、本体機器側から入力される指示等に従い、図5に例示したボタンマップを書き換える。ここでボタン設定部33が本体機器側から入力を受け入れる指示は、例えば、ボタン操作部232に含まれるボタンを特定する情報と、当該情報で特定されるボタンに対する操作の内容と、当該操作が行われたときに出力するべき情報とを指定するものである。ここでボタンを特定する情報は、ユーザの手の平からの遠近(ユーザの手の平から遠い側、ユーザの手の平から近い側の別)あるいは、デバイス20の正面に向かって左側であるか右側であるかの別などにより表すものとする。
具体的に、デバイス20のボタン操作部232が、正面に向って左側のボタンBLと、右側のボタンBRと、前方側のボタンBTと、手前側のボタンBBとを備えているとする。このとき本体機器としての家庭用ゲーム機が、デバイス20の制御装置10に対し、ユーザの手の平から近い側のボタンに「機能A」、ユーザの手の平から遠い側のボタンに「機能B」を設定する指示を行うと、制御装置10は、このボタン設定部33の動作として次の動作を行う。
すなわちボタン設定部33は、左右判断部32の判断結果を参照し、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報を取得する。例えば左右判断部32が、デバイス20がユーザの右手に装着されるものと判断しているとする。このときボタン設定部33は、ユーザの手の平から近い側のボタンがデバイス20の正面に向って右側のボタンBRとなるので、記憶部12に格納されたボタンマップのうち、このボタンBRの押下操作を表す情報に対し、「機能A」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する。またこのときボタン設定部33は、ユーザの手の平から遠い側のボタンがデバイス20の正面に向って左側のボタンBLとなるので、記憶部12に格納されたボタンマップのうち、このボタンBLの押下操作を表す情報に対し、「機能B」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する。
一方、左右判断部32の判断結果を参照し、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報を取得したとき、左右判断部32が、デバイス20がユーザの左手に装着されるものと判断しているときには、ボタン設定部33は次のように動作する。この場合、ユーザの手の平から近い側のボタンがデバイス20の正面に向って左側のボタンBLとなるので、ボタン設定部33は、記憶部12に格納されたボタンマップのうち、このボタンBLの押下操作を表す情報に対し、「機能A」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する。またこのときには、ユーザの手の平から遠い側のボタンがデバイス20の正面に向って右側のボタンBRとなるので、ボタン設定部33は、記憶部12に格納されたボタンマップのうち、このボタンBRの押下操作を表す情報に対し、「機能B」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する。
これによりユーザはデバイス20を左手に装着するか右手に装着するかによらず、親指を手の平から離した位置で行う操作と、親指を手の平に近接した位置で行う操作とが同じ機能に割り当てられることとなり、自然な操作感を得ることが可能となる。
なお、これらの例においてボタン設定部33は、左右で対称な位置にあるボタン(ここでの例では前方側のボタンBT及び手前側のボタンBB)については、左右判断部32の判断結果によらず、本体機器から指示された内容に従い、各機能を設定する。
また本体機器から、ユーザの手の平からの遠近ではなく、デバイス20の正面に向って左であるか右であるかにより、ボタンの設定の指示を受けた場合は、制御装置10のボタン設定部33は次のように動作する。一例として本体機器としての家庭用ゲーム機が、デバイス20の制御装置10に対し、デバイス20の正面に向って右側のボタンに「機能A」、左側のボタンに「機能B」を設定する指示を行うと、制御装置10は、このボタン設定部33の動作として次の動作を行う。
すなわちこの場合、ボタン設定部33は、左右判断部32の判断結果によらず、記憶部12に格納されたボタンマップのうち、デバイス20の正面に向って右側のボタンBRの押下操作を表す情報に対し、「機能A」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する。同様に、ボタン設定部33は、記憶部12に格納されたボタンマップのうち、デバイス20の正面に向って左側のボタンBLの押下操作を表す情報に対し、「機能B」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する。
この例は、例えばデバイス20のボタンを、移動指示のボタン群として用いる場合に好適である。この設定を行うことで、デバイス20がユーザの左手に装着されるか右手に装着されるかによらず、向って左側のボタンの押下操作に対して、左側への移動等の動作指示を割り当てることが可能となる。
[傾倒方向の軸の設定]
また傾倒方向の軸も、左右判断部32の判断結果を参照して設定されてもよい。すなわち、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報を取得したとき、左右判断部32が、デバイス20がユーザの左手に装着されるものと判断しているときには、ボタン設定部33は、記憶部12に格納されたボタンマップにおいて、デバイス本体210の長手方向であって、上方(デバイス本体210をユーザの手に装着した状態で、当該装着した手の親指を伸ばしたとき、当該親指の根元から先端へ至る方向)にボタンが傾倒操作されたときには、傾倒方向をy軸正の方向とし、下方(y軸に沿って上方とは反対側)にボタンが傾倒操作されたときには、傾倒方向をy軸負の方向とする。また、デバイス本体210をユーザの手に装着した状態で、親指センサ231をユーザに向かい合う方向としたときに、デバイス本体210の左方向にボタンが傾倒操作されたときには、傾倒方向をx軸負の方向とし、x軸に沿ってx軸負の方向とは反対側に傾倒操作されたときには、傾倒方向をx軸正の方向とする。また、ボタンを押し込み操作したときには、当該押し込みの方向をz軸正の方向とする。
また、左右判断部32が、デバイス20がユーザの右手に装着されるものと判断しているときには、左右方向の軸(ここでの例ではx軸)を反転して扱う。すなわち、このようにデバイス20がユーザの右手に装着されるものと判断しているときには、ボタン設定部33は、記憶部12に格納されたボタンマップにおいて、デバイス本体210の長手方向であって、上方(デバイス本体210をユーザの手に装着した状態で、当該装着した手の親指を伸ばしたとき、当該親指の根元から先端へ至る方向)にボタンが傾倒操作されたときには、傾倒方向をy軸正の方向とし、下方(y軸に沿って上方とは反対側)にボタンが傾倒操作されたときには、傾倒方向をy軸負の方向とする。また、デバイス本体210をユーザの手に装着した状態で、親指センサ231をユーザに向かい合う方向としたときに、デバイス本体210の左方向にボタンが傾倒操作されたときには、傾倒方向をx軸正の方向とし、x軸に沿ってx軸負の方向とは反対側に傾倒操作されたときには、傾倒方向をx軸負の方向とする。また、ボタンを押し込み操作したときには、当該押し込みの方向をz軸正の方向とする。
この例によると、例えばボタンBBについて上記設定がされているとき、ユーザがその左手に装着したデバイス20のボタンBBを次のように操作すると、デバイス20は次のような情報を出力する。すなわち、ユーザがボタンBBを正面に見た状態で、ボタンBBを、左側へ可動量の1/2、手前側(下方)に可動量の1/2だけ傾倒すると、デバイス20は、x軸負の方向に0.5、y軸負の方向に0.5である旨の情報を出力する。このときx軸正の方向と、y軸正の方向には傾倒がないので、デバイス20は、それぞれが0である旨の情報を出力してもよいし、そもそも傾倒がないので、これらの情報を出力しないよう制御してもよい。
また、ユーザがその右手に装着したデバイス20のボタンBBを正面に見た状態で、当該ボタンBBを、左側へ可動量の1/2、手前側(下方)に可動量の1/2だけ傾倒すると、デバイス20は、x軸正の方向に0.5、y軸負の方向に0.5である旨の情報を出力する。このときx軸負の方向と、y軸正の方向には傾倒がないので、デバイス20は、それぞれが0である旨の情報を出力してもよいし、そもそも傾倒がないので、これらの情報を出力しないよう制御してもよい。
[親指センサの設定]
また、本実施の形態における制御装置10の制御部11は、検出範囲設定部34の動作として、親指センサ部231からの情報入力を受けて次の動作を行う。本実施の形態の一例では親指センサ部231は、デバイス20正面の左側面側から右側面側までの比較的広角の検出可能範囲で、ユーザの親指を検出した位置(上記角度範囲内の角度)と、親指センサ部231からユーザの親指までの距離とを出力している。一例としてこの出力は、図6に例示するようになる。すなわち、この出力は、親指センサ部231が取り付けられている位置でのデバイス20筐体の法線方向を中心Oとし、デバイス20の正面側の左右方向(デバイス20の左右方向)の検出可能範囲θと、仰角方向の検出可能範囲φとで表される二次元に配列した画素群を含む。この出力は、例えば当該画素群上で、親指T(ユーザの皮膚表面)が検出された領域と、当該検出された親指までの距離とを表す、デプスマップ(親指までの距離に応じた画素値が設定された画像データ)となっている。図6では、色が濃いほど距離が近いことを表すものとしている。
検出範囲設定部34は、左右判断部32の判断結果を参照し、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報を取得する。そして当該取得した情報に基づいて、親指センサ部231の上記検出可能範囲のうちから、親指の検出範囲を設定する。そして親指センサ部231から入力される情報のうち、この設定した検出範囲における情報のみを選択して、親指の検出結果とする。つまり、この検出範囲設定部34は、デバイス20がユーザの左手と右手のどちらに装着されるかを判断した結果に基づいて、親指の検出範囲を異ならせる。
具体的に検出範囲設定部34は、左右判断部32の判断結果により、デバイス20がユーザの左手に装着されるものと判断しているときには、図7に例示するように、親指センサ部231の左右方向の検出可能範囲θのうちデバイス20の正面側から右側面寄り(ユーザの手の平と反対側)の半分の範囲(図7の角度Bの範囲)を検出範囲として設定する。また、検出範囲設定部34は、左右判断部32の判断結果により、デバイス20がユーザの右手に装着されるものと判断しているときには、親指センサ部231の左右方向の検出可能範囲θのうちデバイス20の正面側から左側面寄り(ユーザの手の平と反対側)の半分の範囲(図7の角度Aの範囲)を検出範囲として設定する。
そして検出範囲設定部34は、親指センサ部231が出力した情報のうち、ここで設定された検出範囲内の情報を選択して取り出す。すなわち、左右判断部32の判断結果により、デバイス20がユーザの左手に装着されるものと判断しているときには、デバイス20の正面側から右側面寄りの半分の範囲(図7の角度Bの範囲)が検出範囲として設定されるので、検出範囲設定部34はこの検出範囲内での親指の範囲と、親指までの距離とを表す情報(デプスマップ等)を取り出して出力する。
同様に、左右判断部32の判断結果により、デバイス20がユーザの右手に装着されるものと判断しているときには、デバイス20の正面側から左側面寄りの半分の範囲(図7の角度Aの範囲)が検出範囲として設定されるので、検出範囲設定部34はこの検出範囲内での親指の範囲と、親指までの距離とを表す情報(デプスマップ等)を取り出して出力する。
これにより、親指センサ部231が比較的広角の範囲で親指(ユーザの皮膚表面)を検出することにより、ユーザの手の平の母指球部等が親指と誤って検出されることが防止される。
また、ここでの例では、親指センサ部231が検出可能範囲全体での検出結果を出力し、制御装置10が検出範囲設定部としての動作により、当該検出結果のうち、一部を取り出すこととしていたが、本実施の形態はこれに限られない。
一例として親指センサ部231が、互いに検出範囲の異なる複数のセンサを含む場合、制御装置10の検出範囲設定部34は、どのセンサをオンとするか、あるいはどのセンサの出力を用いるかにより、検出範囲を異ならせてもよい。例えば親指センサ部231が、デバイス20の正面側から右側面寄りの半分の範囲(図7の角度Bの範囲)を検出可能範囲とする第1センサと、デバイス20の正面側から左側面寄りの半分の範囲(図7の角度Aの範囲)を検出可能範囲とする第2センサとを有してなる場合、制御装置10の検出範囲設定部34は、次のように動作してもよい。
この例では、左右判断部32の判断結果により、デバイス20がユーザの左手に装着されるものと判断しているときには、検出範囲設定部34は、第1センサのみをオンとする。これによりデバイス20の正面側から右側面寄りの半分の範囲(図7の角度Bの範囲)が検出範囲として設定されるので、検出範囲設定部34はこの検出範囲内での親指の範囲と、親指までの距離とを表す情報(デプスマップ等)の入力を受け入れ、当該受け入れた情報を出力する。
また左右判断部32の判断結果により、デバイス20がユーザの右手に装着されるものと判断しているときには、検出範囲設定部34は、第2センサのみをオンとする。これによりデバイス20の正面側から左側面寄りの半分の範囲(図7の角度Aの範囲)が検出範囲として設定されるので、検出範囲設定部34はこの検出範囲内での親指の範囲と、親指までの距離とを表す情報(デプスマップ等)の入力を受け入れ、当該受け入れた情報を出力する。
これによっても、親指センサ部231が比較的広角の範囲で親指(ユーザの皮膚表面)を検出することにより、ユーザの手の平の母指球部等が親指と誤って検出されることが防止される。
情報受入部35は、ボタン操作部232からどのボタンが押下されたか、あるいはどのボタンがどの方向に移動ないし傾倒操作されたかを表す情報を受け入れる。またこの情報受入部35は、第1指センサ233、第2指センサ241、及び第3指センサ242からユーザの指を検出したか否かを表す情報の入力を受け入れる。さらに情報受入部35は、ロッキングボタン234から、ユーザによりロッキングボタン234がどの程度押し込まれているかを表す情報を受け入れる。情報受入部35は、そして、検出範囲設定部34が出力する情報を受け入れる。送出部36は、情報受入部35が受け入れた情報を、本体装置に対してユーザの操作に関する情報(操作関係情報)として送出する。さらに本実施の形態の制御装置10は、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報を、操作関係情報に含めて本体機器に対して出力してもよい。さらに、本実施の形態の制御装置10は、デバイスインタフェース13を介して接続されているデバイス20に設定された、デバイス20ごとに固有なデバイス識別情報を、この操作関係情報に含めて本体機器に対して出力してもよい。
[動作]
本実施の形態の制御装置10は以上の構成を備えてなり、次のように動作する。ユーザは、デバイス20を左右どちらの手に装着するかを決め、右手に装着する場合はデバイス20の右側面222に、左手に装着する場合はデバイス20の左側面221に固定具220を取り付ける。またこのとき、固定具220を取り付けた側面とは反対側の側面にバッテリ240が取り付けられてもよい。この場合、デバイス20の左側面221,右側面222には、いずれもバッテリ240からの給電を内部の回路に伝達する端子が設けられているものとする。
制御装置10は、固定具220を検出する固定具センサからの入力を受け入れ、固定具が左側面221と右側面222のいずれに装着されているかを検出する。制御装置10は、この検出結果に基づいてデバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを判断する。
制御装置10は、本体機器側からボタン操作部232等に対する機能割り当ての指示を受け入れる。具体的に、本体機器としての家庭用ゲーム機が、デバイス20の制御装置10に対し、ユーザの手の平から近い側のボタンに「機能A」、ユーザの手の平から遠い側のボタンに「機能B」を設定する指示を行うと、制御装置10は、図8に例示する処理を開始し、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報を取得する(S11)。
制御装置10は、デバイス20がユーザの右手に装着されるものとなっているか否かを判断する(S12)。そして右手に装着されるものとなっていれば(S12:Yes)、制御装置10は、記憶部12に格納されたボタンマップのうち、右手に装着したときにユーザの手の平から近い側となる右側のボタンBRの押下操作を表す情報に対し、「機能A」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する(S13)。また、制御装置10は、ユーザの手の平から遠い側となる左側のボタンBLの押下操作を表す情報に対し、「機能B」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する(S14)。
一方処理S12において、デバイス20がユーザの左手に装着されるものとなっている場合(S12:No)、制御装置10は、記憶部12に格納されたボタンマップのうち、左手に装着したときにユーザの手の平から遠い側となる右側のボタンBRの押下操作を表す情報に対し、「機能B」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する(S15)。また、制御装置10は、ユーザの手の平から近い側となる左側のボタンBLの押下操作を表す情報に対し、「機能A」が指示された旨を表す情報を、出力するべき情報として関連付けて記録する(S16)。
以降、ユーザの右手に装着されるものとなっている(固定具220が右側面222に装着されている)デバイス20においては、制御装置10は、正面に向かって左側のボタンBLが押下されたとき、「機能B」が指示された旨の情報を本体機器に対して出力することとなる。またユーザの右手に装着されるものとなっているとき、制御装置10は、デバイス20の正面に向かって右側のボタンBLが押下されると、「機能A」が指示された旨の情報を本体機器に対して出力する。
制御装置10は、電源の投入時などのタイミングで、ユーザの親指の検出範囲を設定する動作を行う。具体的に制御装置10は、電源の投入時などのタイミングで、図9に例示する処理を開始し、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報を取得する(S21)。
制御装置10は、デバイス20がユーザの右手に装着されるものとなっているか否かを判断する(S22)。ここで右手に装着されるものとなっていれば(S22:Yes)、制御装置10は、親指センサ部231の左右方向の検出可能範囲θのうちデバイス20の正面側から左側面寄り(ユーザの手の平と反対側)の半分の範囲(図7の角度Aの範囲)を検出範囲として設定する。具体的には、親指センサ部231が出力した情報のうち、設定した検出範囲であるデバイス20の正面側から左側面寄りの半分の範囲(図7の角度Aの範囲)での親指を検出した領域と、親指までの距離とを表す情報(デプスマップ等)を取り出して出力する(S23)。
一方、制御装置10は、処理S22において、デバイス20がユーザの左手に装着されるものとなっているときには(S22:No)、親指センサ部231の左右方向の検出可能範囲θのうちデバイス20の正面側から右側面寄り(ユーザの手の平と反対側)の半分の範囲(図7の角度Bの範囲)を検出範囲として設定する。具体的には、親指センサ部231が出力した情報のうち、設定した検出範囲であるデバイス20の正面側から右側面寄りの半分の範囲(図7の角度Bの範囲)での親指を検出した領域と、親指までの距離とを表す情報(デプスマップ等)を取り出して出力する(S24)。
また制御装置10は、図9に例示した処理により設定された検出範囲での親指の検出位置や距離の情報を操作関係情報として本体機器に対して出力する。さらに、制御装置10は、ボタン操作部232等に対してユーザが行った操作の内容を操作関係情報として本体機器に対して出力する。またこの制御装置10は、ユーザの指がロッキングボタン234に触れているか否か、あるいは把持部211にユーザの指がかかっているか(デバイス20が握られた状態か、手が開かれた状態にあるか)の検出結果を操作関係情報として本体機器に対して出力する。
[表示]
さらに本実施の形態において制御部10は、デバイス20がユーザの左手または右手のどちらに装着されるものとなっているかを表す情報(デバイス20がユーザの左手と右手のどちらに装着されるかを判断した結果)を取得して、表示部235に表示してもよい。一例として本実施の形態においてデバイス20は、表示部235にデバイス20の正面から見て左側に配された第1のLEDと、右側に配された第2のLEDとを備え、制御装置10が、デバイス20がユーザの左手に装着されるものとなっているときには、第1のLEDを点灯して第2のLEDを消灯し、デバイス20がユーザの右手に装着されるものとなっているときには、第2のLEDを点灯して第1のLEDを消灯してもよい。
[他の装着物による判断]
またここまでの説明では、附属品としての固定具220が左側面221と右側面222とのどちらに装着されるかによって、デバイス20がユーザの左手と右手のどちらに装着されるかを判断していたが、本実施の形態はこれに限られない。例えば、附属品としてのバッテリ240が左側面221と右側面222とのどちらに装着されるかによって、デバイス20がユーザの左手と右手のどちらに装着されるかを判断してもよい。この場合、バッテリ240は、固定具220とは異なる側面に装着されるので、制御装置10は、バッテリ240が左側面221に装着されているときにはデバイス20がユーザの右手に装着されるものと判断する。また、バッテリ240が右側面222に装着されているときには、制御装置10は、デバイス20がユーザの左手に装着されるものと判断する。
[親指センサ部の出力]
さらにここまでの説明では親指センサ部231の出力は、検出可能範囲における親指の位置と、親指までの距離とを表すデプスマップであるものとしていたが、本実施の形態はこれに限られない。例えば、親指センサ部231は、複数の光学センサを有するものであってもよい。この光学センサとしては例えば、赤外光を放射する発光部と、赤外光を検出する受光部とを有し、発光部から放射された光が対象物に反射して受光部に入射する割合を測定するものなどがある。このような光学センサによると、光学センサ近傍に対象物が近接するほど、発光部から放射された光の強度で、受光部に入射する光の強度を除した割合(比強度と呼ぶ)rが大きくなるので、指等の接近が検出できる。本実施の形態の一例の親指センサ部231は、デバイス20の正面側から右側面寄りの半分の範囲(図7の角度Bの範囲)を検出可能範囲とした第1の光学センサと、デバイス20の正面側から左側面寄りの半分の範囲(図7の角度Aの範囲)を検出可能範囲とする第2の光学センサとを含む。
この場合、デバイス20がユーザの左手に装着されるものと判断しているときには、制御装置10は、第1光学センサのみをオンとする。これによりデバイス20の正面側から右側面寄りの半分の範囲(図7の角度Bの範囲)が検出範囲として設定され、親指センサ部231は第1光学センサが出力する比強度rの情報を、親指の検出結果として出力する。また制御装置10は、デバイス20がユーザの右手に装着されるものと判断しているときには、第2光学センサのみをオンとする。これによりデバイス20の正面側から左側面寄りの半分の範囲(図7の角度Aの範囲)が検出範囲として設定され、親指センサ部231は第2光学センサが出力する比強度rの情報を、親指の検出結果として出力する。
制御装置10は、また、親指センサ部231の(設定した検出範囲内の)出力の時間的変化から、例えば、
(1)親指が接近しつつある(デプスマップ上で今回検出した親指までの距離が、前回より短くなっているか、比強度が前回より大きくなっている)、
(2)親指が接近した状態を維持している(デプスマップ上で今回検出した親指までの距離の前回の距離との差が所定範囲内であるか、今回の比強度と前回の比強度との差が所定範囲内である)、
(3)親指が離れつつある(デプスマップ上で今回検出した親指までの距離が、前回より大きくなっているか、比強度が前回より小さくなっている)、
(4)親指が見つけられない
のいずれの状態であるかを判断してもよい。この場合、制御装置10は、当該判断の結果を、親指センサ部231の出力として、操作関係情報として本体機器に対して出力する。このように親指の接近が検出できると、制御装置10では、ボタン操作部232に対する操作がまもなく行われる、といった判断が可能となり、ユーザの操作に対するより柔軟な応答が可能となる。
[変形例]
また本実施の形態のここまでの説明では、制御装置10は、デバイス20の筐体内にあるものとしたが、本実施の形態はこれに限られない。具体的に制御装置10は、デバイス20に接続される本体機器内にあってもよい。この例では、デバイス20は、親指センサ部231、ボタン操作部232、第1指センサ233、ロッキングボタン234、第2指センサ241及び第3指センサ242の出力を、本体機器内の制御装置10に対して送出して出力する。また、制御装置10はデバイス20の力覚提示装置に対して、提示する力覚の大きさを表す情報を出力する。
[キーガイドの表示]
そして制御装置10は、指示により、記憶部12に格納されたボタンマップの内容を本体機器に対して出力してもよい。この出力結果は、本体機器によって、本体機器に接続されたディスプレイモニタ等に表示出力されてもよい。これによると、本体機器側からの指示により、デバイス20がユーザの左手と右手とのいずれに装着されるものであるかによって設定されたボタンごとの機能設定の内容の案内(キーガイド)が、ディスプレイモニタに表示出力される。
[出荷時設定]
本実施の形態の例において、制御装置10は、デバイス20に装着される固定具やバッテリ等が、デバイス20の左右のどちらの側面に装着されるかによって、デバイス20が左手に装着されるものとして設定されているか、右手に装着されるものとして設定されているかを判断していたが、本実施の形態はこれだけに限られない。
すなわち、本実施の形態では制御装置10は、デバイス20から取得される所定の情報(装着品の装着される側面を特定する情報のほか、例えばデバイス20内に備えた不揮発性のメモリに予め格納した設定情報等)に基づいて、デバイス20がユーザの左手と右手のどちらに装着されるものであるとして設定されているか判断してもよい。
具体的には、デバイス20内に不揮発性メモリを設け、デバイス20の出荷時に、この不揮発性メモリ内に、左手用または右手用のいずれとして設定するかを書き込んでおく。この例では、制御装置10は、デバイス20内の不揮発性メモリに書き込まれた設定を読み出し、当該読み出した設定により、デバイス20が左手に装着されるものとして設定されているか、右手に装着されるものとして設定されているかを判断する。なお、この不揮発性メモリは、制御装置10がデバイス20に内蔵される場合は、制御装置10の記憶部12によって実現されてもよい。この場合、出荷時に制御装置10の記憶部12に、上記設定を書き込んでおき、制御装置10の制御部11は、当該記憶部12に書き込まれた設定により、デバイス20が左手に装着されるものとして設定されているか、右手に装着されるものとして設定されているかを判断する。
また本実施の形態では、本体機器側において、ユーザごとに、左手に装着されるものとして設定されたデバイス20と、右手に装着されるものとして設定されたデバイス20とをそれぞれ最大1つずつ利用可能としておいてもよい。
本実施の形態の一例では、各デバイス20には、それぞれのデバイス20を識別する固有のデバイス識別情報を関連付けて設定しておく(例えばデバイス20の不揮発性メモリ内に、そのデバイス識別情報を記録しておく)。そして本体機器は、ユーザを特定する情報ごとに、左手に装着されるものとして設定されたデバイス20のデバイス識別情報と、右手に装着されるものとして設定されたデバイス20のデバイス識別情報とをそれぞれ一つずつ関連付けて記憶する。
この例において本体機器は、デバイス20に接続された制御装置10から登録の要求を受けて登録の処理を開始し、当該制御装置10に接続されたデバイス20が左手に装着されるものとして設定されているか、右手に装着されるものとして設定されているかを表す情報と、デバイス識別情報とを受け入れる。
本体機器は、左手に装着されるものとして設定されていることを表す情報が入力されると、当該情報とともに受け入れたデバイス識別情報を、別途指定されたユーザを特定する情報(注目ユーザ特定情報と呼ぶ)に対して、左手用デバイスを特定する情報として関連付けて記録する処理を試みる。このとき、既に注目ユーザ特定情報に対して左手用デバイスを特定する情報として関連付けられた情報(既存情報)がある場合は、当該既存情報を、今回受け入れたデバイス識別情報で上書きするか、エラーを報知して処理を中断する。
同様に、本体機器は、右手に装着されるものとして設定されていることを表す情報が入力されると、当該情報とともに受け入れたデバイス識別情報を、右手用デバイスを特定する情報として、注目ユーザ特定情報に対して関連付けて記録する処理を試みる。このとき、既に注目ユーザ特定情報に対して右手用デバイスを特定する情報として関連付けられた情報(既存情報)がある場合は、当該既存情報を、今回受け入れたデバイス識別情報で上書きするか、エラーを報知して処理を中断する。
この本体機器の処理の例によると、ユーザは、共通の形状を有するデバイス本体210を備えた一対のデバイス20であって、左手に装着するものとして設定された一方のデバイス20と、右手に装着するものとして設定された他方のデバイス20とをそれぞれ用いて(通常はそれぞれを左手と右手とに装着して)本体機器に対する操作を入力することが可能となる。また、登録の際誤って、いずれも右手に装着するものとして設定されている複数のデバイス20を、ひとりのユーザに対して割り当てることが防止される。
10 制御装置、11 制御部、12 記憶部、13 デバイスインタフェース、14
通信部、20 デバイス、31 情報検出部、32 左右判断部、33 ボタン設定部、34 検出範囲設定部、35 情報受入部、36 送出部、210 デバイス本体、211 把持部、212 操作部、220 固定具、221 左側面、222 右側面、231 親指センサ部、232 ボタン操作部、233 第1指センサ、234 ロッキングボタン、235 表示部、240 バッテリ、241 第2指センサ、242 第3指センサ。

Claims (8)

  1. ユーザの左手と右手とのどちらかに装着されるものとして設定されるデバイスの制御装置であって、
    当該デバイスから所定の情報を取得する取得手段と、
    前記取得した所定の情報に基づいて、前記デバイスがユーザの左手と右手のどちらに装着されるものであるかを判断する判断手段と、を有し、
    前記デバイスは、正面側に、設定された検出範囲でユーザの親指を検出する親指センサを有してなり、
    前記デバイスがユーザの左手と右手のどちらに装着されるかを判断した結果に基づいて、前記検出範囲を異ならせる制御装置。
  2. 請求項記載の制御装置であって、
    前記デバイスがユーザの左手に装着されると判断した場合には、前記検出範囲を、前記デバイスの正面から右側に制限し、
    前記デバイスがユーザの右手に装着されると判断した場合には、前記検出範囲を、前記デバイスの正面から左側に制限する制御装置。
  3. 請求項1記載の制御装置であって、
    前記親指センサは、前記デバイスをユーザが把持したときにユーザの親指の基節側が近接する位置近傍に配され、前記デバイスの表面の法線方向を中心とし、当該デバイス正面の左側面側から右側面側までの角度範囲を検出可能範囲とする親指センサであり、
    制御装置は、前記デバイスがユーザの左手に装着されると判断した場合には、前記検出範囲を、前記親指センサの検出可能範囲のうち、デバイスの正面から右側に制限し、
    前記デバイスがユーザの右手に装着されると判断した場合には、前記検出範囲を、前記親指センサの検出可能範囲のうち、デバイスの正面から左側に制限する制御装置。
  4. 請求項1から3のいずれか一項に記載の制御装置であって、
    前記デバイスは、左右いずれかの側面がユーザの手の平に押し付けられた状態に固定され、前記デバイスの左右の側面のうち、少なくとも一方の側面に附属品が装着されるデバイスであり、
    前記取得手段は、前記附属品のうち、予め定めた種類の附属品が装着されている側面が、前記デバイスの左右いずれの側面であるかを表す情報を取得し、
    前記判断手段は、前記取得した情報に基づいて、前記デバイスがユーザの左手と右手のどちらに装着されるものであるかを判断する制御装置。
  5. 請求項記載の制御装置であって、
    前記予め定めた種類の附属品は、手の平に押付けられる側に装着されユーザの手に固定される固定具である制御装置。
  6. 請求項1から5のいずれか一項に記載の制御装置であって、
    前記デバイスはその左側と右側とに、それぞれボタンを備えており、
    ユーザの手の平側のボタンと、ユーザの手の平とは反対側のボタンとに割り当てるべき機能を特定する情報の入力を受け入れる手段と、
    当該受け入れた情報を記憶し、前記デバイスがユーザの左手と右手のどちらに装着されるかを判断した結果に基づいて、デバイスの左側と右側とのそれぞれのボタンの機能を設定する手段と、
    を有する制御装置。
  7. 請求項1から6のいずれか一項に記載の制御装置であって、
    前記デバイスは表示部を有し、
    前記デバイスがユーザの左手と右手のどちらに装着されるかを判断した結果を当該表示部に表示する制御装置。
  8. 左右いずれかの側面がユーザの手の平に押し付けられた状態に固定されるデバイスの制御装置の制御プログラムであって、
    前記デバイスは、デバイスの左右の側面のうち、少なくとも一方の側面に附属品が装着され、正面側に、設定された検出範囲でユーザの親指を検出する親指センサを有するデバイスであり、
    コンピュータを、
    前記附属品のうち、予め定めた種類の附属品が装着されている側面が、前記デバイスの左右いずれの側面であるかを検出する検出手段と、
    前記検出の結果に基づいて、前記デバイスがユーザの左手と右手のどちらに装着されるものであるかを判断する判断手段と、
    前記デバイスがユーザの左手と右手のどちらに装着されるかを判断した結果に基づいて、前記検出範囲を異ならせる手段と、
    として機能させる制御プログラム。
JP2018502990A 2016-03-04 2017-02-09 制御装置及び制御プログラム Active JP6574892B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016042396 2016-03-04
JP2016042396 2016-03-04
PCT/JP2017/004762 WO2017150127A1 (ja) 2016-03-04 2017-02-09 制御装置及び制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2017150127A1 JPWO2017150127A1 (ja) 2018-06-28
JP6574892B2 true JP6574892B2 (ja) 2019-09-11

Family

ID=59743989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018502990A Active JP6574892B2 (ja) 2016-03-04 2017-02-09 制御装置及び制御プログラム

Country Status (3)

Country Link
US (1) US10809825B2 (ja)
JP (1) JP6574892B2 (ja)
WO (1) WO2017150127A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10987573B2 (en) 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
US11625898B2 (en) 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
USD865638S1 (en) * 2017-01-31 2019-11-05 Israel Aerospace Industries Ltd. Joystick
WO2019113245A1 (en) * 2017-12-07 2019-06-13 Valve Corporation Electronic controller with a hand retainer, outer shell, and finger sensing
USD939451S1 (en) * 2018-02-23 2021-12-28 906 Engineering Corporation Hand controller
US11580849B2 (en) * 2018-10-11 2023-02-14 Google Llc Wearable electronic systems having variable interactions based on device orientation
GB201816785D0 (en) * 2018-10-15 2018-11-28 Tangi0 Ltd Sensor device and method
US10824244B2 (en) * 2018-11-19 2020-11-03 Facebook Technologies, Llc Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces
WO2020112561A1 (en) * 2018-11-30 2020-06-04 Magic Leap, Inc. Multi-modal hand location and orientation for avatar movement
JP7274140B2 (ja) * 2018-12-27 2023-05-16 インタアクト株式会社 杖及び通信システム及びプログラム
EP3911397A4 (en) * 2019-01-18 2022-10-26 IPG Photonics Corporation ERGONOMIC HANDLE
US11872499B2 (en) * 2019-02-08 2024-01-16 Sony Interactive Entertainment Inc. Wearing member
USD928882S1 (en) * 2019-09-28 2021-08-24 Edward F. Larkin FPS gaming motion controller
JP2021089693A (ja) * 2019-12-06 2021-06-10 未來市股▲ふん▼有限公司 行動ベースの構成方法及び行動ベースの構成システム
WO2023053898A1 (ja) * 2021-09-28 2023-04-06 株式会社村田製作所 ユーザインタフェース装置
CN115061354A (zh) * 2022-06-08 2022-09-16 深圳市万如夏科技有限公司 一种智能手表的屏幕唤醒及休眠方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW417054B (en) * 1995-05-31 2001-01-01 Sega Of America Inc A peripheral input device with six-axis capability
US7218313B2 (en) * 2003-10-31 2007-05-15 Zeetoo, Inc. Human interface system
JP2006209647A (ja) * 2005-01-31 2006-08-10 Denso Wave Inc 光学情報読取装置
US8795078B1 (en) * 2006-07-14 2014-08-05 Ailive Inc. Method and system providing compatibility between two different controllers
JP5893529B2 (ja) * 2012-08-02 2016-03-23 シャープ株式会社 画像表示端末、画像表示端末の制御方法および画像表示端末を制御するためのプログラム
JP2015141293A (ja) * 2014-01-28 2015-08-03 ソニー株式会社 表示制御装置、表示制御方法、プログラム、及び表示デバイス
US10620701B2 (en) * 2016-02-11 2020-04-14 Wipro Limited Method and system for improving application ergonomics in a hand-held device

Also Published As

Publication number Publication date
JPWO2017150127A1 (ja) 2018-06-28
WO2017150127A1 (ja) 2017-09-08
US20190041999A1 (en) 2019-02-07
US10809825B2 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
JP6574892B2 (ja) 制御装置及び制御プログラム
US11198060B2 (en) Control apparatus and control program
JP7199476B2 (ja) 制御システム、制御装置、制御方法、及びプログラム
WO2017150129A1 (ja) 制御装置
US10969867B2 (en) Information processing system, controller device, controller device control method and program
JP5969626B2 (ja) 高められたジェスチャ・ベースの対話のためのシステム及び方法
US20160364910A1 (en) Hand-Held Controllers with Light-Emitting Diodes Synchronized to an External Camera
TWI404560B (zh) 操作裝置
JP6710285B2 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
JP4940294B2 (ja) 情報処理システム、操作デバイス及び情報処理方法
WO2018198272A1 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
TW202119175A (zh) 人機交互系統和人機交互方法
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP6687749B2 (ja) 情報処理装置、制御方法、プログラム、及び記録媒体
WO2023037548A1 (ja) 情報処理システム、コントローラ装置、その制御方法、及びプログラム
JP2016035749A (ja) 携帯型情報コード読取装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6574892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150