JP6661783B2 - 情報処理システム、情報処理装置、制御方法、及びプログラム - Google Patents
情報処理システム、情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6661783B2 JP6661783B2 JP2018547604A JP2018547604A JP6661783B2 JP 6661783 B2 JP6661783 B2 JP 6661783B2 JP 2018547604 A JP2018547604 A JP 2018547604A JP 2018547604 A JP2018547604 A JP 2018547604A JP 6661783 B2 JP6661783 B2 JP 6661783B2
- Authority
- JP
- Japan
- Prior art keywords
- finger
- angle
- user
- hand
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 47
- 238000000034 method Methods 0.000 title claims description 22
- 210000003811 finger Anatomy 0.000 claims description 397
- 210000004932 little finger Anatomy 0.000 claims description 52
- 230000008569 process Effects 0.000 claims description 18
- 238000001514 detection method Methods 0.000 description 31
- 230000005484 gravity Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 210000003813 thumb Anatomy 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000005452 bending Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 210000005224 forefinger Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0447—Position sensing using the local deformation of sensor cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
Description
本発明は、情報処理システム、情報処理装置、制御方法、及びプログラムに関する。
家庭用ゲーム機等の情報処理装置において、仮想空間内のキャラクタの動作等を制御するためのコントローラが広く用いられている。近年では、ユーザの各指の曲げ伸ばし動作や、指の間の角度を変化させる動作(指同士を互いに平行にしたり、指の間を開いたりする動作)を検出して、キャラクタの動作を制御することも考えられている。
しかしながらユーザの各指の曲げ伸ばし動作や指の角度を変化させる動作を検出することとすると、指ごとにこれらの動作を検出するセンサを設ける必要があり、コストが増大する。
本発明は上記実情に鑑みて為されたもので、コストの増大を抑制できる情報処理システム、情報処理装置、制御方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、ユーザの手に固定されるデバイスに接続される情報処理装置であって、前記デバイスは、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含み、前記情報処理装置は、前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、を含み、前記情報処理装置は、推定されたユーザの前記手の各指間の角度の情報を、所定の処理に供することとしたものである。
本発明によると、コストの増大を抑制できる。
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
本発明の実施の形態に係る情報処理装置1は、例えば家庭用ゲーム機等のコンピュータ機器であり、この情報処理装置1にはコントローラデバイス20が接続される。
コントローラデバイス20は、ユーザの左手または右手に装着されて固定される。以下の説明において、ユーザの左手に固定されるコントローラデバイス20と、右手に固定されるコントローラデバイス20とを区別する必要がある場合は、ユーザの左手に固定されるコントローラデバイス20をコントローラデバイス20L、ユーザの右手に固定されるコントローラデバイス20をコントローラデバイス20RとそれぞれL,Rの符号を付して区別する。
このコントローラデバイス20の一例は、図1にその概要を例示するように、デバイス本体210と、このデバイス本体210に固定された固定具220とを含んで構成される。また、このコントローラデバイス20は、デバイス本体210内に、図2に示すように、制御部21と、記憶部22と、操作インタフェース23と、センサ部24と、通信部25とを含んだ回路部を備えて構成される。
以下の説明において、デバイス本体210の長手方向をZ軸(デバイス本体210を手に固定したとき、手の平を横断する方向、ユーザの親指が到達する側を正の方向とする)とし、正面側(デバイス本体210を手に固定して手の平を見たとき、手前となる側)と背面側とを結ぶ方向(奥行き方向)をY軸、左右方向(デバイス本体210を手に固定して手を開いた(指を伸ばした)とき、手首側から指先側へ向かう方向)をX軸とする(図1)。
デバイス本体210は、ユーザの左手に装着されるものと、右手に装着されるものとで、それぞれの形状が互いに同一となっていてよい。本実施の形態の例では、固定具220は可撓性あるベルトを環状としたものであり、この固定具220にユーザの人差指、中指、薬指、及び小指までを通し、デバイス本体210をユーザの親指の付根(人差指、中指、薬指、及び小指のMP関節に相当する位置)に当接させた位置に固定して用いる。
またこのコントローラデバイス20の大きさは、ユーザが自然にデバイス本体210を把持したときに、その一方端がユーザの親指の先端が到達する位置よりやや外側に位置し、その他方端が、小指の付け根(MP関節に相当する位置)からやや突出する位置にある程度の大きさとする。なおコントローラデバイス20は、コントローラデバイス20を装着した状態でユーザが手を開いても、固定具220によりユーザの手に固定されるので、落下することはない。
デバイス本体210は、ユーザにより把持される把持部211と、操作部212と、位置提示部213とを含む。把持部211は、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図1の例では、ユーザの親指で操作可能な複数のボタンを備えたボタン操作部231を含む。このボタン操作部232は、当該ボタンに対するユーザの押下操作があったときに、押下操作がされたボタンを特定する情報を出力する。
またこのデバイス本体210の側面側(デバイス本体210の背面をユーザの手の平に当接させたときに指側に向いた面)には、人差指、中指、薬指、及び小指のうち、一部の指に対応して指位置センサ241が設けられる。また当該デバイス本体210の側面側には、対応する指位置センサ241が設けられていない指に対応して、指距離センサ242が設けられていてもよい。これら指位置センサ241や指距離センサ242については後に述べる。
さらに、ボタン操作部231にも、親指に対応して指位置センサ241または指距離センサ242のいずれかが設けられていてもよい。
位置提示部213は、デバイス本体210の上側(ユーザの手に固定した際の親指側)背面に配され、例えばLED等の発光素子を少なくとも一つ含んで構成される。この位置提示部213は、コントローラデバイス20の動作中はコントローラデバイス20ごとに固有の、予め指定された色の光を発光するものとする。またこの位置提示部213は、コントローラデバイス20ごとに固有な色のマーカー等、各コントローラデバイス20の位置をそれぞれ外部から検出できればよく、必ずしも発光素子でなくてもよい。
本実施の形態の一例において、指位置センサ241及び指距離センサ242は光学センサであり、デバイス本体210の側面側(デバイス本体210の背面をユーザの手の平に当接させたときに指側に向いた面)に設けられた指位置センサ241または指距離センサ242は、ユーザがデバイス本体210を握ったときに、対応する指の基節骨に対応する位置が指位置センサ241または指距離センサ242に接する位置に配される。
また、ボタン操作部231に設けられた指位置センサ241または指距離センサ242は、ユーザがボタン操作部231のボタンに指をかけたときに、親指の基節骨に対応する部分が最も近接する位置に配される。
指位置センサ241は、指位置センサ241の表面の法線方向を中心とし、当該中心に向かって左側から右側までの比較的広角の角度範囲を検出可能範囲として、この検出可能範囲において対応する指の位置を検出し、当該検出結果の情報を出力する。この指位置センサ241は例えば、カメラや、光学センサ等の光学的センサに限られず、指の位置が検出できればどのようなものでも構わない。
一例として、ユーザの右手に固定されたコントローラデバイス20において、人差指に対応して指位置センサ241として、デプスカメラ(赤外光を検出可能範囲に投射し、検出可能範囲内の赤外光の反射像を撮像するカメラ)を設けた場合の動作について述べる。この例では、指位置センサ241は、上記検出可能範囲を画角とする画像データを撮像して得る。
この例において、図3(a)に例示するようにユーザが右手の人差指を曲げた状態とすると、指位置センサ241としてのデプスカメラは、図3(b)に示すように、対応する指の指先が全体的に撮像された画像データを撮像することとなる。なお、図3では、図3(a)に例示するように、指の曲げ伸ばし時に指先が移動する方向、すなわちデバイス本体210の長手方向に直交する面内の角度方向をθ軸とし、指間を開けたり閉じたりするときに指先が移動する方向、つまりデバイス本体210の長手方向に平行な面内の角度方向をφ軸とする。
また、図3(c)に例示するように、ユーザが指間を開いて、人差指を伸ばした状態としたときには、この指位置センサ241が撮像する画像データには、図3(d)に例示するように、θ軸方向にはやや右寄り(指側寄り)に、中央へ向かうほどφ軸上方(ボタン操作部231側)かつ遠方(赤外光が弱い状態)に伸びる像(当該方向に指先の方向がある像)として人差指が撮像される。
さらに図3(e)に例示するように、ユーザが指間を閉じて、人差指を伸ばした状態としたときには、この指位置センサ241が撮像する画像データには、図3(f)に例示するように、θ軸方向にやや右寄り(指側寄り)に、このθ軸に平行に、中央へ向かうほど遠方(赤外光が弱い状態)に伸びる像(当該方向に指先の方向がある像)として人差指が撮像される。なお、図3(c)から(f)に例示した状態では、中指の一部も撮像される。
本実施の形態の一例では、指位置センサ241は、これら撮像された画像データそのものを検出結果として出力してもよいし、所定の距離を下回る位置にある対象物の像の重心位置P(Pθ,Pφ)と、当該対象物までの距離の平均や分散等の値を、検出結果として出力してもよい。
この指位置センサ241が、本発明の指先の方向を検出する指位置センサに相当する。
また指距離センサ242は、赤外光を放射する発光部と、赤外光を検出する受光部とを有し、発光部から放射された光が対象物に反射して受光部に入射する割合を測定することで、赤外光の放射方向にある障害物までの距離を検出する。具体的にここでは指距離センサ242は、対応する指(のあるべき方向の障害物)までの距離を検出する。そして指距離センサ242は、当該検出した距離の情報を、検出結果の情報として出力する。
この例では、ユーザがデバイス本体210を手に固定し、人差指、中指、薬指、及び小指を伸ばした状態からデバイス本体210を握り込む形まで手を動かすとき、指距離センサ242は、対応する指が伸ばされた状態では、当該指の先端の方向にある対象物(例えばユーザが指を下方に向けて伸ばした状態であれば床面等)までの距離を検出することとなる。この距離は指を検出したときの距離に比べ十分大きい値となるため、以下の例ではこの値を「∞」と表す。
また、ユーザの指が曲げられると、曲げられた対応する指の第2関節または第3関節の表面までの距離が検出され、ユーザがデバイス本体210を握り込んだ状態では、指距離センサ242に対応する指の表面が接するため、この指距離センサ242が検出する距離は「0」となる。つまり、この指距離センサ242は指の屈伸状態を検出するセンサとして機能する。もっとも指の屈伸状態を検出する指距離センサ242としては、各指の屈伸(曲げているか伸ばしているか)の状態を検出できれば、ここで説明したような光学的なセンサに限られるものではない。
また制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態ではこの制御部21は、操作インタフェース23からユーザが操作部212においてした操作の内容を表す情報の入力を受け、当該情報を、通信部25を介して情報処理装置1へ出力する。またこの制御部21は、センサ部24に含まれるセンサが出力する情報を、通信部25を介して情報処理装置1へ出力する。
記憶部22は、メモリデバイス等であり、制御部21によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部22に複写されたものであってもよいし、ネットワーク等の通信手段を介して提供され、この記憶部22に格納されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作する。
操作インタフェース23は、操作部212にてユーザが行った操作の内容を表す情報を制御部21に出力する。センサ部24は、少なくとも一つのセンサを含み、当該センサが出力する情報を制御部21に出力する。本実施の形態の一例では、このセンサ部24は、既に説明した指位置センサ241や指距離センサ242のほか、コントローラデバイス20のデバイス本体210の傾きを検出する傾きセンサ243や加速度センサ244を含んでもよい。
ここで傾きセンサ243は、デバイス本体210の長手方向のZ軸の重力の向きに対する角度の情報を検出し、デバイス本体210のZ軸の水平面からの仰俯角φの情報を演算して得る。また、この傾きセンサ243は、Z軸まわりの回転角θの情報も検出し、このZ軸まわりの回転角θと、Z軸の水平面からの仰俯角φとを含む検出結果情報を出力する。加速度センサ244は、コントローラデバイス20のX,Y,Z軸方向の加速度を検出して、その検出結果を表す検出結果情報を出力する。またこの加速度センサ244は、コントローラデバイス20を装着している手(指を含む)が他の物体(もう一方の手や他人の手、壁など)に当たり、衝撃(加速度の時間変化を調べるとき、加速度がパルス状に大きくなる)が生じたときに、当該衝撃を検出して、衝撃を検出した旨の検出結果情報を出力する。
通信部25は、USBインタフェース等の有線インタフェースや、ブルートゥース(登録商標)等の無線インタフェースであり、制御部21から入力される指示に従い、種々の情報を情報処理装置1に対して出力している。
情報処理装置1は、図4に例示するように、制御部11と、記憶部12と、インタフェース部13と、撮像部14と、出力部15とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。
本実施の形態では制御部11は、コントローラデバイス20から指位置センサ241による、一部の指の隣接する指との間の角度の検出結果や、指距離センサ242の検出結果等を受け入れる。また制御部11は、当該受け入れた検出結果に基づいて、ユーザの手の各指間の角度を推定し、この推定されたユーザの手の各指間の角度の情報を、所定の処理に供する。この制御部11の詳しい動作については後に述べる。
記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また、ネットワーク等の通信手段を介して提供され、この記憶部12に格納されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
インタフェース部13は、コントローラデバイス20に無線又は有線にて接続され、コントローラデバイス20からユーザの操作の内容を表す情報や、指位置センサ241において検出した情報や指距離センサ242が検出した情報を受け入れ、制御部11に出力する。
撮像部14は、ユーザの位置する範囲を撮像範囲として設置されたカメラ等であり、ユーザを含む画像を所定のタイミングごとに繰り返して撮像し、当該画像のデータを制御部11に出力する。出力部15は、例えばHDMI(登録商標)インタフェース等、家庭用テレビジョンに対して映像等を出力するインタフェースを有する。この出力部15は、制御部11から入力される指示に従い、表示するべき映像の情報を出力する。
次に本実施の形態の制御部11の動作について説明する。本実施の形態の制御部11は、機能的には図5に例示するように、受入部111と、角度取得部112と、推定部113と、処理実行部114とを含む。
ここで受入部111は、コントローラデバイス20から所定のタイミングごと(例えば一定の時間が経過するごと)に、指位置センサ241や指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を受け入れる。またこの受入部111は、コントローラデバイス20が衝撃を検出したときに、衝撃を検出した旨の情報を受け入れる。
角度取得部112は、受入部111が受け入れた、人差指、中指、薬指、及び小指のいずれかに対応して設けられた指位置センサ241の検出結果の情報に基づいて、当該指位置センサ241に対応する指と、当該指に隣接する指との間の角度の情報を取得する。具体的に、指位置センサ241がデプスカメラであり、撮像して得た画像データそのものを検出結果として出力している場合、この角度取得部112は、当該撮像された像に基づき、所定の距離を下回る位置にある対象物の像の重心位置Pを求める。そして角度取得部112は、指位置センサ241の検出結果情報である画像データ(θminからθmax、φminからφmaxまでの画角の画像データ)において、(θmax,(φmin+φmax)/2)またはθmaxの一列の画素のうち、指が撮像されている画素の位置の平均あるいは重心の位置を起点Qとする。角度取得部112はこの起点Qと先に求めた重心位置Pとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する指と、当該指に隣接する指との間の角度の情報として出力する。
また、コントローラデバイス20が、指位置センサ241の出力に基づいて所定の距離を下回る位置にある対象物の像の重心位置Pと、当該対象物までの距離の平均や分散等の値を、検出結果として出力している場合は、角度取得部112は、撮像される画像データの画角の情報(θminからθmax、φminからφmaxまで)を用い、(θmax,(φmin+φmax)/2)の位置を起点Qとする。そして角度取得部112はこの起点Qと入力された重心位置Pとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する指と、当該指に隣接する指との間の角度の情報として出力する。
なお、既に述べたように、ユーザが指を伸ばしている状態では、指の像は指のある側(右手に装着されているコントローラデバイス20において撮像される像ではθ方向であって、θの値が大きい側、左手に装着されているコントローラデバイス20において撮像される像ではθ方向であって、θの値が小さい側)に撮像される。そこで、角度取得部112は、重心Pの位置(Pθ,Pφ)のうち、Pθと(θmin+θmax)/2との差が予め定めたしきい値を下回る(重心Pの位置が比較的手のひらと反対側に位置している)ときには、指先のみが撮像されているものとして、角度を「不明」としてもよい。また角度取得部112は、この例に限らず、撮像された指の像の面積が予め定めたしきい値以上である場合など、指先のみが撮像されているものと判断できる場合は、角度を「不明」としてもよい。
推定部113は、角度取得部112が求めた角度の値ξに基づいて、ユーザの手の各指間の角度を推定する。具体的にこの推定部113は、角度取得部112が出力する情報が「不明」である場合は、角度に関する情報を出力しない。
一方、角度取得部112が出力する角度の値が、「不明」ではない場合(値ξである場合)は、推定部113は、当該角度の値ξを、人差指と中指との間の角度、中指と薬指との間の角度、薬指と小指との間の角度を表す情報として出力する。
すなわち本実施の形態のある例では、この推定部113は、人差指、中指、薬指、及び小指のいずれかの指と、それに隣接する指とがなす角度に関する情報を用い、当該情報をもって、人差指、中指、薬指、及び小指の他の指と、当該他の指に隣接する指とがなす角度であると推定する。
処理実行部114は、ここで推定されたユーザの手の各指間の角度の情報を、所定の処理に供する。一例として、この処理実行部114は、ユーザが指を揃えて伸ばしている(図3(e))のか、指を開いて伸ばしている(図3(c))のかを判別する。そして処理実行部114は、ゲームの処理において、指を揃えて伸ばしていると判断したときと、指を開いて伸ばしていると判断したときとで、ユーザが制御しているキャラクタの動作を異ならせる。
[動作]
本実施の形態の情報処理システムは、基本的に以上の構成を備えており、次のように動作する。以下の例では、コントローラデバイス20には、人差指に対応する指位置センサ241としてのデプスカメラが設けられ、指位置センサ241が設けられていない中指、薬指、及び小指のそれぞれに対応して、指距離センサ242が設けられているものとする。
本実施の形態の情報処理システムは、基本的に以上の構成を備えており、次のように動作する。以下の例では、コントローラデバイス20には、人差指に対応する指位置センサ241としてのデプスカメラが設けられ、指位置センサ241が設けられていない中指、薬指、及び小指のそれぞれに対応して、指距離センサ242が設けられているものとする。
ユーザが、コントローラデバイス20を左右の手にそれぞれ固定して、コントローラデバイス20と情報処理装置1とを起動すると、人差指に対応する指位置センサ241が所定のタイミングごと(例えば一定の時間が経過するごと)に所定の検出可能範囲内の画像データを撮像する。
ここでユーザが、例えば右手の人差指、中指、薬指、及び小指を揃えて伸ばした状態(図3(e))とすると、指位置センサ241が図3(f)に例示した画像データを撮像する。コントローラデバイス20はこの撮像した画像データから、指位置センサ241の出力に基づいて所定の距離を下回る位置にある(画素値の輝度がしきい値を超える範囲にある)対象物の像の重心位置Pと、当該対象物までの距離の平均や分散等の値を求める。
そしてコントローラデバイス20は、当該求めた重心位置Pと、当該対象物までの距離の平均や分散等の値を指位置センサ241の検出結果として出力する。またコントローラデバイス20は、指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を出力する。
情報処理装置1は、図6に例示するように、コントローラデバイス20から所定のタイミングごとに、指位置センサ241や指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を受け入れる(S1)。
なお、情報処理装置1は、コントローラデバイス20の指位置センサ241にて撮像される画像データの画角の情報(θminからθmax、φminからφmaxまで)を用い、(θmax,(φmin+φmax)/2)の位置を起点Qとして求めておく。
情報処理装置1は、コントローラデバイス20から受信した、対象物の像の重心位置Pの座標(Pθ,Pφ)と、起点Qとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する人差指と、当該人差指に隣接する中指との間の角度の値とする(S2)。
ここでは図3(f)に例示したP,Qを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξはほぼ0度となる。
情報処理装置1は、ここで求めた人差指と中指との間の角度の値ξを用い、中指と薬指との間の角度、及び薬指と小指との間の角度もこの値ξ(ここでは0度)であると推定する(S3)。
そして情報処理装置1は、処理S3で推定した値に基づいて、ユーザの右手において指が揃えて伸ばされた状態であるとした処理を実行する(S4)。情報処理装置1は、この処理S1からS4を繰り返し実行する。
次にユーザが、例えば右手の人差指、中指、薬指、及び小指を伸ばした状態で、各指間を開くと(図3(c)の状態とすると)、指位置センサ241が図3(d)に例示した画像データを撮像する。コントローラデバイス20はこの撮像した画像データから、指位置センサ241の出力に基づいて所定の距離を下回る位置にある(画素値の輝度がしきい値を超える範囲にある)対象物の像の重心位置Pと、当該対象物までの距離の平均や分散等の値を求める。
そしてコントローラデバイス20は、当該求めた重心位置Pと、当該対象物までの距離の平均や分散等の値を指位置センサ241の検出結果として出力する。またコントローラデバイス20は、指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を出力する。
このときには情報処理装置1は、図6に例示した処理S1にて、コントローラデバイス20から指位置センサ241や指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を受け入れると、処理S2にて、当該コントローラデバイス20から受信した、対象物の像の重心位置Pの座標(Pθ,Pφ)と、予め求めておいた起点Qとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する人差指と、当該人差指に隣接する中指との間の角度の値とする。
ここでは図3(d)に例示したP,Qを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξは0より大きく、例えば15度となる。
情報処理装置1は、処理S3にて、ここで求めた人差指と中指との間の角度の値ξを用い、中指と薬指との間の角度、及び薬指と小指との間の角度もこの値ξ(ここでは15度)であると推定する。
そして情報処理装置1は、処理S4において、処理S3で推定した値に基づいて、ユーザの右手において指を開いて伸ばされた状態であるとした処理を実行する。
[中指、薬指における別の例]
なお、一般に人間の指では、人差指や小指に比べ、中指や薬指の可動範囲が狭くなっている。このため、上述の処理により中指または薬指の指先の方向(隣接する指との間の角度ξ)を推定すると、推定した値が実際の値より小さくなることがある。
なお、一般に人間の指では、人差指や小指に比べ、中指や薬指の可動範囲が狭くなっている。このため、上述の処理により中指または薬指の指先の方向(隣接する指との間の角度ξ)を推定すると、推定した値が実際の値より小さくなることがある。
そこで本実施の形態の一例では、情報処理装置1は、中指または薬指に対応する指位置センサ241の検出結果に基づいて演算した角度ξについては、そのまま隣接する指との間の角度とせず、予め定められた補正値(1を超える正の値)αを乗じて、対応する指と当該指に隣接する指との間の角度をα×ξと推定する。
この場合、情報処理装置1は、他の指間(人差指と中指との間、薬指と小指との間など)の角度も、この推定された角度α×ξと推定する。なお、補正値αは、指間ごと(人差指と中指との間、中指と小指との間、薬指と小指との間のそれぞれ)に異なって設定されてもよい。
[指距離センサの情報を用いる例]
また本実施の形態では、指距離センサ242の検出結果の情報を併せて用い、ユーザの手のポーズを推定することとしてもよい。この例では、推定部113は、角度取得部112が出力する角度の値ξと、受入部111が受け入れた指距離センサ242の検出結果の情報とを用いて、次のようにユーザの手のポーズを推定する。
また本実施の形態では、指距離センサ242の検出結果の情報を併せて用い、ユーザの手のポーズを推定することとしてもよい。この例では、推定部113は、角度取得部112が出力する角度の値ξと、受入部111が受け入れた指距離センサ242の検出結果の情報とを用いて、次のようにユーザの手のポーズを推定する。
以下では一例として、指位置センサ241が人差指に対応して設けられ、指距離センサ242が中指、薬指、及び小指に対応して設けられているものとする。このとき、ユーザが図7(a)に例示するように、指間を開いた状態で人差指、中指、薬指、及び小指の指を伸ばしているときには、角度の値ξは「0」より大きい値(例えば15度)となる。また中指、薬指、及び小指に対応する指距離センサ242は、指を検出できず、指先の方向にある床や壁等までの距離(既に述べたように指を検出した場合に比べ十分大きいので、この値を便宜的に「∞」と表す)を検出する(図7(b))。
情報処理装置1の制御部11の推定部113は、この場合は、すべての指が伸びている状態で、人差指と中指との間の角度がξであるとして、当該角度の値ξを、人差指と中指との間の角度、中指と薬指との間の角度、薬指と小指との間の角度を表す情報として出力する。
一方、ユーザが図7(c)に例示するように、人差指と中指とを開いた状態で伸ばし、薬指と小指とを曲げている(つまり、じゃんけんにおけるチョキの状態としている)と、角度の値ξは「0」より大きい値(例えば15度)となり、また薬指と小指に対応する指距離センサ242は、コントローラデバイス20に接触した指を検出するので、薬指と小指までの距離として「0」を検出する(図7(d))。
このときには、制御部11の推定部113は、人差指と中指との間の角度をξとし、中指と薬指との間の角度、薬指と小指との間の角度を表す情報を「不定」とする。
さらに、ユーザが図7(e)に例示するように、人差指と中指とを揃えた状態で伸ばし、薬指と小指を曲げていると、角度の値ξは「0」となり、また薬指と小指に対応する指距離センサ242は、コントローラデバイス20に接触した指を検出するので、薬指と小指までの距離として「0」を検出する(図7(f))。
このときには、制御部11の推定部113は、人差指と中指との間の角度をξ=0とし、中指と薬指との間の角度、薬指と小指との間の角度を表す情報を「不定」とする。
以上に説明したように、本実施の形態では、人差指と中指との間を開いたときには、他の指間が開かれた状態となり、人差指と中指との間を閉じた(人差指と中指とを揃えた)ときには、他の指も揃えた状態となることが自然な姿勢であることに着目し、中指と薬指、薬指と小指間の角度が、人差指と中指との間の角度ξに実質的に等しいと推定する。このため、本実施の形態によれば、人差指、中指、薬指、及び小指の一部の指について、隣接する指との角度を検出するセンサを設けることで、他の指間の角度を検出するセンサを省くことができ、コストの増大を抑制できる。
[変形例]
また本実施の形態のここまでの説明では、受入部111と、角度取得部112と、推定部113としての処理を、情報処理装置1の制御部11によって行うこととしていたが、本実施の形態はこれに限られない。
また本実施の形態のここまでの説明では、受入部111と、角度取得部112と、推定部113としての処理を、情報処理装置1の制御部11によって行うこととしていたが、本実施の形態はこれに限られない。
すなわち本実施の形態の一例では、コントローラデバイス20の制御部21において、指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得し、当該取得の結果に基づいて、ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定して、当該推定したユーザの手の各指間の角度の情報を、情報処理装置1に送出して、所定の処理に供させることとしてもよい。
この場合、中指または薬指に対応する指位置センサ241の検出結果に基づいて演算した角度ξについて、そのまま隣接する指との間の角度とせず、予め定められた補正値(1を超える正の値)αを乗じて、対応する指と当該指に隣接する指との間の角度をα×ξと推定する処理も、制御部21にて行うこととしてもよい。
さらに、指距離センサ242の検出結果の情報を併せて用い、ユーザの手のポーズを推定する処理についても、制御部21にて行ってもよい。
1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 撮像部、15 出力部、20 コントローラデバイス、21 制御部、22 記憶部、23 操作インタフェース、24 センサ部、25 通信部、111 受入部、112 角度取得部、113 推定部、114 処理実行部、210 デバイス本体、211 把持部、212 操作部、213 位置提示部、220 固定具、231 ボタン操作部、241 指位置センサ、242 指距離センサ、243 傾きセンサ、244 加速度センサ。
Claims (6)
- ユーザの手に固定されるデバイスを含む情報処理システムであって、
ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサと、
前記指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、を含み、
前記推定されたユーザの前記手の各指間の角度の情報が、所定の処理に供される情報処理システム。 - ユーザの手に固定されるデバイスに接続される情報処理装置であって、
前記デバイスは、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含み、
前記情報処理装置は、
前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、を含み、
前記情報処理装置は、推定されたユーザの前記手の各指間の角度の情報を、所定の処理に供する情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記指位置センサは、人差指の指先の方向を検出する指位置センサであり、
前記情報処理装置の取得手段は、前記デバイスから受け入れた、前記指位置センサが検出した人差指の指先の方向に基づいて、当該人差指と、当該人差指に隣接する中指との間の角度の情報を取得し、
前記推定手段は、当該取得の結果に基づいて、ユーザの前記ユーザの手の中指と薬指、及び薬指と小指の各指間の角度を推定する情報処理装置。 - ユーザの手に固定され、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含むデバイスに接続されたコンピュータを用い、
取得手段が、前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する工程と、
推定手段が、当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する工程と、
を含む制御方法。 - ユーザの手に固定され、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含むデバイスに接続されたコンピュータを、
前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、として機能させるプログラム。 - ユーザの手に固定され、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含むデバイスに接続されたコンピュータを、
前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、として機能させるプログラムを格納した、コンピュータ可読な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016212080 | 2016-10-28 | ||
JP2016212080 | 2016-10-28 | ||
PCT/JP2017/037733 WO2018079384A1 (ja) | 2016-10-28 | 2017-10-18 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018079384A1 JPWO2018079384A1 (ja) | 2019-03-07 |
JP6661783B2 true JP6661783B2 (ja) | 2020-03-11 |
Family
ID=62023583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018547604A Active JP6661783B2 (ja) | 2016-10-28 | 2017-10-18 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10792561B2 (ja) |
JP (1) | JP6661783B2 (ja) |
WO (1) | WO2018079384A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022014445A1 (ja) | 2020-07-14 | 2022-01-20 | ||
US11320896B2 (en) * | 2020-08-03 | 2022-05-03 | Facebook Technologies, Llc. | Systems and methods for object tracking using fused data |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6701296B1 (en) * | 1988-10-14 | 2004-03-02 | James F. Kramer | Strain-sensing goniometers, systems, and recognition algorithms |
JP2000132305A (ja) | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
JP5172334B2 (ja) * | 2004-06-17 | 2013-03-27 | アドレア エルエルシー | タッチスクリーン上の2本指入力の使用 |
JP4789087B2 (ja) | 2005-03-30 | 2011-10-05 | 長崎県 | 動作検出装置および手話動作検出システム |
US9477310B2 (en) * | 2006-07-16 | 2016-10-25 | Ibrahim Farid Cherradi El Fadili | Free fingers typing technology |
US10234941B2 (en) * | 2012-10-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Wearable sensor for tracking articulated body-parts |
JP6095478B2 (ja) * | 2013-05-16 | 2017-03-15 | スタンレー電気株式会社 | 入力操作装置 |
CN106575164B (zh) | 2014-09-10 | 2020-10-09 | 索尼公司 | 检测装置、检测方法、控制装置和控制方法 |
US10289192B2 (en) * | 2015-03-01 | 2019-05-14 | Tactical Haptics | Embedded grasp sensing devices, systems, and methods |
US11857869B2 (en) * | 2015-12-31 | 2024-01-02 | Meta Platforms Technologies, Llc | Handheld controller with hand detection sensors |
US10391400B1 (en) * | 2016-10-11 | 2019-08-27 | Valve Corporation | Electronic controller with hand retainer and finger motion sensing |
US10307669B2 (en) * | 2016-10-11 | 2019-06-04 | Valve Corporation | Electronic controller with finger sensing and an adjustable hand retainer |
-
2017
- 2017-10-18 WO PCT/JP2017/037733 patent/WO2018079384A1/ja active Application Filing
- 2017-10-18 US US16/341,628 patent/US10792561B2/en active Active
- 2017-10-18 JP JP2018547604A patent/JP6661783B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018079384A1 (ja) | 2018-05-03 |
JPWO2018079384A1 (ja) | 2019-03-07 |
US10792561B2 (en) | 2020-10-06 |
US20190358526A1 (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10969867B2 (en) | Information processing system, controller device, controller device control method and program | |
JP7057389B2 (ja) | 情報処理装置、制御方法、プログラム、及び記憶媒体 | |
US11813518B2 (en) | Information processing system, controller apparatus, information processing apparatus, and program | |
JP5967995B2 (ja) | 情報処理システム、情報処理装置、情報処理プログラム、および判別方法 | |
JP5875069B2 (ja) | ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム | |
JP6716028B2 (ja) | 制御装置、情報処理システム、制御方法、及びプログラム | |
JPWO2019077652A1 (ja) | 情報処理システム、コントローラデバイス、及び情報処理装置 | |
JP6661783B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
TWI788607B (zh) | 人機交互系統和人機交互方法 | |
US10948978B2 (en) | Virtual object operating system and virtual object operating method | |
JP6687749B2 (ja) | 情報処理装置、制御方法、プログラム、及び記録媒体 | |
US11400363B2 (en) | Information processing apparatus, information processing system, controller device, information processing method, and program | |
US11353959B2 (en) | Controller device | |
TWI730535B (zh) | 虛擬物件操作系統及虛擬物件操作方法 | |
TWI748299B (zh) | 動作感測資料產生方法和動作感測資料產生系統 | |
CN117133045A (zh) | 手势识别方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6661783 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |