JPWO2018079384A1 - 情報処理システム、情報処理装置、制御方法、及びプログラム - Google Patents

情報処理システム、情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JPWO2018079384A1
JPWO2018079384A1 JP2018547604A JP2018547604A JPWO2018079384A1 JP WO2018079384 A1 JPWO2018079384 A1 JP WO2018079384A1 JP 2018547604 A JP2018547604 A JP 2018547604A JP 2018547604 A JP2018547604 A JP 2018547604A JP WO2018079384 A1 JPWO2018079384 A1 JP WO2018079384A1
Authority
JP
Japan
Prior art keywords
finger
angle
user
hand
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018547604A
Other languages
English (en)
Other versions
JP6661783B2 (ja
Inventor
洋一 西牧
洋一 西牧
泰史 奥村
泰史 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2018079384A1 publication Critical patent/JPWO2018079384A1/ja
Application granted granted Critical
Publication of JP6661783B2 publication Critical patent/JP6661783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0447Position sensing using the local deformation of sensor cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads

Abstract

ユーザの手に固定され、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含むデバイスに接続され、このデバイスから受け入れた、指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得し、当該取得の結果に基づいて、ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する。

Description

本発明は、情報処理システム、情報処理装置、制御方法、及びプログラムに関する。
家庭用ゲーム機等の情報処理装置において、仮想空間内のキャラクタの動作等を制御するためのコントローラが広く用いられている。近年では、ユーザの各指の曲げ伸ばし動作や、指の間の角度を変化させる動作(指同士を互いに平行にしたり、指の間を開いたりする動作)を検出して、キャラクタの動作を制御することも考えられている。
しかしながらユーザの各指の曲げ伸ばし動作や指の角度を変化させる動作を検出することとすると、指ごとにこれらの動作を検出するセンサを設ける必要があり、コストが増大する。
本発明は上記実情に鑑みて為されたもので、コストの増大を抑制できる情報処理システム、情報処理装置、制御方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、ユーザの手に固定されるデバイスに接続される情報処理装置であって、前記デバイスは、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含み、前記情報処理装置は、前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、を含み、前記情報処理装置は、推定されたユーザの前記手の各指間の角度の情報を、所定の処理に供することとしたものである。
本発明によると、コストの増大を抑制できる。
本発明の実施の形態の情報処理装置に接続されるコントローラデバイスの例を表す概略斜視図である。 本発明の実施の形態の情報処理装置に接続されるコントローラデバイスの構成例を表すブロック図である。 本発明の実施の形態の情報処理装置の処理の内容例を表す説明図である。 本発明の実施の形態の情報処理装置の構成例を表すブロック図である。 本発明の実施の形態の情報処理装置の例を表す機能ブロック図である。 本発明の実施の形態の情報処理装置の動作例を表すフローチャート図である。 本発明の実施の形態の情報処理装置のもう一つの処理の内容例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
本発明の実施の形態に係る情報処理装置1は、例えば家庭用ゲーム機等のコンピュータ機器であり、この情報処理装置1にはコントローラデバイス20が接続される。
コントローラデバイス20は、ユーザの左手または右手に装着されて固定される。以下の説明において、ユーザの左手に固定されるコントローラデバイス20と、右手に固定されるコントローラデバイス20とを区別する必要がある場合は、ユーザの左手に固定されるコントローラデバイス20をコントローラデバイス20L、ユーザの右手に固定されるコントローラデバイス20をコントローラデバイス20RとそれぞれL,Rの符号を付して区別する。
このコントローラデバイス20の一例は、図1にその概要を例示するように、デバイス本体210と、このデバイス本体210に固定された固定具220とを含んで構成される。また、このコントローラデバイス20は、デバイス本体210内に、図2に示すように、制御部21と、記憶部22と、操作インタフェース23と、センサ部24と、通信部25とを含んだ回路部を備えて構成される。
以下の説明において、デバイス本体210の長手方向をZ軸(デバイス本体210を手に固定したとき、手の平を横断する方向、ユーザの親指が到達する側を正の方向とする)とし、正面側(デバイス本体210を手に固定して手の平を見たとき、手前となる側)と背面側とを結ぶ方向(奥行き方向)をY軸、左右方向(デバイス本体210を手に固定して手を開いた(指を伸ばした)とき、手首側から指先側へ向かう方向)をX軸とする(図1)。
デバイス本体210は、ユーザの左手に装着されるものと、右手に装着されるものとで、それぞれの形状が互いに同一となっていてよい。本実施の形態の例では、固定具220は可撓性あるベルトを環状としたものであり、この固定具220にユーザの人差指、中指、薬指、及び小指までを通し、デバイス本体210をユーザの親指の付根(人差指、中指、薬指、及び小指のMP関節に相当する位置)に当接させた位置に固定して用いる。
またこのコントローラデバイス20の大きさは、ユーザが自然にデバイス本体210を把持したときに、その一方端がユーザの親指の先端が到達する位置よりやや外側に位置し、その他方端が、小指の付け根(MP関節に相当する位置)からやや突出する位置にある程度の大きさとする。なおコントローラデバイス20は、コントローラデバイス20を装着した状態でユーザが手を開いても、固定具220によりユーザの手に固定されるので、落下することはない。
デバイス本体210は、ユーザにより把持される把持部211と、操作部212と、位置提示部213とを含む。把持部211は、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図1の例では、ユーザの親指で操作可能な複数のボタンを備えたボタン操作部231を含む。このボタン操作部232は、当該ボタンに対するユーザの押下操作があったときに、押下操作がされたボタンを特定する情報を出力する。
またこのデバイス本体210の側面側(デバイス本体210の背面をユーザの手の平に当接させたときに指側に向いた面)には、人差指、中指、薬指、及び小指のうち、一部の指に対応して指位置センサ241が設けられる。また当該デバイス本体210の側面側には、対応する指位置センサ241が設けられていない指に対応して、指距離センサ242が設けられていてもよい。これら指位置センサ241や指距離センサ242については後に述べる。
さらに、ボタン操作部231にも、親指に対応して指位置センサ241または指距離センサ242のいずれかが設けられていてもよい。
位置提示部213は、デバイス本体210の上側(ユーザの手に固定した際の親指側)背面に配され、例えばLED等の発光素子を少なくとも一つ含んで構成される。この位置提示部213は、コントローラデバイス20の動作中はコントローラデバイス20ごとに固有の、予め指定された色の光を発光するものとする。またこの位置提示部213は、コントローラデバイス20ごとに固有な色のマーカー等、各コントローラデバイス20の位置をそれぞれ外部から検出できればよく、必ずしも発光素子でなくてもよい。
本実施の形態の一例において、指位置センサ241及び指距離センサ242は光学センサであり、デバイス本体210の側面側(デバイス本体210の背面をユーザの手の平に当接させたときに指側に向いた面)に設けられた指位置センサ241または指距離センサ242は、ユーザがデバイス本体210を握ったときに、対応する指の基節骨に対応する位置が指位置センサ241または指距離センサ242に接する位置に配される。
また、ボタン操作部231に設けられた指位置センサ241または指距離センサ242は、ユーザがボタン操作部231のボタンに指をかけたときに、親指の基節骨に対応する部分が最も近接する位置に配される。
指位置センサ241は、指位置センサ241の表面の法線方向を中心とし、当該中心に向かって左側から右側までの比較的広角の角度範囲を検出可能範囲として、この検出可能範囲において対応する指の位置を検出し、当該検出結果の情報を出力する。この指位置センサ241は例えば、カメラや、光学センサ等の光学的センサに限られず、指の位置が検出できればどのようなものでも構わない。
一例として、ユーザの右手に固定されたコントローラデバイス20において、人差指に対応して指位置センサ241として、デプスカメラ(赤外光を検出可能範囲に投射し、検出可能範囲内の赤外光の反射像を撮像するカメラ)を設けた場合の動作について述べる。この例では、指位置センサ241は、上記検出可能範囲を画角とする画像データを撮像して得る。
この例において、図3(a)に例示するようにユーザが右手の人差指を曲げた状態とすると、指位置センサ241としてのデプスカメラは、図3(b)に示すように、対応する指の指先が全体的に撮像された画像データを撮像することとなる。なお、図3では、図3(a)に例示するように、指の曲げ伸ばし時に指先が移動する方向、すなわちデバイス本体210の長手方向に直交する面内の角度方向をθ軸とし、指間を開けたり閉じたりするときに指先が移動する方向、つまりデバイス本体210の長手方向に平行な面内の角度方向をφ軸とする。
また、図3(c)に例示するように、ユーザが指間を開いて、人差指を伸ばした状態としたときには、この指位置センサ241が撮像する画像データには、図3(d)に例示するように、θ軸方向にはやや右寄り(指側寄り)に、中央へ向かうほどφ軸上方(ボタン操作部231側)かつ遠方(赤外光が弱い状態)に伸びる像(当該方向に指先の方向がある像)として人差指が撮像される。
さらに図3(e)に例示するように、ユーザが指間を閉じて、人差指を伸ばした状態としたときには、この指位置センサ241が撮像する画像データには、図3(f)に例示するように、θ軸方向にやや右寄り(指側寄り)に、このθ軸に平行に、中央へ向かうほど遠方(赤外光が弱い状態)に伸びる像(当該方向に指先の方向がある像)として人差指が撮像される。なお、図3(c)から(f)に例示した状態では、中指の一部も撮像される。
本実施の形態の一例では、指位置センサ241は、これら撮像された画像データそのものを検出結果として出力してもよいし、所定の距離を下回る位置にある対象物の像の重心位置P(Pθ,Pφ)と、当該対象物までの距離の平均や分散等の値を、検出結果として出力してもよい。
この指位置センサ241が、本発明の指先の方向を検出する指位置センサに相当する。
また指距離センサ242は、赤外光を放射する発光部と、赤外光を検出する受光部とを有し、発光部から放射された光が対象物に反射して受光部に入射する割合を測定することで、赤外光の放射方向にある障害物までの距離を検出する。具体的にここでは指距離センサ242は、対応する指(のあるべき方向の障害物)までの距離を検出する。そして指距離センサ242は、当該検出した距離の情報を、検出結果の情報として出力する。
この例では、ユーザがデバイス本体210を手に固定し、人差指、中指、薬指、及び小指を伸ばした状態からデバイス本体210を握り込む形まで手を動かすとき、指距離センサ242は、対応する指が伸ばされた状態では、当該指の先端の方向にある対象物(例えばユーザが指を下方に向けて伸ばした状態であれば床面等)までの距離を検出することとなる。この距離は指を検出したときの距離に比べ十分大きい値となるため、以下の例ではこの値を「∞」と表す。
また、ユーザの指が曲げられると、曲げられた対応する指の第2関節または第3関節の表面までの距離が検出され、ユーザがデバイス本体210を握り込んだ状態では、指距離センサ242に対応する指の表面が接するため、この指距離センサ242が検出する距離は「0」となる。つまり、この指距離センサ242は指の屈伸状態を検出するセンサとして機能する。もっとも指の屈伸状態を検出する指距離センサ242としては、各指の屈伸(曲げているか伸ばしているか)の状態を検出できれば、ここで説明したような光学的なセンサに限られるものではない。
また制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態ではこの制御部21は、操作インタフェース23からユーザが操作部212においてした操作の内容を表す情報の入力を受け、当該情報を、通信部25を介して情報処理装置1へ出力する。またこの制御部21は、センサ部24に含まれるセンサが出力する情報を、通信部25を介して情報処理装置1へ出力する。
記憶部22は、メモリデバイス等であり、制御部21によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部22に複写されたものであってもよいし、ネットワーク等の通信手段を介して提供され、この記憶部22に格納されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作する。
操作インタフェース23は、操作部212にてユーザが行った操作の内容を表す情報を制御部21に出力する。センサ部24は、少なくとも一つのセンサを含み、当該センサが出力する情報を制御部21に出力する。本実施の形態の一例では、このセンサ部24は、既に説明した指位置センサ241や指距離センサ242のほか、コントローラデバイス20のデバイス本体210の傾きを検出する傾きセンサ243や加速度センサ244を含んでもよい。
ここで傾きセンサ243は、デバイス本体210の長手方向のZ軸の重力の向きに対する角度の情報を検出し、デバイス本体210のZ軸の水平面からの仰俯角φの情報を演算して得る。また、この傾きセンサ243は、Z軸まわりの回転角θの情報も検出し、このZ軸まわりの回転角θと、Z軸の水平面からの仰俯角φとを含む検出結果情報を出力する。加速度センサ244は、コントローラデバイス20のX,Y,Z軸方向の加速度を検出して、その検出結果を表す検出結果情報を出力する。またこの加速度センサ244は、コントローラデバイス20を装着している手(指を含む)が他の物体(もう一方の手や他人の手、壁など)に当たり、衝撃(加速度の時間変化を調べるとき、加速度がパルス状に大きくなる)が生じたときに、当該衝撃を検出して、衝撃を検出した旨の検出結果情報を出力する。
通信部25は、USBインタフェース等の有線インタフェースや、ブルートゥース(登録商標)等の無線インタフェースであり、制御部21から入力される指示に従い、種々の情報を情報処理装置1に対して出力している。
情報処理装置1は、図4に例示するように、制御部11と、記憶部12と、インタフェース部13と、撮像部14と、出力部15とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。
本実施の形態では制御部11は、コントローラデバイス20から指位置センサ241による、一部の指の隣接する指との間の角度の検出結果や、指距離センサ242の検出結果等を受け入れる。また制御部11は、当該受け入れた検出結果に基づいて、ユーザの手の各指間の角度を推定し、この推定されたユーザの手の各指間の角度の情報を、所定の処理に供する。この制御部11の詳しい動作については後に述べる。
記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また、ネットワーク等の通信手段を介して提供され、この記憶部12に格納されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
インタフェース部13は、コントローラデバイス20に無線又は有線にて接続され、コントローラデバイス20からユーザの操作の内容を表す情報や、指位置センサ241において検出した情報や指距離センサ242が検出した情報を受け入れ、制御部11に出力する。
撮像部14は、ユーザの位置する範囲を撮像範囲として設置されたカメラ等であり、ユーザを含む画像を所定のタイミングごとに繰り返して撮像し、当該画像のデータを制御部11に出力する。出力部15は、例えばHDMI(登録商標)インタフェース等、家庭用テレビジョンに対して映像等を出力するインタフェースを有する。この出力部15は、制御部11から入力される指示に従い、表示するべき映像の情報を出力する。
次に本実施の形態の制御部11の動作について説明する。本実施の形態の制御部11は、機能的には図5に例示するように、受入部111と、角度取得部112と、推定部113と、処理実行部114とを含む。
ここで受入部111は、コントローラデバイス20から所定のタイミングごと(例えば一定の時間が経過するごと)に、指位置センサ241や指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を受け入れる。またこの受入部111は、コントローラデバイス20が衝撃を検出したときに、衝撃を検出した旨の情報を受け入れる。
角度取得部112は、受入部111が受け入れた、人差指、中指、薬指、及び小指のいずれかに対応して設けられた指位置センサ241の検出結果の情報に基づいて、当該指位置センサ241に対応する指と、当該指に隣接する指との間の角度の情報を取得する。具体的に、指位置センサ241がデプスカメラであり、撮像して得た画像データそのものを検出結果として出力している場合、この角度取得部112は、当該撮像された像に基づき、所定の距離を下回る位置にある対象物の像の重心位置Pを求める。そして角度取得部112は、指位置センサ241の検出結果情報である画像データ(θminからθmax、φminからφmaxまでの画角の画像データ)において、(θmax,(φmin+φmax)/2)またはθmaxの一列の画素のうち、指が撮像されている画素の位置の平均あるいは重心の位置を起点Qとする。角度取得部112はこの起点Qと先に求めた重心位置Pとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する指と、当該指に隣接する指との間の角度の情報として出力する。
また、コントローラデバイス20が、指位置センサ241の出力に基づいて所定の距離を下回る位置にある対象物の像の重心位置Pと、当該対象物までの距離の平均や分散等の値を、検出結果として出力している場合は、角度取得部112は、撮像される画像データの画角の情報(θminからθmax、φminからφmaxまで)を用い、(θmax,(φmin+φmax)/2)の位置を起点Qとする。そして角度取得部112はこの起点Qと入力された重心位置Pとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する指と、当該指に隣接する指との間の角度の情報として出力する。
なお、既に述べたように、ユーザが指を伸ばしている状態では、指の像は指のある側(右手に装着されているコントローラデバイス20において撮像される像ではθ方向であって、θの値が大きい側、左手に装着されているコントローラデバイス20において撮像される像ではθ方向であって、θの値が小さい側)に撮像される。そこで、角度取得部112は、重心Pの位置(Pθ,Pφ)のうち、Pθと(θmin+θmax)/2との差が予め定めたしきい値を下回る(重心Pの位置が比較的手のひらと反対側に位置している)ときには、指先のみが撮像されているものとして、角度を「不明」としてもよい。また角度取得部112は、この例に限らず、撮像された指の像の面積が予め定めたしきい値以上である場合など、指先のみが撮像されているものと判断できる場合は、角度を「不明」としてもよい。
推定部113は、角度取得部112が求めた角度の値ξに基づいて、ユーザの手の各指間の角度を推定する。具体的にこの推定部113は、角度取得部112が出力する情報が「不明」である場合は、角度に関する情報を出力しない。
一方、角度取得部112が出力する角度の値が、「不明」ではない場合(値ξである場合)は、推定部113は、当該角度の値ξを、人差指と中指との間の角度、中指と薬指との間の角度、薬指と小指との間の角度を表す情報として出力する。
すなわち本実施の形態のある例では、この推定部113は、人差指、中指、薬指、及び小指のいずれかの指と、それに隣接する指とがなす角度に関する情報を用い、当該情報をもって、人差指、中指、薬指、及び小指の他の指と、当該他の指に隣接する指とがなす角度であると推定する。
処理実行部114は、ここで推定されたユーザの手の各指間の角度の情報を、所定の処理に供する。一例として、この処理実行部114は、ユーザが指を揃えて伸ばしている(図3(e))のか、指を開いて伸ばしている(図3(c))のかを判別する。そして処理実行部114は、ゲームの処理において、指を揃えて伸ばしていると判断したときと、指を開いて伸ばしていると判断したときとで、ユーザが制御しているキャラクタの動作を異ならせる。
[動作]
本実施の形態の情報処理システムは、基本的に以上の構成を備えており、次のように動作する。以下の例では、コントローラデバイス20には、人差指に対応する指位置センサ241としてのデプスカメラが設けられ、指位置センサ241が設けられていない中指、薬指、及び小指のそれぞれに対応して、指距離センサ242が設けられているものとする。
ユーザが、コントローラデバイス20を左右の手にそれぞれ固定して、コントローラデバイス20と情報処理装置1とを起動すると、人差指に対応する指位置センサ241が所定のタイミングごと(例えば一定の時間が経過するごと)に所定の検出可能範囲内の画像データを撮像する。
ここでユーザが、例えば右手の人差指、中指、薬指、及び小指を揃えて伸ばした状態(図3(e))とすると、指位置センサ241が図3(f)に例示した画像データを撮像する。コントローラデバイス20はこの撮像した画像データから、指位置センサ241の出力に基づいて所定の距離を下回る位置にある(画素値の輝度がしきい値を超える範囲にある)対象物の像の重心位置Pと、当該対象物までの距離の平均や分散等の値を求める。
そしてコントローラデバイス20は、当該求めた重心位置Pと、当該対象物までの距離の平均や分散等の値を指位置センサ241の検出結果として出力する。またコントローラデバイス20は、指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を出力する。
情報処理装置1は、図6に例示するように、コントローラデバイス20から所定のタイミングごとに、指位置センサ241や指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を受け入れる(S1)。
なお、情報処理装置1は、コントローラデバイス20の指位置センサ241にて撮像される画像データの画角の情報(θminからθmax、φminからφmaxまで)を用い、(θmax,(φmin+φmax)/2)の位置を起点Qとして求めておく。
情報処理装置1は、コントローラデバイス20から受信した、対象物の像の重心位置Pの座標(Pθ,Pφ)と、起点Qとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する人差指と、当該人差指に隣接する中指との間の角度の値とする(S2)。
ここでは図3(f)に例示したP,Qを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξはほぼ0度となる。
情報処理装置1は、ここで求めた人差指と中指との間の角度の値ξを用い、中指と薬指との間の角度、及び薬指と小指との間の角度もこの値ξ(ここでは0度)であると推定する(S3)。
そして情報処理装置1は、処理S3で推定した値に基づいて、ユーザの右手において指が揃えて伸ばされた状態であるとした処理を実行する(S4)。情報処理装置1は、この処理S1からS4を繰り返し実行する。
次にユーザが、例えば右手の人差指、中指、薬指、及び小指を伸ばした状態で、各指間を開くと(図3(c)の状態とすると)、指位置センサ241が図3(d)に例示した画像データを撮像する。コントローラデバイス20はこの撮像した画像データから、指位置センサ241の出力に基づいて所定の距離を下回る位置にある(画素値の輝度がしきい値を超える範囲にある)対象物の像の重心位置Pと、当該対象物までの距離の平均や分散等の値を求める。
そしてコントローラデバイス20は、当該求めた重心位置Pと、当該対象物までの距離の平均や分散等の値を指位置センサ241の検出結果として出力する。またコントローラデバイス20は、指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を出力する。
このときには情報処理装置1は、図6に例示した処理S1にて、コントローラデバイス20から指位置センサ241や指距離センサ242の検出結果の情報や、手の角度の検出結果の情報を受け入れると、処理S2にて、当該コントローラデバイス20から受信した、対象物の像の重心位置Pの座標(Pθ,Pφ)と、予め求めておいた起点Qとを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξを求め、この角度の値ξを、対応する人差指と、当該人差指に隣接する中指との間の角度の値とする。
ここでは図3(d)に例示したP,Qを結ぶ線分と、φが一定である仮想的な線分(θ軸に平行な線分)とのなす角度ξは0より大きく、例えば15度となる。
情報処理装置1は、処理S3にて、ここで求めた人差指と中指との間の角度の値ξを用い、中指と薬指との間の角度、及び薬指と小指との間の角度もこの値ξ(ここでは15度)であると推定する。
そして情報処理装置1は、処理S4において、処理S3で推定した値に基づいて、ユーザの右手において指を開いて伸ばされた状態であるとした処理を実行する。
[中指、薬指における別の例]
なお、一般に人間の指では、人差指や小指に比べ、中指や薬指の可動範囲が狭くなっている。このため、上述の処理により中指または薬指の指先の方向(隣接する指との間の角度ξ)を推定すると、推定した値が実際の値より小さくなることがある。
そこで本実施の形態の一例では、情報処理装置1は、中指または薬指に対応する指位置センサ241の検出結果に基づいて演算した角度ξについては、そのまま隣接する指との間の角度とせず、予め定められた補正値(1を超える正の値)αを乗じて、対応する指と当該指に隣接する指との間の角度をα×ξと推定する。
この場合、情報処理装置1は、他の指間(人差指と中指との間、薬指と小指との間など)の角度も、この推定された角度α×ξと推定する。なお、補正値αは、指間ごと(人差指と中指との間、中指と小指との間、薬指と小指との間のそれぞれ)に異なって設定されてもよい。
[指距離センサの情報を用いる例]
また本実施の形態では、指距離センサ242の検出結果の情報を併せて用い、ユーザの手のポーズを推定することとしてもよい。この例では、推定部113は、角度取得部112が出力する角度の値ξと、受入部111が受け入れた指距離センサ242の検出結果の情報とを用いて、次のようにユーザの手のポーズを推定する。
以下では一例として、指位置センサ241が人差指に対応して設けられ、指距離センサ242が中指、薬指、及び小指に対応して設けられているものとする。このとき、ユーザが図7(a)に例示するように、指間を開いた状態で人差指、中指、薬指、及び小指の指を伸ばしているときには、角度の値ξは「0」より大きい値(例えば15度)となる。また中指、薬指、及び小指に対応する指距離センサ242は、指を検出できず、指先の方向にある床や壁等までの距離(既に述べたように指を検出した場合に比べ十分大きいので、この値を便宜的に「∞」と表す)を検出する(図7(b))。
情報処理装置1の制御部11の推定部113は、この場合は、すべての指が伸びている状態で、人差指と中指との間の角度がξであるとして、当該角度の値ξを、人差指と中指との間の角度、中指と薬指との間の角度、薬指と小指との間の角度を表す情報として出力する。
一方、ユーザが図7(c)に例示するように、人差指と中指とを開いた状態で伸ばし、薬指と小指とを曲げている(つまり、じゃんけんにおけるチョキの状態としている)と、角度の値ξは「0」より大きい値(例えば15度)となり、また薬指と小指に対応する指距離センサ242は、コントローラデバイス20に接触した指を検出するので、薬指と小指までの距離として「0」を検出する(図7(d))。
このときには、制御部11の推定部113は、人差指と中指との間の角度をξとし、中指と薬指との間の角度、薬指と小指との間の角度を表す情報を「不定」とする。
さらに、ユーザが図7(e)に例示するように、人差指と中指とを揃えた状態で伸ばし、薬指と小指を曲げていると、角度の値ξは「0」となり、また薬指と小指に対応する指距離センサ242は、コントローラデバイス20に接触した指を検出するので、薬指と小指までの距離として「0」を検出する(図7(f))。
このときには、制御部11の推定部113は、人差指と中指との間の角度をξ=0とし、中指と薬指との間の角度、薬指と小指との間の角度を表す情報を「不定」とする。
以上に説明したように、本実施の形態では、人差指と中指との間を開いたときには、他の指間が開かれた状態となり、人差指と中指との間を閉じた(人差指と中指とを揃えた)ときには、他の指も揃えた状態となることが自然な姿勢であることに着目し、中指と薬指、薬指と小指間の角度が、人差指と中指との間の角度ξに実質的に等しいと推定する。このため、本実施の形態によれば、人差指、中指、薬指、及び小指の一部の指について、隣接する指との角度を検出するセンサを設けることで、他の指間の角度を検出するセンサを省くことができ、コストの増大を抑制できる。
[変形例]
また本実施の形態のここまでの説明では、受入部111と、角度取得部112と、推定部113としての処理を、情報処理装置1の制御部11によって行うこととしていたが、本実施の形態はこれに限られない。
すなわち本実施の形態の一例では、コントローラデバイス20の制御部21において、指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得し、当該取得の結果に基づいて、ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定して、当該推定したユーザの手の各指間の角度の情報を、情報処理装置1に送出して、所定の処理に供させることとしてもよい。
この場合、中指または薬指に対応する指位置センサ241の検出結果に基づいて演算した角度ξについて、そのまま隣接する指との間の角度とせず、予め定められた補正値(1を超える正の値)αを乗じて、対応する指と当該指に隣接する指との間の角度をα×ξと推定する処理も、制御部21にて行うこととしてもよい。
さらに、指距離センサ242の検出結果の情報を併せて用い、ユーザの手のポーズを推定する処理についても、制御部21にて行ってもよい。
1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 撮像部、15 出力部、20 コントローラデバイス、21 制御部、22 記憶部、23 操作インタフェース、24 センサ部、25 通信部、111 受入部、112 角度取得部、113 推定部、114 処理実行部、210 デバイス本体、211 把持部、212 操作部、213 位置提示部、220 固定具、231 ボタン操作部、241 指位置センサ、242 指距離センサ、243 傾きセンサ、244 加速度センサ。

Claims (6)

  1. ユーザの手に固定されるデバイスを含む情報処理システムであって、
    ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサと、
    前記指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
    当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、を含み、
    前記推定されたユーザの前記手の各指間の角度の情報が、所定の処理に供される情報処理システム。
  2. ユーザの手に固定されるデバイスに接続される情報処理装置であって、
    前記デバイスは、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含み、
    前記情報処理装置は、
    前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
    当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、を含み、
    前記情報処理装置は、推定されたユーザの前記手の各指間の角度の情報を、所定の処理に供する情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記指位置センサは、人差指の指先の方向を検出する指位置センサであり、
    前記情報処理装置の取得手段は、前記デバイスから受け入れた、前記指位置センサが検出した人差指の指先の方向に基づいて、当該人差指と、当該人差指に隣接する中指との間の角度の情報を取得し、
    前記推定手段は、当該取得の結果に基づいて、ユーザの前記ユーザの手の中指と薬指、及び薬指と小指の各指間の角度を推定する情報処理装置。
  4. ユーザの手に固定され、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含むデバイスに接続されたコンピュータを用い、
    取得手段が、前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する工程と、
    推定手段が、当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する工程と、
    を含む制御方法。
  5. ユーザの手に固定され、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含むデバイスに接続されたコンピュータを、
    前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
    当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、として機能させるプログラム。
  6. ユーザの手に固定され、ユーザの前記手の人差指、中指、薬指、及び小指の一部の指について、指先の方向を検出する指位置センサを含むデバイスに接続されたコンピュータを、
    前記デバイスから受け入れた、前記指位置センサが検出した人差指、中指、薬指、及び小指指の一部の指についての指先の方向に基づき、当該指と、当該指に隣接する指との間の角度の情報を取得する取得手段と、
    当該取得の結果に基づいて、前記ユーザの手の人差指、中指、薬指、及び小指の各指間の角度を推定する推定手段と、として機能させるプログラムを格納した、コンピュータ可読な記録媒体。
JP2018547604A 2016-10-28 2017-10-18 情報処理システム、情報処理装置、制御方法、及びプログラム Active JP6661783B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016212080 2016-10-28
JP2016212080 2016-10-28
PCT/JP2017/037733 WO2018079384A1 (ja) 2016-10-28 2017-10-18 情報処理システム、情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018079384A1 true JPWO2018079384A1 (ja) 2019-03-07
JP6661783B2 JP6661783B2 (ja) 2020-03-11

Family

ID=62023583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018547604A Active JP6661783B2 (ja) 2016-10-28 2017-10-18 情報処理システム、情報処理装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US10792561B2 (ja)
JP (1) JP6661783B2 (ja)
WO (1) WO2018079384A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230244312A1 (en) * 2020-07-14 2023-08-03 Sony Group Corporation Detection device and detection method
US11320896B2 (en) * 2020-08-03 2022-05-03 Facebook Technologies, Llc. Systems and methods for object tracking using fused data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
JP2006276651A (ja) * 2005-03-30 2006-10-12 Nagasaki Prefecture 動作検出装置および手話動作検出システム
JP2014225145A (ja) * 2013-05-16 2014-12-04 スタンレー電気株式会社 入力操作装置
WO2016038953A1 (ja) * 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6701296B1 (en) * 1988-10-14 2004-03-02 James F. Kramer Strain-sensing goniometers, systems, and recognition algorithms
KR101146750B1 (ko) * 2004-06-17 2012-05-17 아드레아 엘엘씨 터치 스크린 상에서 2개-손가락에 의한 입력을 탐지하는 시스템 및 방법과, 터치 스크린 상에서 적어도 2개의 손가락을 통한 3-차원 터치를 센싱하는 시스템 및 방법
EP2041640B1 (en) * 2006-07-16 2012-01-25 I. Cherradi Free fingers typing technology
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
WO2016140924A1 (en) * 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods
US11857869B2 (en) * 2015-12-31 2024-01-02 Meta Platforms Technologies, Llc Handheld controller with hand detection sensors
US10391400B1 (en) * 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US10307669B2 (en) * 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
JP2006276651A (ja) * 2005-03-30 2006-10-12 Nagasaki Prefecture 動作検出装置および手話動作検出システム
JP2014225145A (ja) * 2013-05-16 2014-12-04 スタンレー電気株式会社 入力操作装置
WO2016038953A1 (ja) * 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法

Also Published As

Publication number Publication date
US10792561B2 (en) 2020-10-06
WO2018079384A1 (ja) 2018-05-03
JP6661783B2 (ja) 2020-03-11
US20190358526A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6710285B2 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
US20190278372A1 (en) Information processing system, controller device, controller device control method and program
JP7000593B2 (ja) 情報処理システム、コントローラ装置、情報処理装置、及びプログラム
TWI788607B (zh) 人機交互系統和人機交互方法
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
WO2018198272A1 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
KR20200051938A (ko) 손가락 마디의 추적을 통한 가상현실 내 상호작용 제어방법 및 이를 이용한 vr 시스템
US10948978B2 (en) Virtual object operating system and virtual object operating method
JP6687749B2 (ja) 情報処理装置、制御方法、プログラム、及び記録媒体
JP6910485B2 (ja) 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム
US11353959B2 (en) Controller device
TWI730535B (zh) 虛擬物件操作系統及虛擬物件操作方法
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
WO2020166351A1 (ja) 情報処理装置、情報処理方法、および記録媒体
KR20170135377A (ko) 가상현실 정보 처리 장치
TW202122970A (zh) 基於行為的配置方法和基於行為的配置系統
JP2023532000A (ja) ユーザインターフェース方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200212

R150 Certificate of patent or registration of utility model

Ref document number: 6661783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150