JPWO2019077652A1 - 情報処理システム、コントローラデバイス、及び情報処理装置 - Google Patents

情報処理システム、コントローラデバイス、及び情報処理装置 Download PDF

Info

Publication number
JPWO2019077652A1
JPWO2019077652A1 JP2019548799A JP2019548799A JPWO2019077652A1 JP WO2019077652 A1 JPWO2019077652 A1 JP WO2019077652A1 JP 2019548799 A JP2019548799 A JP 2019548799A JP 2019548799 A JP2019548799 A JP 2019548799A JP WO2019077652 A1 JPWO2019077652 A1 JP WO2019077652A1
Authority
JP
Japan
Prior art keywords
finger
sensor
user
information processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019548799A
Other languages
English (en)
Other versions
JP6831475B2 (ja
Inventor
佑輔 中川
佑輔 中川
洋一 西牧
洋一 西牧
泰史 奥村
泰史 奥村
平田 真一
真一 平田
拓也 久慈
拓也 久慈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019077652A1 publication Critical patent/JPWO2019077652A1/ja
Application granted granted Critical
Publication of JP6831475B2 publication Critical patent/JP6831475B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1056Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

情報処理装置に接続され、ユーザの手に装着されるコントローラデバイスであって、ユーザにより把持されるデバイス本体を有し、このデバイス本体上、ユーザが把持したときに、ユーザの少なくとも一部の指の付け根に当接する位置に、指の付け根部分の形状変化に基づくセンサ出力を出力するセンサを配し、当該センサが出力するユーザの指の付け根部分の形状変化に係る情報を受け入れて、接続された情報処理装置に送出するコントローラデバイスである。

Description

本発明は、情報処理システム、コントローラデバイス、及び情報処理装置に関する。
家庭用ゲーム機等におけるコントローラデバイスは、ユーザが行ったボタン押下やデバイスを振る等の動作を検出して、ゲーム機等の本体に当該検出したユーザの動作を表す情報を送出している。従来、こうしたコントローラデバイスのうちでは、カメラによりユーザの指先を撮像して、ユーザの指の動きを検出するものが知られている。
しかしながら、手の大きさや指の長さは、個人差が大きく、平均的な人の指の可動域に合わせて指先を検出するセンサを配したのでは、ユーザの手の大きさによっては、当該ユーザの指の可動域がカバーできない場合があり、指先の検出が安定的にできない場合があった。
本発明は上記実情に鑑みて為されたもので、ユーザの指先の動きを安定的に検出できる情報処理システム、コントローラデバイス、及び情報処理装置を提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、ユーザの手に装着されるコントローラデバイスを含み、このコントローラデバイスがユーザにより把持されるデバイス本体を有し、前記デバイス本体上、ユーザが把持したときに、ユーザの少なくとも一部の指の付け根に当接する位置に、指の付け根部分の形状変化に基づくセンサ出力を出力するセンサを配し、前記センサが出力する、ユーザの指の付け根部分の形状変化に応じたセンサ出力を受け入れて、前記接続された情報処理装置に送出する制御手段を含むこととしたものである。
これによりユーザの指先の動きを安定的に検出できる。
本発明の実施の形態に係る情報処理システムの構成例を表すブロック図である。 本発明の実施の形態に係るコントローラデバイスの概要を表す斜視図である。 本発明の実施の形態に係るコントローラデバイスの概要を表す機能ブロック図である。 本発明の実施の形態に係るコントローラデバイスが検出する指の付け根の形状の変化を表す概略説明図である。 本発明の実施の形態に係るコントローラデバイスが検出する指の付け根の位置の変化を表す概略説明図である。 本発明の実施の形態に係るコントローラデバイスの静電容量センサによる検出例を表す説明図である。 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係るコントローラデバイスによる指の付け根の位置の検出例を表す説明図である。 本発明の実施の形態に係るコントローラデバイスにおけるセンサの配置範囲例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
本発明の実施の形態に係る情報処理システムは、例えば家庭用ゲーム機等のコンピュータ機器を含むシステムであり、図1に例示するように、家庭用ゲーム機本体等の情報処理装置1と、この情報処理装置1に接続されたコントローラデバイス20とを含む。
コントローラデバイス20は、ユーザの左手または右手の少なくとも一方に装着されて固定される。以下の説明において、ユーザの左手に固定されるコントローラデバイス20と、右手に固定されるコントローラデバイス20とは同形であってもよい。
このコントローラデバイス20は、図2にその概要を例示するように、デバイス本体210と、このデバイス本体210に固定された固定具220とを含んで構成される。図2(a)はコントローラデバイス20をその背面側から見た概略斜視図であり、図2(b)は、コントローラデバイス20をその正面側から見た概略斜視図である。また、このコントローラデバイス20は、デバイス本体210内に、図3に示すように、制御部21と、記憶部22と、操作インタフェース23と、センサ部24と、通信部25とを含んだ回路部を備えて構成される。
本実施の形態の例では、固定具220は可撓性あるベルトを環状としたものであり、この固定具220にユーザの人差指、中指、薬指、及び小指を通し、デバイス本体210をユーザの親指の付根(人差指、中指、薬指、及び小指のMP関節に相当する位置)に当接させた位置に固定して用いる。
デバイス本体210は、ユーザにより把持される把持部211と、操作部212と、指動作センサ213とを含む。把持部211は、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図2の例では、ボタン操作部231等を含む。指動作センサ213は、センサ部24に含まれるセンサの一つであり、図2に例示するようにデバイス本体210上に、当該デバイス本体210をユーザが把持したときに、ユーザの少なくとも一部の指の付け根に当接する位置にそれぞれ配される。つまり、例えばコントローラデバイス20の背面側においては親指の付け根に当接する位置に配され(図2(a))、正面側では、人差指、中指、薬指、及び小指の各指の付け根が当接する位置に配される(図2(b))。この指動作センサ213は、ユーザの指の付け根部分の形状変化に基づくセンサ出力を出力する。この指動作センサ213の詳しい動作については後に述べる。
またこのコントローラデバイス20の大きさは、ユーザが自然にデバイス本体210を把持したときに、その一方端がユーザの親指(いわゆる親指)の先端が到達する位置よりやや外側に位置し、その他方端が、小指の付け根(MP関節に相当する位置)からやや突出する位置にある程度の大きさとする。なおデバイス20は、コントローラデバイス20を装着した状態でユーザが手を開いても、固定具220によりユーザの手に固定されるので、落下することはない。
本実施の形態の制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態ではこの制御部21は、操作インタフェース23を介してユーザが操作部212のボタン操作部231等においてした操作の内容を表す情報の入力を受け、当該情報を、通信部25を介して情報処理装置1へ出力する。またこの制御部21は、センサ部24に含まれるセンサが出力する情報を、通信部25を介して情報処理装置1へ出力する。
記憶部22は、メモリデバイス等であり、制御部21によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部22に複写されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作する。
操作インタフェース23は、操作部212に備えられたボタン操作部231等に対してユーザが行った操作の内容を表す情報を制御部21に出力する。センサ部24は、指動作センサ213を含む少なくとも一つのセンサを含み、当該センサが出力する情報(センサ出力)を制御部21に出力する。
通信部25は、USBインタフェース等の有線インタフェースや、ブルートゥース(登録商標)等の無線インタフェースであり、制御部21から入力される指示に従い、種々の情報を情報処理装置1に対して出力している。
情報処理装置1は、図1に例示したように、制御部11と、記憶部12と、インタフェース部13と、出力部14とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では制御部11は、コントローラデバイス20からユーザの指の付け根部分の形状変化に係る情報を受け入れ、当該情報に基づいてユーザの指の動きを推定する。この制御部11の具体的な処理の内容については、後に詳しく述べる。
記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
インタフェース部13は、コントローラデバイス20に無線又は有線にて接続され、コントローラデバイス20からユーザの操作の内容を表す情報や、ユーザの指の付け根部分の形状変化に係る情報を受け入れ、制御部11に出力する。
出力部14は、例えばHDMI(登録商標)インタフェース等、家庭用テレビジョンに対して映像等を出力するインタフェースを有する。この出力部14は、制御部11から入力される指示に従い、表示するべき映像の情報を出力する。
次に本実施の形態のコントローラデバイス20の指動作センサ213と、情報処理装置1の制御部11の動作とについて説明する。
指動作センサ213は、圧力センサ、距離センサ、歪みセンサ、静電容量センサ、の少なくとも一つの種類のセンサを含み、ユーザの指の付け根部分の形状変化、及び位置に応じたセンサ出力を出力する。すなわち、人間の手では、人間が指を伸ばした状態(手の平の面と指の向きとが同一面内にあるよう、指をまっすぐに伸ばした状態)においては、手の平の指の付け根部分もこの面内からやや突出している程度となるが(図4(a))、指の曲げ方が大きくほど、当該指の付け根部分の曲げた方向への突出量が増大する(図4(b),(c);元の面を一点鎖線で示す、なおやや誇張して表記している)。
本実施の形態の指動作センサ213は、このようなユーザの指の付け根部分の形状変化に応じたセンサ出力を出力する。また指動作センサ213は、指の付け根の位置に応じたセンサ出力を、併せて出力してもよい。
すなわち、手の平の幅方向では、隣接する指同士を接触させた状態(図5(a))と、指を開いた(隣接する指間を離した)状態(図5(b))とでは、指の付け根の、指を曲げたときに突出する範囲も指の動きに対応して、隣接する指の付け根同士が近接した状態(図5(a))と、隣接する指の付け根同士が比較的離れた状態(図5(b))との間で変化する。なお、図5(b)では図5(a)における各指の付け根の対応する位置を破線の円で示している。そこで、この幅に応じてセンサを複数配するか、またはこの範囲での指の付け根の位置を検出するセンサを配する。
具体的に、指動作センサ213が圧力センサである場合、この圧力センサを、デバイス本体210をユーザが把持したときに、ユーザの少なくとも一部の指の付け根に当接する位置に、ユーザの手の平に垂直な方向の圧力に応じたセンサ出力を出力するように配置する。
この例では、指動作センサ213は、少なくともユーザの指ごと(親指、人差し指、中指、薬指、小指のそれぞれ)に対応した圧力センサを含む。
そして各圧力センサは、ユーザが対応する指を伸ばした状態では比較的小さい圧力を表すセンサ出力を出力し、ユーザが対応する指を大きく曲げるほど大きい圧力を表すセンサ出力を出力する。指動作センサ213は、各指に対応する圧力センサにおけるセンサ出力の情報を、ユーザの指の付け根部分の形状変化に基づく情報として、制御部21に出力する。そして制御部21が、当該情報を、通信部25を介して情報処理装置1へ出力することとなる。
また、指動作センサ213が距離センサである場合、距離センサを、デバイス本体210をユーザが把持したとき、ユーザの少なくとも一部の指の付け根に当接する位置に、ユーザの手の平に垂直な方向の指の付け根までの距離に応じたセンサ出力を出力するように配置する。
この例では、指動作センサ213は、少なくともユーザの指ごと(親指、人差し指、中指、薬指、小指のそれぞれ)に対応した距離センサを含む。
そして各距離センサは、ユーザが対応する指を伸ばした状態では指の付け根の部分が突出しないので、比較的長い距離であることを表すセンサ出力を出力する。また距離センサは、ユーザが対応する指を大きく曲げるほど短い距離であることを表すセンサ出力を出力する。指動作センサ213は、各指に対応する距離センサにおけるセンサ出力の情報を、ユーザの指の付け根部分の形状変化に係る情報として、制御部21に出力する。そして制御部21が、当該情報を、通信部25を介して情報処理装置1へ出力することとなる。
さらに指動作センサ213が歪みセンサである場合、歪みセンサを、デバイス本体210をユーザが把持したとき、ユーザの少なくとも一部の指の付け根に当接する位置に配置し、押圧力による歪みに応じたセンサ出力を出力する。
この例では、指動作センサ213は、少なくともユーザの指ごと(親指、人差し指、中指、薬指、小指のそれぞれ)に対応した歪みセンサを含む。各歪みセンサは、ユーザが対応する指を伸ばした状態では指の付け根の部分が突出しないので、比較的小さい力で押圧された状態となり、比較的小さい歪みが検出されている旨のセンサ出力を出力する。またこの例の歪みセンサは、ユーザが対応する指を大きく曲げるほど大きい力で押圧されることとなるので、ユーザが対応する指を大きく曲げるほど大きい歪みを表すセンサ出力を出力する。指動作センサ213は、各指に対応する歪みセンサにおけるセンサ出力の情報を、ユーザの指の付け根部分の形状変化に係る情報として、制御部21に出力する。そして制御部21が、当該情報を、通信部25を介して情報処理装置1へ出力することとなる。
また指動作センサ213が静電容量センサである場合について説明する。静電容量センサは、例えばタッチパネルであり、所定の面積の面(検出面)内の各所での静電容量に応じたセンサ出力を出力する。このような静電容量センサを用いる場合、静電容量センサは、デバイス本体210をユーザが把持したときユーザの指の付け根が当接する範囲の静電容量に応じたセンサ出力を出力するように配される。
静電容量センサは、ユーザが指を伸ばした状態では、当該伸ばしている指の付け根部分での静電容量の変化が小さいとするセンサ出力を出力し、ユーザが指を大きく曲げるほど、当該曲げている指の付け根部分での静電容量の変化が大きいとするセンサ出力を出力する。この静電容量センサのセンサ出力は例えば図6に例示するような、静電容量センサの検出面内の各点での静電容量の変化量を表す情報となる。なお、図6では変化量が大きいほど濃い色となるように示している。
指動作センサ213は、この静電容量センサによるセンサ出力の情報を、ユーザの指の付け根部分の形状変化に係る情報として、制御部21に出力する。そして制御部21が、当該情報を、通信部25を介して情報処理装置1へ出力することとなる。
また、静電容量センサは、タッチパネルのように検出面内の各所での静電容量の変化に応じたセンサ出力を出力するものだけでなく、一ヶ所での静電容量の変化に応じたセンサ出力を出力するもの(いわゆる近接スイッチ)もある。この場合の静電容量センサは、圧力センサと同様、少なくともユーザの指ごと(親指、人差し指、中指、薬指、小指のそれぞれ)に対応して設けられ、それぞれ対応する指の曲げ度合いに応じた静電容量の変化量の情報を出力することとなる。
情報処理装置1の制御部11は、機能的には図7に例示するように、アプリケーション処理部110と、検出処理部120とを含んで構成される。アプリケーション処理部110は、例えばゲームアプリケーションなどのアプリケーションプログラムを実行する。このアプリケーション処理部110は、アプリケーションプログラムに従い、検出処理部120に対して処理を行うよう指示してもよい。また、このアプリケーション処理部110は、例えば、仮想空間内でユーザにより制御されるキャラクタを表示する。このときアプリケーション処理部110は、検出処理部120が出力するユーザの指の動きを表す情報に基づき、仮想空間内でのキャラクタの姿勢や動作を設定して、表示内容に反映する。
検出処理部120は、コントローラデバイス20から受け入れたユーザの指の付け根部分の形状変化に係る情報に基づき、ユーザの指の動きを表す情報を生成する。例えば、コントローラデバイス20が指動作センサ213としてユーザの指ごとの圧力センサ、距離センサ、歪みセンサ(または近接スイッチ)のセンサ出力を、ユーザの指の付け根部分の形状変化に係る情報として出力している場合、当該情報を受け入れる。
この情報は、例えば親指に関するセンサ出力R1,人差し指に係るセンサ出力R2…というように、複数のセンサ出力の情報を含む。制御部11の検出処理部120は、この複数のセンサ出力の情報から、ユーザの各指の動きを表す情報として、各指の曲げ具合を表す情報を生成して出力する。
一例として制御部11の検出処理部120は、ある指に係るセンサ出力の情報Riに基づいて、指の曲げ具合を表す情報Biを、
Bi=αi×Ri
(i=1,2,…5)
として求める。ここでαは、指ごとに実験的に定められる比例定数であり、圧力、歪みセンサを用いる場合においては正の値(指が大きく曲げられるほど、大きい値となるものについては正の値)、距離センサ(あるいは近接スイッチ)が用いられる場合においては負の値(指が大きく曲げられるほど、小さい値となるものについては負の値)とする。またαは各指に共通の値であってもよい。
また、実際には例えば人差し指を曲げたときに、隣接する中指の指の付け根も多少、手の平の面から突出するので、各指の曲げ具合を表す情報を、
B=[A]R (1)
として求めてもよい。なお、ここでBは、親指,人差し指,中指,薬指,小指の各指の曲げ具合を表す情報Bi(i=1,2,…5)を配列したベクトルであり、Rは対応する各指のセンサ出力の情報Ri(i=1,2,…5)を配列したベクトルである。また[A]は、5×5の行列であり、その要素は、実験的に定める。この例によると、例えば中指の曲げ具合が(行列[A]のp行q列目の要素をapqと表記して)、
B3=a31R1+a32R2+a33R3+a34R4+a35R5
のように表され、中指に隣接する、人差し指に係るセンサ出力に基づく変化a32R2と、薬指に係るセンサ出力に基づく変化a34R4とが、中指に係るセンサ出力に基づく変化a33R3とともに考慮されることとなる。
なお、本実施の形態の一例では、ここでの演算に用いるパラメータ、αiや、[A]の各要素の値等を、機械学習的処理によって学習にて獲得させてもよい。さらにこの場合は、単純な指の曲げ具合の情報だけでなく指の姿勢(第1関節の曲げ具合と第2関節の曲げ具合となど)の情報を出力できるようにしてもよい。すなわち、予め実際に複数人のサンプルユーザに、それぞれ互いに異なる指の姿勢をつくってもらい、測定されたセンサ出力に対する上記演算の応答と、実際の姿勢との相違をフィードバックして、演算に用いるパラメータを調整することを繰り返す。この例では制御部11の検出処理部120は、これにより学習されたパラメータを用いて演算を行い、各指のセンサ出力の情報Riに基づいて、各指の姿勢に関する情報を生成して出力する。
[指の開き具合を検出する例]
また既に述べたように、本実施の形態の指動作センサ213は、手の平の幅方向で、隣接する指同士をどの程度開いた(隣接する指間を離した)状態としているかを検出してもよい。この例では、指動作センサ213において圧力センサ、距離センサ、歪みセンサ(あるいは近接スイッチ)が用いられる場合、これらの圧力センサ、距離センサ、歪みセンサ(あるいは近接スイッチ)を、ユーザの手の平の幅方向に、指の数を超える複数個配列する。またこの配列範囲は、例えば平均的なユーザが手の指間を開いたときの手の平の幅以上の範囲となるようにしておく。さらに配列は一次元的(直線状)である必要はなく、千鳥状に配列されてもよいし、二次元的にマトリクス状に配列されていてもよい。
そしてこの場合も、各センサにおけるセンサ出力の情報を、ユーザの指の付け根部分の形状変化に係る情報として、制御部21に出力する。そして制御部21が、当該情報を、通信部25を介して情報処理装置1へ出力することとなる。
具体的に、この場合の各センサにおけるセンサ出力の情報は概括的には図8に示すように、手の平の幅方向に沿って複数の点でピークPを有するセンサ出力の群となる(指の付け根部分は、指を伸ばした状態であっても、指の股部に対応する部分よりは手の平からいくぶん突出しているので、指の付け根部分では圧力、距離等はピークとなる)。なお、図8(a)は指間を開いた状態、図8(b)は指間を閉じた状態を示す。
そこで、このようなセンサ出力の情報を受け入れた情報処理装置1の制御部11は、各ピークの位置を検出して、当該検出位置に指があるとする位置情報を出力する。これにより指が開かれた(隣接する指間が離れた)状態にあるか、指が閉じられた(隣接する指を近づけた)状態にあるかを検出できる。
なお、この例において、タッチパネルのように検出面内の各所での静電容量の変化に応じたセンサ出力を出力する静電容量センサが指動作センサ213において用いられている場合は、静電容量の値のピーク位置により、当該検出位置に指があるとする位置情報を出力すればよい。
[センサの種類]
またここまでの説明では、指動作センサ213は、圧力センサ、距離センサ、歪みセンサ、静電容量センサのいずれか一つの種類のセンサを備えるものとしたが、本実施の形態はこれに限られず、複数のセンサを併用してもよい。
この場合、制御部11の検出処理部120は、各センサ出力Rai,Rbi…(i=1,2,…、センサの種類ごとのセンサ出力をRa,Rb…と表記する)に基づき、
Bi=αi×Rai+βi×Rbi+…
のようにユーザの指の曲げ具合を演算する。あるいはセンサの種類ごとに対応する行列[A],[B]…を用いて、
B=[A]Ra+[B]Rb+…
というようにユーザの指の曲げ具合を演算する。
またこの例においても、曲げ具合だけでなく指の姿勢の情報が出力できるよう、機械学習の処理等により、各パラメータα,β…または行列[A],[B]…を獲得させてもよい。
さらに、センサは、加速度センサや、カメラ、筋電センサ等を併用してもよい。この場合、これらの情報についても上述と同様に、ユーザの指の曲げ具合や指の姿勢の情報の演算に用いる。
[複数のセンサによる検出]
また、本実施の形態の一例において親指については、他の指に比べて可動域が大きいため、指ごとにセンサを配する場合も、親指については複数のセンサを対応させてもよい。一例として図9に概要を例示するようにデバイス本体210をユーザが把持したとき、親指の付け根が当接し得る円弧状の範囲Qに、複数の親指用のセンサ(圧力センサ、距離センサ、歪みセンサ等)を配することとしてもよい。
この例では、制御部11の検出処理部120は、親指に対応する各センサのセンサ出力R11,R12,…R1iを用い、例えばB1=α11×R11+α12×R12+…というようにして親指の曲げ具合の値を演算することとしてもよい。またこの場合も、情報処理装置1は、既知の親指の曲げ具合や姿勢とセンサ出力とを教師信号として用いた機械学習によりパラメータ(α11,α12…等)を学習させ、当該学習して得られたパラメータを利用して親指の曲げ具合や姿勢を推定することとしてもよい。
このように、複数k種類のセンサを用い、かつ、各種類のセンサをそれぞれnκ(κ=1,2,…k;nκはそれぞれ1以上の整数)個用いる場合、(1)式に準じて、パラメータに係る行列αを、N×5行列(N=Σ_κ(nκ))として、各指の動きに応じた各センサのセンサ出力に対応する係数を反映してもよい。この場合は、(1)式のRを1行N列のベクトルとするよう各センサ出力を配列する。このようにすると(1)式におけるBは5行1列のベクトルとなり、その出力の解釈はここまでに説明した例と同様となる。
[ユーザごとのキャリブレーション]
なお、本実施の形態の一例では、演算に用いるパラメータに対して、ユーザごとのキャリブレーションを実行してもよい。例えば、情報処理装置1は、ユーザに指を曲げてコントローラデバイス20を握り込むよう要求し、当該姿勢をユーザがとったときの各センサのセンサ出力(キャリブレーションの際にユーザが指を曲げたときのセンサ出力)を取得する。また、ユーザに指を伸ばすよう要求し、当該姿勢をユーザがとったときの各センサのセンサ出力(キャリブレーションの際にユーザが指を伸ばしたときのセンサ出力)を取得する。これにより、各センサの検出値の範囲を特定し、当該検出値の範囲に合わせて検出ができるよう、演算時のパラメータ(αiや、[A]の各要素の値等)を補正する。またこの場合、情報処理装置1は、センサ出力の値から、キャリブレーションの際にユーザが指を伸ばしたときのセンサ出力の値を引いてから、指の曲げ具合等の演算処理を行うこととしてもよい。
また、情報処理装置1は、ユーザに対して明示的に指の曲げ伸ばしを要求することなく、各センサのセンサ出力を継続的にモニタリングし、センサ出力の最大値と最小値とを記録し、更新することで、使用させながらセンサ出力の最大値と最小値とを得て、キャリブレーションを実行してもよい。
[判断結果の補正]
さらに、本実施の形態の情報処理装置1は、検出処理部120の処理において、各指の曲げ具合や姿勢の演算の結果、一般的にユーザがすることのない指のポーズとなっているか否かを判断し、一般的にユーザがすることのない指のポーズとなっていると判断した場合は、予め定めた所定のポーズ(例えば指を自然に開いたポーズ)となっているとする情報を出力してもよい。
具体的には、一般的に薬指だけを曲げた不自然な姿勢は取りにくいが、検出処理部120の処理において、各指の曲げ具合や姿勢の演算の結果、薬指が大きく曲げられ、他の指が伸ばされていると判断されたときには、すべての指が伸ばされた状態にあるとの情報を出力することとしてもよい。
また、情報処理装置1は、この判断の頻度(単位時間あたりに一般的にユーザがすることのない指のポーズとなっていると判断した回数)を記録し、この頻度が予め定めた閾値を超える場合、例えば1時間に5回以上、一般的にユーザがすることのない指のポーズとなっていると判断した場合には、センサにエラーがあるものとして、その旨を表す情報をユーザに提示してもよい。
[フィルタリング]
また本実施の形態では、指動作センサ213が出力するユーザの指の付け根部分の形状変化に係る情報をそのまま用いるのではなく、所定のフィルタリング処理を施してから演算に用いてもよい。このフィルタリング処理としては例えば、直近の所定回数回分のセンサ出力の算術平均を用いる、移動平均処理等がある。
[ジェスチャ推定]
情報処理装置1は、さらに、上記の演算により得られたユーザの各指の曲げ具合の情報、あるいは姿勢の情報から、ユーザの手のポーズ(ジェスチャ)を推定してもよい。
また、この場合、情報処理装置1は、予め定められたジェスチャとなっているときには、演算により求められたものとは異なる手のポーズとなっている旨の情報を出力してもよい。例えば、人差し指と中指とを伸ばし、それ以外を曲げている場合(いわゆるVサイン)、特定の国では不適切なジェスチャとして捉えられる場合がある。そこで情報処理装置1は、情報処理装置1が利用されている国や地域の設定情報、及び/又はユーザの年齢設定等の情報を参照して、不適切なジェスチャであると判断したときには、異なるジェスチャが取られていることとなるよう、指の曲げ伸ばしの度合いの情報や指の姿勢の情報を変更してもよい。
[実施形態の効果]
本実施の形態によると、指先の動きとしての指の曲げ伸ばしの情報を直接検出する代わりに、指の曲げ伸ばしに連動する指の付け根の形状変化の情報に基づいて指の曲げ伸ばしの度合いを推定する。ここで指の付け根の形状は、当該指の付け根に接触した状態で測定しやすく、また他の指の影となって検出できないといった状況が生じないので、ユーザの指先の動きを安定的に検出できる。
1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 出力部、20 コントローラデバイス、21 制御部、22 記憶部、23 操作インタフェース、24 センサ部、25 通信部、110 アプリケーション処理部、120 検出処理部、210 デバイス本体、211 把持部、212 操作部、213 指動作検出部、220 固定具。

Claims (5)

  1. 情報処理装置と、
    ユーザの手に装着されるコントローラデバイスとを含む情報処理システムであって、
    前記コントローラデバイスは、
    ユーザにより把持されるデバイス本体を有し、
    前記デバイス本体上、ユーザが把持したときに、ユーザの少なくとも一部の指の付け根に当接する位置に、指の付け根部分の形状変化に基づくセンサ出力を出力するセンサを配し、
    前記センサが出力する、ユーザの指の付け根部分の形状変化に応じたセンサ出力を受け入れて、前記接続された情報処理装置に送出する制御手段と、
    を含む情報処理システム。
  2. 情報処理装置に接続され、ユーザの手に装着されるコントローラデバイスであって、
    ユーザにより把持されるデバイス本体を有し、
    前記デバイス本体上、ユーザが把持したときに、ユーザの少なくとも一部の指の付け根に当接する位置に、指の付け根部分の形状変化に基づくセンサ出力を出力するセンサを配し、
    前記センサが出力する、ユーザの指の付け根部分の形状変化に応じたセンサ出力を受け入れて、前記接続された情報処理装置に送出する制御手段と、
    を含むコントローラデバイス。
  3. 請求項2に記載のコントローラデバイスであって、
    前記センサは、
    圧力センサ、
    距離センサ、
    歪みセンサ、
    静電容量センサ、
    の少なくとも一つの種類のセンサを含むコントローラデバイス。
  4. 請求項2に記載のコントローラデバイスであって、
    前記センサは、ユーザの手の平の幅方向に複数配列した、
    圧力センサ、
    距離センサ、
    歪みセンサ、
    の少なくとも一つの種類のセンサを有し、
    前記制御手段は、ユーザの指の付け根部分の形状変化に係る情報として、前記複数配列された各センサのセンサ出力を受け入れて、前記接続された情報処理装置に送出するコントローラデバイス。
  5. コントローラデバイスに接続される情報処理装置であって、
    前記コントローラデバイスは、ユーザにより把持されるデバイス本体を有し、
    前記デバイス本体上、ユーザが把持したときに、ユーザの少なくとも一部の指の付け根に当接する位置に、指の付け根部分の形状変化に基づくセンサ出力を出力するセンサとして、ユーザの手の平の幅方向に複数配列した、
    圧力センサ、
    距離センサ、
    歪みセンサ、
    の少なくとも一つの種類のセンサを有しており、
    前記情報処理装置は、
    前記ユーザの指の付け根部分の形状変化に応じたセンサ出力として、前記複数配列された各センサのセンサ出力を、当該コントローラデバイスから受け入れる手段と、
    前記受け入れた情報に基づいて、ユーザの指の、手の平の幅方向の動きを推定する処理を行う処理手段と、
    を含む情報処理装置。

JP2019548799A 2017-10-16 2017-10-16 情報処理システム、コントローラデバイス、及び情報処理装置 Active JP6831475B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/037375 WO2019077652A1 (ja) 2017-10-16 2017-10-16 情報処理システム、コントローラデバイス、及び情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2019077652A1 true JPWO2019077652A1 (ja) 2020-07-02
JP6831475B2 JP6831475B2 (ja) 2021-02-17

Family

ID=66173227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019548799A Active JP6831475B2 (ja) 2017-10-16 2017-10-16 情報処理システム、コントローラデバイス、及び情報処理装置

Country Status (3)

Country Link
US (1) US11130050B2 (ja)
JP (1) JP6831475B2 (ja)
WO (1) WO2019077652A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833018B2 (ja) 2017-04-18 2021-02-24 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11458389B2 (en) * 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
JP6893561B2 (ja) 2017-08-24 2021-06-23 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
WO2019038887A1 (ja) 2017-08-24 2019-02-28 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11198059B2 (en) 2017-08-29 2021-12-14 Sony Interactive Entertainment Inc. Vibration control apparatus, vibration control method, and program
WO2021182176A1 (ja) * 2020-03-13 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP6919050B1 (ja) * 2020-12-16 2021-08-11 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
US11504615B1 (en) * 2021-05-18 2022-11-22 Valve Corporation Electronic controller with linear hand strap adjuster
WO2024090304A1 (ja) * 2022-10-24 2024-05-02 ソニーグループ株式会社 入力デバイス、制御装置、制御方法、情報処理装置、及び、情報処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078966A (ja) * 2002-08-19 2004-03-11 Samsung Electro Mech Co Ltd 着用可能な情報入力装置、情報処理装置及び情報入力方法
JP2015228115A (ja) * 2014-05-30 2015-12-17 富士通株式会社 入力装置
WO2016038953A1 (ja) * 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法
WO2016076376A1 (ja) * 2014-11-12 2016-05-19 京セラ株式会社 ウェアラブル装置
JP2017075465A (ja) * 2015-10-14 2017-04-20 オムロンオートモーティブエレクトロニクス株式会社 携帯型電子機器
WO2018175419A1 (en) * 2017-03-20 2018-09-27 Tactual Labs Co. Sensing controller

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195140A (ja) 1997-12-27 1999-07-21 Canon Inc データ処理方法及び装置並びに記憶媒体
US6704694B1 (en) 1998-10-16 2004-03-09 Massachusetts Institute Of Technology Ray based interaction system
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
AU2003205391A1 (en) * 2002-03-12 2003-09-29 Senseboard, Inc. Data input device
JP2003337963A (ja) 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US7161579B2 (en) * 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
JP2005292883A (ja) * 2004-03-31 2005-10-20 Pioneer Electronic Corp 情報入力装置
US7728316B2 (en) 2005-09-30 2010-06-01 Apple Inc. Integrated proximity sensor and light sensor
JP2009042796A (ja) 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
US9477310B2 (en) * 2006-07-16 2016-10-25 Ibrahim Farid Cherradi El Fadili Free fingers typing technology
US8754746B2 (en) 2009-11-16 2014-06-17 Broadcom Corporation Hand-held gaming device that identifies user based upon input from touch sensitive panel
JP5364035B2 (ja) 2010-05-11 2013-12-11 日本放送協会 仮想力覚提示装置及び仮想力覚提示プログラム
US9245177B2 (en) 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
AU2011318246A1 (en) * 2010-10-22 2013-05-09 Joshua Michael Young Methods devices and systems for creating control signals
JP5641970B2 (ja) 2011-02-18 2014-12-17 シャープ株式会社 操作装置、再生装置及びテレビ受信装置
US20120249417A1 (en) 2011-03-29 2012-10-04 Korea University Research And Business Foundation Input apparatus
US8719098B2 (en) 2011-05-13 2014-05-06 Toshiba Global Commerce Solutions Holdings Corporation Real-time product delivery during customer-driven point of sale retail transactions
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
EP2613223A1 (en) 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
JP5148004B1 (ja) 2012-04-26 2013-02-20 株式会社三菱東京Ufj銀行 情報処理装置、電子機器およびプログラム
US10071280B2 (en) * 2012-11-07 2018-09-11 Callaghan Innovation Arm exercise device and system
US9778743B2 (en) 2013-04-22 2017-10-03 Immersion Corporation Gaming device having a haptic-enabled trigger
CN105393281B (zh) 2013-08-02 2018-02-13 三菱电机株式会社 手势判定装置和方法、手势操作装置
US20150042580A1 (en) 2013-08-08 2015-02-12 Lg Electronics Inc. Mobile terminal and a method of controlling the mobile terminal
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
JP6418820B2 (ja) 2014-07-07 2018-11-07 キヤノン株式会社 情報処理装置、表示制御方法、及びコンピュータプログラム
US10055018B2 (en) 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
WO2016116722A1 (en) * 2015-01-19 2016-07-28 Kurv Music Ltd. A hand-held controller for a computer, a control system for a computer and a computer system
WO2016140924A1 (en) * 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods
US10509469B2 (en) * 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
US10391400B1 (en) * 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US20180161670A1 (en) * 2016-12-12 2018-06-14 Evgeny Boev Single-Handed Input Controller and Method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078966A (ja) * 2002-08-19 2004-03-11 Samsung Electro Mech Co Ltd 着用可能な情報入力装置、情報処理装置及び情報入力方法
JP2015228115A (ja) * 2014-05-30 2015-12-17 富士通株式会社 入力装置
WO2016038953A1 (ja) * 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法
WO2016076376A1 (ja) * 2014-11-12 2016-05-19 京セラ株式会社 ウェアラブル装置
JP2017075465A (ja) * 2015-10-14 2017-04-20 オムロンオートモーティブエレクトロニクス株式会社 携帯型電子機器
WO2018175419A1 (en) * 2017-03-20 2018-09-27 Tactual Labs Co. Sensing controller

Also Published As

Publication number Publication date
US20200246692A1 (en) 2020-08-06
US11130050B2 (en) 2021-09-28
JP6831475B2 (ja) 2021-02-17
WO2019077652A1 (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
JPWO2019077652A1 (ja) 情報処理システム、コントローラデバイス、及び情報処理装置
Li et al. A Control Framework for Tactile Servoing.
JP6959991B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018079382A1 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
US11813518B2 (en) Information processing system, controller apparatus, information processing apparatus, and program
US11400363B2 (en) Information processing apparatus, information processing system, controller device, information processing method, and program
US11429187B2 (en) Controller apparatus, control method thereof, and program
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
US20200341549A1 (en) Controller apparatus, method of controlling contoller apparatus, and program
JP2008183629A (ja) ロボットおよびロボットの制御装置と制御方法
WO2020039507A1 (ja) コントローラ装置
Wang et al. Design and performance of a haptic data acquisition glove
JP2019536189A (ja) 手指の関節間着用型の指輪タイプのユーザ操作センシング装置
JP6495888B2 (ja) 工業製品デザインシステム、方法、およびプログラム
US11943519B2 (en) Information processing device, information processing method, and program
Katsuki et al. High-speed sensing of softness during grasping process by robot hand equipped with tactile sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210128

R150 Certificate of patent or registration of utility model

Ref document number: 6831475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150