JP7057389B2 - 情報処理装置、制御方法、プログラム、及び記憶媒体 - Google Patents

情報処理装置、制御方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP7057389B2
JP7057389B2 JP2020091575A JP2020091575A JP7057389B2 JP 7057389 B2 JP7057389 B2 JP 7057389B2 JP 2020091575 A JP2020091575 A JP 2020091575A JP 2020091575 A JP2020091575 A JP 2020091575A JP 7057389 B2 JP7057389 B2 JP 7057389B2
Authority
JP
Japan
Prior art keywords
user
size
information
hand
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020091575A
Other languages
English (en)
Other versions
JP2020140727A (ja
Inventor
洋一 西牧
泰史 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2020140727A publication Critical patent/JP2020140727A/ja
Application granted granted Critical
Publication of JP7057389B2 publication Critical patent/JP7057389B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、家庭用ゲーム機等の情報処理装置、制御方法、プログラム、及び記憶媒体に関する。
家庭用ゲーム機等におけるコントローラデバイスは、ユーザが行ったボタン押下やデバイスを振る等の動作を検出して、ゲーム機等の本体に当該検出したユーザの動作を表す情報を送出している。従来、こうしたコントローラとしては、例えば手袋のようにユーザの手に装着して、指の動きを検出するデバイスが知られている。
しかしながら、上記従来のデバイスで検出した指の動きの情報を、ゲーム内の仮想空間でのキャラクタの手の動き等に反映させる処理を行う場合、仮想空間内でのキャラクタの手の大きさ等の身体の大きさと、ユーザ自身の手の大きさ等の身体の大きさとの差が大きくなると、ユーザが触れていないと考えている距離でキャラクタが仮想空間内の物体に触れてしまったり、ユーザがつかんだと考えた物体に、仮想空間内のキャラクタの手が届いていないといった判断がされてしまう場合があり、没入感が低下し、操作性が低いと感じられる場合があった。
本発明は上記実情に鑑みて為されたもので、操作性を向上できる情報処理装置、制御方法、プログラム、及び記憶媒体を提供することを、その目的の一つとする。
本発明の一態様に係る情報処理装置は、ユーザの左手に固定された第1デバイスと右手に固定された第2デバイスとに接続される情報処理装置であって、前記第1デバイスと第2デバイスとの位置を検出する検出手段と、前記検出した位置の差に基づいて、ユーザの手の大きさに関する情報を演算する演算手段と、を含むこととしたものである。
これにより、ユーザの手の大きさ等の情報が得られ、操作性を向上できる。
本発明の実施の形態の情報処理装置に接続されるデバイスの例を表す概略斜視図である。 本発明の実施の形態の情報処理装置に接続されるデバイスの構成例を表すブロック図である。 本発明の実施の形態の情報処理装置の構成例を表すブロック図である。 本発明の実施の形態の情報処理装置の例を表す機能ブロック図である。 本発明の実施の形態の情報処理装置が位置検出を行う際のユーザの手のポーズの例を表す説明図である。 本発明の実施の形態の情報処理装置の処理例を表すフローチャート図である。 本発明の実施の形態の情報処理装置が位置検出を行う際のユーザの手のポーズの別の例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
本発明の実施の形態に係る情報処理装置1は、例えば家庭用ゲーム機等のコンピュータ機器であり、この情報処理装置1にはデバイス20が接続される。
デバイス20は、ユーザの左手または右手に装着されて固定されるコントローラデバイス等である。以下の説明において、ユーザの左手に固定されるデバイス20と、右手に固定されるデバイス20とを区別する必要がある場合は、ユーザの左手に固定されるデバイス20をデバイス20L、ユーザの右手に固定されるデバイス20をデバイス20RとそれぞれL,Rの符号を付して区別する。
このデバイス20の一例は、図1にその概要を例示するように、デバイス本体210と、このデバイス本体210に固定された固定具220とを含んで構成される。また、このデバイス20は、図2に示すように、制御部21と、記憶部22と、操作インタフェース23と、センサ部24と、通信部25とを含んだ回路部を含んで構成される。本実施の形態の例では、この回路部は、デバイス本体210内に収納される。
デバイス本体210は、ユーザの左手に装着されるものと、右手に装着されるものとで、それぞれの形状が互いに同一となっていてよい。本実施の形態の例では、固定具220は可撓性あるベルトを環状としたものであり、この固定具220にユーザの人差指、中指、薬指、及び小指を通し、デバイス本体210をユーザの親指の付根(人差指、中指、薬指、及び小指のMP関節に相当する位置)に当接させた位置に固定して用いる。
デバイス本体210は、ユーザにより把持される把持部211と、操作部212と、位置提示部213とを含む。把持部211は、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図1の例では、ボタン操作部231を含む。またこのデバイス本体210の背面側(デバイス本体210の側面をユーザの手の平に当接させて固定したときに指側に向いた面の側)には、後に説明するセンサ部24の指センサ241が設けられている。位置提示部213は、デバイス本体210の比較的上方(ユーザの手に固定した際、親指側)背面に配され、例えばLED等の発光素子を少なくとも一つ含んで構成される。この位置提示部213は、デバイス20の動作中はデバイス20ごとに固有の、予め指定された色の光を発光するものとする。またこの位置提示部213は、デバイス20ごとに固有な色のマーカー等、各デバイス20の位置をそれぞれ外部から検出できればよく、必ずしも発光素子を用いなくてもよい。
またこのデバイス20の大きさは、ユーザが自然にデバイス本体210を把持したときに、その一方端がユーザの親指(いわゆる親指)の先端が到達する位置よりやや外側に位置し、その他方端が、小指の付け根(MP関節に相当する位置)からやや突出する位置にある程度の大きさとする。なおデバイス20は、デバイス20を装着した状態でユーザが手を開いても、固定具220によりユーザの手に固定されるので、落下することはない。
本実施の形態の一例において、指センサ241は光学センサであり、赤外光を放射する発光部と、赤外光を検出する受光部とを有し、発光部から放射された光が対象物に反射して受光部に入射する割合を測定することで、障害物までの距離を検出する。この指センサ241の位置からデバイス本体210の背面側(デバイス本体210の側面をユーザの手の平に当接させて固定したときに指側に向いた面)にある障害物までの距離を検出する。この例では、ユーザがデバイス本体210を手に固定し、指を伸ばした状態からデバイス本体210を握り込む形まで手を動かすとき、指センサ241は指を伸ばした状態では、ユーザの指の先端の方向にある障害物(例えばユーザが指を下方に向けた状態であれば床面等)までの距離を検出することとなる。その後、ユーザの指が曲げられると、指の第2関節または第3関節の表面までの距離が検出され、ユーザがデバイス本体210を握り込んだ状態では、指センサ241に指の表面が接するため、この指センサ241が検出する距離は「0」となる。
なお、この指センサ241は、少なくとも人差指、中指、薬指、小指のそれぞれに対応して設けられ、それぞれが障害物までの距離の情報を得てもよいし、人差指、中指、薬指、及び小指のうち一部の指(一つの指だけでもよい)に対応して設けられ、それぞれが障害物までの距離の情報を得るものであってもよい。さらに指センサ241は、5個以上備えられ、デバイス20の背面側(デバイス本体210の側面をユーザの手の平に当接させて固定したときに指側に向いた面)に一列に配されていてもよい。またこの指センサ241は、所定のタイミングごとに繰り返して障害物までの距離を検出し、当該検出した距離の情報を出力するものとする。
本実施の形態では、ここで制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態ではこの制御部21は、操作インタフェース23からユーザが操作部212においてした操作の内容を表す情報の入力を受け、当該情報を、通信部25を介して情報処理装置1へ出力する。またこの制御部21は、センサ部24に含まれるセンサが出力する情報を、通信部25を介して情報処理装置1へ出力する。
記憶部22は、メモリデバイス等であり、制御部21によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部22に複写されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作する。
操作インタフェース23は、操作部212にてユーザが行った操作の内容を表す情報を制御部21に出力する。センサ部24は、少なくとも一つのセンサを含み、当該センサが出力する情報を制御部21に出力する。本実施の形態の一例では、このセンサ部24は、既に説明した指センサ241のほか、デバイス20のデバイス本体210の傾きを検出する傾斜センサ242、及び、衝撃センサ243を含んでもよい。
ここで傾斜センサ242は、デバイス本体210の長手方向の軸まわりの回転角の情報と、長手方向の軸の重力の向きに対する角度の情報とを検出して出力する。衝撃センサ243は加速度センサであり、デバイス20を装着している手(指を含む)が他の物体(もう一方の手など)に当たり、衝撃が生じたときに、当該衝撃を検出して、衝撃を検出した旨の情報を出力する。
通信部25は、USBインタフェース等の有線インタフェースや、ブルートゥース(登録商標)等の無線インタフェースであり、制御部21から入力される指示に従い、種々の情報を情報処理装置1に対して出力している。
情報処理装置1は、図3に例示するように、制御部11と、記憶部12と、インタフェース部13と、撮像部14と、出力部15とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では制御部11は、ユーザの左手に固定された第1デバイスと右手に固定された第2デバイスとの位置を検出し、当該検出した位置の差に基づいて、ユーザの手の大きさに関する情報を演算する。この制御部11の具体的な処理の内容については、後に詳しく述べる。
記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。本実施の形態の例では、この記憶部12は、平均的なユーザの身体の部位ごとの長さや大きさの比に関する身体比のデータベースを保持している。
インタフェース部13は、デバイス20に無線又は有線にて接続され、デバイス20からユーザの操作の内容を表す情報や、指センサ241において検出した距離の情報(指センサ241が各指に対応して複数ある場合は、各指に対応する指センサ241が検出した複数の距離の情報)を受け入れ、制御部11に出力する。
撮像部14は、ユーザの位置する範囲を撮像範囲として設置されたカメラ等であり、ユーザを含む画像を所定のタイミングごとに繰り返して撮像し、当該画像のデータを制御部11に出力する。
出力部15は、例えばHDMI(登録商標)インタフェース等、家庭用テレビジョンに対して映像等を出力するインタフェースを有する。この出力部15は、制御部11から入力される指示に従い、表示するべき映像の情報を出力する。
次に本実施の形態の制御部11の動作について説明する。本実施の形態の制御部11は、機能的には図4に例示するように、計測処理部110と、アプリケーション処理部120とを含んで構成される。また計測処理部110は、デバイス位置検出部111と、演算部112とを含む。
計測処理部110は、起動時やデバイス20の接続時、あるいはアプリケーション処理部120からの指示が入力されたときなどの所定のタイミングで動作を開始する。この計測処理部110のデバイス位置検出部111は、計測処理部110の動作が開始されると、撮像部14が出力する画像データからデバイス20の位置提示部213を検出する。
具体的にこのデバイス位置検出部111は、撮像部14が出力する画像データを受け入れて、当該画像データ中から、ユーザの左右の手にそれぞれ固定されているデバイス20L,20Rの位置提示部213L,213Rの位置を検出する。このような位置提示部の検出方法は広く知られているので、ここでの詳しい説明を省略する。
このデバイス位置検出部111は、例えば撮像部14のカメラの光軸方向をz軸、撮影された画像の水平方向をx軸,垂直方向をy軸としたx,y,z直交座標系での表される位置の情報を得る。つまりこのデバイス位置検出部111は、デバイス20Lの位置提示部213Lの位置の情報PL(xL,yL,zL)と、デバイス20Rの位置提示部213Rの位置の情報PR(xR,yR,zR)とを得るものとする。
演算部112は、デバイス位置検出部111がユーザの左右の手にそれぞれ固定されているデバイス20L,20Rの位置提示部213L,213Rの位置を検出すると、当該検出されたデバイス20L,20Rの位置提示部213L,213Rの位置の差を演算し、この位置の差に基づいてこれらデバイス20L,20R間の距離の情報を演算して求める。そしてこの演算部112は、当該距離の情報に基づいてユーザの手の大きさに関する情報を演算する。
本実施の形態の一例では、ユーザの手に固定されたデバイス20が情報処理装置1に接続された後、所定のポーズを行ってデバイス20の初期化をするようユーザに求めておく。一例として、この求めは紙に印刷された状態でユーザに提示されてもよいし、後に述べるように、「次のポーズを行ってください」といった映像を表示するよう、出力部15に指示を行ってもよい。また、ここで所定のポーズは、例えば図5に例示するように、左右の手を開いて双方の手の平を手前に向け、指を伸ばした状態で中指の先端同士を当接させ、左右の中指の長さ方向が一直線上にあるようにした状態とするポーズとする。
この例では演算部112は、ユーザの手に固定されたデバイス20が情報処理装置1に接続された後、ユーザが手を上記所定のポーズとしているものとして、左手に固定されたデバイス20Lの位置提示部213Lの位置の情報PL、及び右手に固定されたデバイス20Rの位置提示部213Rの位置の情報PRを得る。演算部112は、得られた情報が表す位置の間の距離を演算する。この演算された距離はデバイス20間の距離を表し、デバイス20は人差指、中指、薬指及び小指のMP関節に相当する位置に固定されているので、ユーザが手を上記所定のポーズとしている場合、この距離は左手の中指と右手の中指との長さの和に相当する。
演算部112は、記憶部12に格納されている、平均的なユーザの身体の部位ごとの長さや大きさの比に関する身体比のデータベースを参照し、演算した距離の1/2を、ユーザの中指の長さとして、中指の長さに対するユーザの身体の部位の長さや大きさ(例えば身長、腕の長さ等)の比の情報を用いて、必要なユーザの身体の部位の長さや大きさの情報を得て、アプリケーション処理部120に対して出力する。
アプリケーション処理部120は、例えばゲームアプリケーションなどのアプリケーションプログラムを実行する。このアプリケーション処理部120は、アプリケーションプログラムに従い、計測処理部110に対して計測の処理を行うよう指示してもよい。また、このアプリケーション処理部120は、例えば、仮想空間内でユーザにより制御されるキャラクタを表示する。このときアプリケーション処理部120は、計測処理部110が出力するユーザの身体の部位の長さや大きさの情報に基づき、仮想空間内でのキャラクタの身体の対応する部位の長さや大きさを設定して、表示内容に反映する。
例えば、アプリケーション処理部120は、予め、キャラクタの手の大きさを、平均的な手の大きさ(デフォルトの大きさ)に対応する手の大きさとして設定しておく。そして、アプリケーション処理部120は、計測処理部110が出力する手の大きさの情報(手の幅、つまり手の平の小指側の側面から親指付け根までの長さと、手首から中指の指先までの長さとを含む情報)に基づき、上記デフォルトの大きさと、入力された手の大きさの情報との比rを求め、当該比rに応じてキャラクタの手の大きさをr倍して補正して、表示するキャラクタの手の大きさを設定する。
なお、このとき、キャラクタ全体の大きさをr倍して補正することとしてもよいし、キャラクタの手の部分のみ(キャラクタの身体の一部のみ)をr倍して補正するなど、キャラクタの少なくとも一部分に対し、計測処理部110から入力される情報に基づく大きさの補正を行ってもよい。
またキャラクタは、必ずしも人体を模したものである必要はなく、動物や架空の生物の形状をなしてもよいし、手のみのキャラクタ等、他のオブジェクトであってもよい。これらのときにも、アプリケーション処理部120は、当該オブジェクトの全体または当該オブジェクトの少なくとも一部に対して、計測処理部110から入力される情報に基づく大きさの補正を行ってもよい。
そしてアプリケーション処理部120は、デバイス20で検出した指の動きの情報等に基づき、上記方法で少なくとも一部の大きさが設定された、仮想空間でのキャラクタ等のオブジェクトの動き等に反映させる処理を行う。
このように少なくとも一部分の大きさが補正されたオブジェクト(キャラクタ等)を表示することで、本実施の形態の情報処理装置1は、ユーザの身体の大きさと、ユーザに対して提示されるオブジェクトとの大きさのユーザの認知上の相違を低減する。
[動作]
本実施の形態の情報処理装置1は以上の構成を基本的に備えており、次のように動作する。なお、ユーザは一対のデバイス本体210を、それぞれユーザの左右の手の親指の付根近傍(人差指、中指、薬指、及び小指のMP関節に相当する範囲)に当接させた位置に固定しておくものとする。
ユーザが情報処理装置1を起動して、デバイス20と情報処理装置1との通信が開始されると、情報処理装置1は、図6に例示する処理を開始し、デバイス20に位置提示部213であるLEDを点灯させる(S1)。このときユーザは予め求められている所定の手のポーズ(例えば図5に例示した、左右の手を開いて指を伸ばした状態で中指の先端同士を当接させた状態とするポーズ)をとる。
情報処理装置1は、ユーザがポーズをとっている状態となるまで一定の時間だけ待機する(S2)。なお、ここでは単にその状態となるまでの予め定めた時間だけ待機することとしているが、本実施の形態は後に説明するように、これに限られない。また、処理S1とS2とはこの順序が逆であってもよい。つまり一定の時間だけ待機した後に、位置提示部213であるLEDを点灯させてもよい。情報処理装置1は、撮像部14が出力する画像データから、ユーザの左右の手にそれぞれ固定されているデバイス20L,20Rの位置提示部213L,213Rの位置を検出する(S3)。
そして情報処理装置1は、左手に固定されたデバイス20Lの位置提示部213Lの位置の情報PL、及び右手に固定されたデバイス20Rの位置提示部213Rの位置の情報PRを得る。そして情報処理装置1は、得られた情報が表す位置の間の距離を演算する(S4)。デバイス20は人差指、中指、薬指、及び小指のMP関節に相当する位置に固定されているので、ユーザが手を図5に例示したポーズとしている場合、この距離は左手の中指と右手の中指との長さの和に相当する。
情報処理装置1は、演算した距離の1/2を、ユーザの中指の長さとして、身体比のデータベースを参照して、中指の長さに対するユーザの身体の部位の長さや大きさ(例えば身長、腕の長さ、手の大きさ等)の比を用いて、必要なユーザの身体の部位の長さや大きさの情報を得て(S5)、アプリケーションの処理に供する(S6)。
[案内を行う例]
また、本実施の形態の情報処理装置1は、計測前にユーザに対して手のポーズを案内してもよい。この例では、制御部11の計測処理部110が、起動時やデバイス20の接続時、あるいはアプリケーション処理部120からの指示が入力されたときに動作を開始すると、デバイス位置検出部111が、予め設定された、所定の手のポーズをとるよう求める映像を出力部15に出力する。この映像は、例えば図5に例示した手のポーズの画像と、「このポーズをとってください」といった案内を表示するものである。
そして情報処理装置1は、例えば予め定めた時間(ユーザが手のポーズをとるのに要すると考えられる時間)が経過した後、撮像部14が出力する画像データを受け入れて、当該画像データ中から、ユーザの左右の手にそれぞれ固定されているデバイス20L,20Rの位置提示部213L,213Rの位置を検出する処理を行う。以下の計測処理部110の動作については既に述べた例と同様とする。
この例では、手のポーズの案内が行われるので、ユーザが計測のタイミングやとるべきポーズを把握しやすくなる。
[計測方法の別の例]
また、ここでの例では、左右の手に取り付けられたデバイス20のそれぞれの位置を検出して、デバイス20間の距離を演算し、それによりユーザの身体の部位の長さの一例である指の長さを得る例について説明したが、本実施の形態におけるユーザの身体の部位の長さの計測方法はこれに限られない。本実施の形態の別の例では、デバイス20の指センサ241を用いて、指の長さ等を計測してもよい。
具体的に、先の図5の例のような手のポーズをユーザがとっている場合に、左または右手のいずれか一方のデバイス20の指センサ241が赤外光を放射し、当該放射された光が障害物に反射して受光部に入射する割合を測定して、障害物までの距離を検出すると、指が曲げられていないので、他方のデバイス20が障害物となって、他方のデバイス20までの距離が検出されることとなる。
そこで本実施の形態のこの例では、ユーザが情報処理装置1を起動して、デバイス20と情報処理装置1との通信が開始されると、情報処理装置1が、ユーザがポーズをとっている状態となるまで一定の時間だけ待機し、ユーザの左右の手にそれぞれ固定されたデバイス20L,20Rのいずれかに対し、指センサ241による計測を行うべき旨の指示を出力する。そしてこの指示を受けた、一方の手に固定されたデバイス20の指センサ241が赤外光を放射し、当該放射された光が障害物に反射して受光部に入射する割合を測定して、障害物までの距離を検出する。
このとき検出される距離は、他方の手に固定されたデバイス20までの距離であり、デバイス20は人差指、中指、薬指、及び小指のMP関節に相当する位置に固定されているので、ユーザが手を図5に例示したポーズとしている場合、この距離は左手の中指と右手の中指との長さの和に相当する。そして計測を行ったデバイス20が当該検出した距離を出力し、情報処理装置1が演算した距離の1/2を、ユーザの中指の長さとして、身体比のデータベースを参照して、中指の長さに対するユーザの身体の部位の長さや大きさ(例えば身長、腕の長さ、手の大きさ等)の比を用いて、必要なユーザの身体の部位の長さや大きさの情報を得て、アプリケーションの処理に供する。
また、ここまでの説明では中指の長さを計測することとしていたが、本実施の形態では、中指の長さに代えて他の指の長さを計測することとしてもよい。この場合も、計測された指の長さに基づき、身体比のデータベースを参照して、当該計測された指の長さに対するユーザの身体の部位の長さや大きさ(例えば身長、腕の長さ、手の大きさ等)の比を用いて、必要なユーザの身体の部位の長さや大きさの情報を得て、アプリケーションの処理に供してもよい。
また、本実施の形態では、複数の指の長さ(例えば各指の長さ)を計測してもよい。この場合、実際に計測された指の長さに基づいて、仮想空間内でのキャラクタの身体の対応する指の長さや大きさを設定して、表示内容に反映することとしてもよい。
さらに、本実施の形態において計測の対象は、指の長さだけでなく、手の平の幅を計測してもよい。この例では、デバイス20は、5個以上の指センサ241a,b,…を備え、デバイス20の背面側(デバイス本体210の側面をユーザの手の平に当接させて固定したときに指側に向いた面)に、これらの指センサ241a,b,…が一列に配されるものとする。また、各指センサ241a,b…の位置を表す情報が記憶部12に格納されているものとする。この位置の情報は例えばデバイス20の上端から各指センサ241a,b…までの長さLa,Lb…としておいてもよい。以下、各指センサ241a,b…を互いに区別する必要がないときには、それぞれを指センサ241と略記する。
このときユーザがデバイス20を握るようにして指を閉じるとデバイス20の指が存在する範囲にある指センサ241は障害物までの距離として比較的短い距離を検出し、指が存在する範囲外の指センサ241は障害物までの距離として比較的長い距離を検出することとなる。そこで、予め定めたしきい値より短い距離を検出している指センサ241のうち、デバイス20の上側の端の指センサ241xと、下側の端の指センサ241yとを特定し、それらの間の長さ(|Ly-Lx|、ただし|X|はXの絶対値を意味する)を演算すれば、ユーザの手の平の幅が計測可能となる。すなわちこの場合、一列に配した5個以上の指センサが手の平の幅を検出するセンサに相当する。
この例でも、情報処理装置1が演算した長さを、ユーザの手の平の幅として、身体比のデータベースを参照して、手の平の幅に対するユーザの身体の部位の長さや大きさ(例えば身長、腕の長さ、手の大きさ等)の比を用いて、必要なユーザの身体の部位の長さや大きさの情報を得て、アプリケーションの処理に供する。
例えば情報処理装置1は、表示するキャラクタの身体の少なくとも一部の大きさや長さを、上記得られたユーザの身体の部位の大きさや長さの情報に基づいて設定して表示する。
[手のポーズの別の例]
また本実施の形態において、計測時にユーザに求める手のポーズは、図5に例示したものに限られない。このポーズは、例えば図7(a)に例示するように、左右の手を開いて双方の手の平を手前に向け、指を伸ばした状態で人差指の先端同士を当接させた状態とするポーズなど、中指以外の同じ指の指先同士を当接させるポーズであってもよい。これらの場合、演算される距離は当接させた指の長さの2倍に相当すると考えられるので、情報処理装置1が演算した距離の1/2を、ユーザの当該当接させた指の長さとして、身体比のデータベースを参照して、求める部位の長さや大きさの情報を得る。
さらに計測時の手のポーズは図7(b)に例示するように、両手の平を手前にして、両手の小指側の側面同士を当接させるポーズとしてもよい。この場合、デバイス20の上面側に配された位置提示部213の位置を検出して、その距離を演算すると、当該距離はおおよそユーザの手の平の幅の2倍に相当するので、情報処理装置1が演算した距離の1/2を、ユーザの手の平の幅として、身体比のデータベースを参照して、求める部位の長さや大きさの情報を得る。
さらに別の例では、計測時の手のポーズは図7(c)に例示するように、指を伸ばした状態で壁面に指(最も長い中指)を当接させるポーズとしてもよい。この場合は指センサ241によってデバイス20から壁までの距離を計測できる。この例の場合、情報処理装置1が演算した長さが、ユーザの中指の長さとして、身体比のデータベースを参照して、中指の長さに対するユーザの身体の部位の長さや大きさ(例えば身長、腕の長さ、手の大きさ等)の比を用いて、必要なユーザの身体の部位の長さや大きさの情報を得て、アプリケーションの処理に供する。
さらにこの計測時の手のポーズは、アプリケーション処理部120により指示されてもよい。すなわち、アプリケーション処理部120がゲームプログラム等のアプリケーションの処理において、ユーザにどのような手のポーズを求めるかを提示してもよい。具体的にはゲームアプリケーションの実行時に、ユーザに、「肩をつかめ!」などの指示を行い、演算により得た距離を両肩間の長さとして、身体比のデータベースを参照して、求める部位の長さや大きさの情報を得てもよい。
このように本実施の形態では、計測時の手のポーズごとに、演算によって得られた距離の情報が、ユーザの身体の長さのうちどの長さに比例する値を計測しているのかが異なることとなるため、アプリケーション処理部120は、ポーズの指示とともに、当該指示によるポーズがとられたときに、演算によって得られた距離がどの部位の長さに相当するかを表す情報や、その長さに対する比など、必要な部位の長さや大きさを求めるために必要な情報を併せて提供する。情報処理装置1の計測処理部110は、当該提供された情報を用いて、必要とされる部位の長さや大きさを求め、アプリケーション処理部120に情報を出力する。
[計測のタイミング]
また、ここまでの説明では、計測のタイミングは、ポーズを案内してからまたは起動後にユーザが手のポーズをとるのに要すると考えられる時間だけ待機したタイミングとしていたが、本実施の形態はこれに限られない。
本実施の形態のある例では、計測のタイミングは、案内の後、左手に固定されたデバイス20Lと右手に固定されたデバイス20Rとの少なくとも一方の衝撃センサ243が衝撃を検出したタイミング、または左手に固定されたデバイス20Lと右手に固定されたデバイス20Rとの双方の衝撃センサ243が一斉に衝撃を検出したタイミングとしてもよい。この計測処理部110は、このタイミングでユーザの手が前記案内されたポーズとなったと判断して、計測の処理を行う。
本実施の形態のこの例では、ユーザが情報処理装置1を起動して、デバイス20と情報処理装置1との通信が開始されると、予め設定された、所定の手のポーズをとるよう求める映像を出力部15に出力する。この映像は、例えば図5または図7に例示した手のポーズの画像と、「このポーズをとってください」といった案内を表示するものである。
そして情報処理装置1は、ユーザがポーズをとっている状態となるまで待機する。情報処理装置1が出力し、家庭用テレビジョン等に表示されたポーズをユーザがとると、左右の手が接触した(指が当接した)ときに、左手に固定されたデバイス20Lと右手に固定されたデバイス20Rとの双方の衝撃センサ243が一斉に衝撃を検出して、その旨を表す信号を出力する。情報処理装置1は、左手に固定されたデバイス20Lと右手に固定されたデバイス20Rとの双方の衝撃センサ243が一斉に衝撃を検出した旨の信号を出力したときに、ユーザの手が前記案内されたポーズとなったと判断し、デバイス20に位置提示部213であるLEDを点灯させるとともに、撮像部14が出力する画像データから、ユーザの左右の手にそれぞれ固定されているデバイス20L,20Rの位置提示部213L,213Rの位置を検出する。
そして情報処理装置1は、左手に固定されたデバイス20Lの位置提示部213Lの位置の情報PL、及び右手に固定されたデバイス20Rの位置提示部213Rの位置の情報PRを得る。そして情報処理装置1は、得られた情報が表す位置の間の距離を演算する。ここでユーザが手を図5に例示したポーズとしている場合、この距離は左手の中指と右手の中指との長さの和に相当する。
情報処理装置1は、演算した距離の1/2を、ユーザの中指の長さとして、身体比のデータベースを参照して、中指の長さに対するユーザの身体の部位の長さや大きさ(例えば身長、腕の長さ、手の大きさ等)の比を用いて、必要なユーザの身体の部位の長さや大きさの情報を得て、アプリケーションの処理に供する。
また本実施の形態の別の例では、衝撃センサ243が衝撃を検出したタイミングに代えて、またはそれとともに各傾斜センサ242が検出する検出角度の差が予め定めたしきい値の範囲にある状態で、予め定めた時間が経過したときに、ユーザの手が案内されたポーズとなったと判断してもよい。この例では、情報処理装置1は、ユーザがポーズをとっている状態となるまで待機している間に、ユーザの左右の手に固定されたデバイス20L,20Rのそれぞれから、それぞれの傾斜センサ242が検出する検出角度の情報の入力を繰り返し受け入れる。そして情報処理装置1は、ユーザの左の手に固定されたデバイス20Lが出力する検出角度の情報θLと、ユーザの右の手に固定されたデバイス20Rが出力する検出角度の情報θRとの差Δθ=|θL-θR|を求める。ここで|X|はXの絶対値を意味する。
そして情報処理装置1は、このΔθが予め定めたしきい値θth_minを上回り、θth_maxを下回る状態となるまで(各傾斜センサ242が検出する検出角度の差が予め定めたしきい値の範囲にある状態となるまで)待機し、Δθが予め定めたしきい値の範囲にあるときには、そのときの時刻を、図示しない計時部から取得する。その後、情報処理装置1は、この取得した時刻から予め定めた時間(例えば2秒)だけ後の時刻となるまでの間に、ユーザの左右の手に固定されたデバイス20L,20Rのそれぞれから入力された検出角度の情報により演算されるΔθが上記しきい値の範囲を逸脱したならば、再度、Δθが予め定めたしきい値の範囲となるまで待機する処理に戻る。一方、取得した時刻から予め定めた時間だけ後の上記時刻となるまでの間にユーザの左右の手に固定されたデバイス20L,20Rのそれぞれから入力された検出角度の情報により演算されるΔθが上記しきい値の範囲を逸脱することがなければ、ユーザの手が案内されたポーズとなったと判断して、デバイス20に位置提示部213であるLEDを点灯させるとともに、撮像部14が出力する画像データから、ユーザの左右の手にそれぞれ固定されているデバイス20L,20Rの位置提示部213L,213Rの位置を検出する。本実施の形態のこの例では、ユーザの手の平の方向が指定したポーズの状態となっているかまでを含めて判断できる。
1 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 撮像部、15 出力部、20 デバイス、21 制御部、22 記憶部、23 操作インタフェース、24 センサ部、25 通信部、110 計測処理部、111 デバイス位置検出部、112 演算部、120 アプリケーション処理部、210 デバイス本体、211 把持部、212 操作部、213 位置提示部、220 固定具、231 ボタン操作部、241 指センサ、242 傾斜センサ、243 衝撃センサ。

Claims (7)

  1. ユーザの手に固定されたデバイスに接続される情報処理装置であって、
    当該ユーザが手を所定のポーズとしている状態でユーザの手の大きさに関する情報を取得する手段と、
    当該取得した手の大きさに関する情報を用いて、所定の情報処理を行う手段と、を含み、
    前記所定の情報処理を行う手段は、
    前記ユーザの手の大きさに関する情報を取得するまでは所定のオブジェクトの大きさを、予め定めたデフォルトの大きさに設定し、
    前記ユーザの手の大きさに関する情報を取得すると、前記所定のオブジェクトの大きさを前記手の大きさに関する情報に基づいて設定する情報処理装置。
  2. ユーザの手に固定されたデバイスに接続される情報処理装置であって、
    当該ユーザが手を所定のポーズとしている状態でユーザの手の大きさに関する情報を取得する手段と、
    当該取得した手の大きさに関する情報を用いて、所定の情報処理を行う手段と、を含み、
    前記ユーザの手の大きさに関する情報を取得する手段は、
    前記ユーザが手を所定のポーズとしている状態で、前記デバイスと障害物との距離を検出し、当該検出した距離の情報に基づいて、前記ユーザの手の大きさに関する情報を演算して取得する情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記所定のポーズは、指を伸ばした状態で、前記障害物としての壁面に、指の先を当接させるポーズであり、前記ユーザの手の大きさに関する情報を取得する手段は、前記壁面までの距離を指の長さとして検出し、当該検出した指の長さの情報に基づいて、前記ユーザの手の大きさに関する情報を演算して取得する情報処理装置。
  4. 請求項1から3のいずれか一項に記載の情報処理装置であって、
    前記ユーザの手の大きさに関する情報を取得するまでは所定のオブジェクトの大きさを、予め定めたデフォルトの大きさに設定し、
    前記ユーザの手の大きさに関する情報を取得すると、前記所定のオブジェクトの大きさを前記手の大きさに関する情報に基づいて設定し、
    前記オブジェクトは、キャラクタであり、オブジェクトの大きさは当該キャラクタの手の大きさ、または当該キャラクタの全体の大きさである情報処理装置。
  5. 請求項1から4のいずれか一項に記載の情報処理装置であって、
    前記デバイスは、それぞれが障害物までの距離を検出する、複数の指センサを備え、
    前記ユーザの手の大きさに関する情報を取得する手段は、ユーザが前記デバイスを握るポーズをしている状態で、前記指センサのそれぞれが検出した障害物までの距離に基づいて、ユーザの手の大きさに関する情報を取得する情報処理装置。
  6. ユーザの手に固定され、ユーザの指の動きの情報を検出するデバイスに接続される情報
    処理装置を用い、
    取得手段が、当該ユーザが手を所定のポーズとしている状態でユーザの手の大きさに関する情報を取得する工程と、
    情報処理手段が、前記デバイスが検出した指の動きの情報と、前記取得した手の大きさに関する情報を用いて、所定の情報処理を行う工程と、
    を含み、
    前記所定の情報処理を行う工程では、
    前記ユーザの手の大きさに関する情報を取得するまでは所定のオブジェクトの大きさを、予め定めたデフォルトの大きさに設定し、
    前記ユーザの手の大きさに関する情報を取得すると、前記所定のオブジェクトの大きさを前記手の大きさに関する情報に基づいて設定する情報処理装置の制御方法。
  7. ユーザの手に固定され、ユーザの指の動きの情報を検出するデバイスに接続される情報処理装置を、
    当該ユーザが手を所定のポーズとしている状態でユーザの手の大きさに関する情報を取得する手段と、
    前記デバイスが検出した指の動きの情報と、前記取得した手の大きさに関する情報を用いて、所定の情報処理を行う手段と、
    として機能させ、
    前記所定の情報処理を行う手段として機能させる際には、コンピュータに、
    前記ユーザの手の大きさに関する情報を取得するまでは所定のオブジェクトの大きさを、予め定めたデフォルトの大きさに設定させ、
    前記ユーザの手の大きさに関する情報を取得すると、前記所定のオブジェクトの大きさを前記手の大きさに関する情報に基づいて設定させるプログラム。
JP2020091575A 2016-10-28 2020-05-26 情報処理装置、制御方法、プログラム、及び記憶媒体 Active JP7057389B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016212078 2016-10-28
JP2016212078 2016-10-28

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018547602A Division JP6710285B2 (ja) 2016-10-28 2017-10-18 情報処理装置、制御方法、プログラム、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2020140727A JP2020140727A (ja) 2020-09-03
JP7057389B2 true JP7057389B2 (ja) 2022-04-19

Family

ID=62024888

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018547602A Active JP6710285B2 (ja) 2016-10-28 2017-10-18 情報処理装置、制御方法、プログラム、及び記憶媒体
JP2020091575A Active JP7057389B2 (ja) 2016-10-28 2020-05-26 情報処理装置、制御方法、プログラム、及び記憶媒体

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018547602A Active JP6710285B2 (ja) 2016-10-28 2017-10-18 情報処理装置、制御方法、プログラム、及び記憶媒体

Country Status (3)

Country Link
US (1) US11281292B2 (ja)
JP (2) JP6710285B2 (ja)
WO (1) WO2018079382A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11181972B2 (en) * 2017-10-26 2021-11-23 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and program
JP6997881B2 (ja) * 2018-10-19 2022-01-18 株式会社ソニー・インタラクティブエンタテインメント コントローラ装置の制御装置
CN110801372A (zh) * 2019-12-11 2020-02-18 上海司羿智能科技有限公司 手指关节康复训练装置
WO2022011344A1 (en) * 2020-07-10 2022-01-13 Arizona Board Of Regents On Behalf Of Arizona State University System including a device for personalized hand gesture monitoring
CN112603275B (zh) * 2020-12-28 2022-07-29 中科彭州智慧产业创新中心有限公司 基于超声波传感器的双手寸口脉搏波检测设备及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222097A (ja) 1996-10-18 2000-08-11 Toshiba Corp 固体撮像装置
JP2002032788A (ja) 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2011523730A (ja) 2008-04-21 2011-08-18 パナソニック株式会社 手持ち式機器のユーザを識別する方法およびシステム
JP2013123940A (ja) 2011-12-13 2013-06-24 Nec Access Technica Ltd 移動体の制御装置、移動体の制御方法及び移動体の制御プログラム並びに移動体
US20140235225A1 (en) 2011-10-27 2014-08-21 Qualcomm Incorporated Controlling access to a mobile device
WO2016038953A1 (ja) 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020175894A1 (en) * 2001-03-06 2002-11-28 Vince Grillo Hand-supported mouse for computer input
JP5270930B2 (ja) * 2008-02-28 2013-08-21 パナソニック株式会社 ストラップ装置を備えた電子装置
US8384565B2 (en) * 2008-07-11 2013-02-26 Nintendo Co., Ltd. Expanding operating device and operating system
US8953029B2 (en) 2009-05-08 2015-02-10 Sony Computer Entertainment America Llc Portable device interaction via motion sensitive controller
JP5433448B2 (ja) 2010-02-01 2014-03-05 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲーム用プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222097A (ja) 1996-10-18 2000-08-11 Toshiba Corp 固体撮像装置
JP2002032788A (ja) 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2011523730A (ja) 2008-04-21 2011-08-18 パナソニック株式会社 手持ち式機器のユーザを識別する方法およびシステム
US20140235225A1 (en) 2011-10-27 2014-08-21 Qualcomm Incorporated Controlling access to a mobile device
JP2013123940A (ja) 2011-12-13 2013-06-24 Nec Access Technica Ltd 移動体の制御装置、移動体の制御方法及び移動体の制御プログラム並びに移動体
WO2016038953A1 (ja) 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法

Also Published As

Publication number Publication date
US20190235626A1 (en) 2019-08-01
US11281292B2 (en) 2022-03-22
WO2018079382A1 (ja) 2018-05-03
JP2020140727A (ja) 2020-09-03
JPWO2018079382A1 (ja) 2019-07-18
JP6710285B2 (ja) 2020-06-17

Similar Documents

Publication Publication Date Title
JP7057389B2 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
US10969867B2 (en) Information processing system, controller device, controller device control method and program
US10809825B2 (en) Control apparatus and control program for determining how a controller device is worn
US11596858B2 (en) Operating device and control system
EP3425481A1 (en) Control device
JP7000593B2 (ja) 情報処理システム、コントローラ装置、情報処理装置、及びプログラム
JP5967995B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および判別方法
CN110520822B (zh) 控制装置、信息处理系统、控制方法和程序
JPWO2019123530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
TWI788607B (zh) 人機交互系統和人機交互方法
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2013186410A (ja) 可搬型表示装置
RU2670649C1 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
JP6687749B2 (ja) 情報処理装置、制御方法、プログラム、及び記録媒体
JP6910485B2 (ja) 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム
JP6932267B2 (ja) コントローラ装置
TW202117499A (zh) 虛擬物件操作系統及虛擬物件操作方法
WO2023037548A1 (ja) 情報処理システム、コントローラ装置、その制御方法、及びプログラム
JP2014146354A (ja) プログラム、情報入力装置、及びその制御方法
JP2020091774A (ja) プログラム、情報処理装置、情報処理システム、情報処理方法及びヘッドマウントディスプレイ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220407

R150 Certificate of patent or registration of utility model

Ref document number: 7057389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150