JP7441325B2 - 情報処理システム、情報処理プログラムおよび情報処理方法 - Google Patents

情報処理システム、情報処理プログラムおよび情報処理方法 Download PDF

Info

Publication number
JP7441325B2
JP7441325B2 JP2022556713A JP2022556713A JP7441325B2 JP 7441325 B2 JP7441325 B2 JP 7441325B2 JP 2022556713 A JP2022556713 A JP 2022556713A JP 2022556713 A JP2022556713 A JP 2022556713A JP 7441325 B2 JP7441325 B2 JP 7441325B2
Authority
JP
Japan
Prior art keywords
control
input
information processing
parameter
shear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022556713A
Other languages
English (en)
Other versions
JPWO2022079789A1 (ja
Inventor
裕基 水口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Publication of JPWO2022079789A1 publication Critical patent/JPWO2022079789A1/ja
Application granted granted Critical
Publication of JP7441325B2 publication Critical patent/JP7441325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、せん断とモーメントを検出するための操作子を備える情報処理システムに関する。
従来、情報処理装置用の操作子として様々なものが知られている。例えば特許文献1には、コントロールパッドとポインティングスティックが記載されている。コントロールパッドは、円盤状の突起部を有し、その突起部が基準位置から移動した方向を検知する入力デバイスである。一方、ポインティングスティックは、棒状の突起部を有し、その突起部が傾倒した方向を検知する入力デバイスである。
特開2017-16706号公報
従来の入力デバイスには、1つの操作子を介した入力を多様化する余地があった。加えて、多様化された入力を用いてアプリケーション処理を改善する余地があった。
本発明は、このような事情に鑑みてなされたものであり、1つの操作子を介した入力を多様化すること、または、多様化された入力を用いたアプリケーション処理を改善することを目的とする。
上記の課題を解決するため、本発明の一実施形態に係る情報処理システムは、コントローラと一または複数のプロセッサを含む情報処理システムであって、前記コントローラは、ユーザの指によって操作される操作子と、前記操作子に対するユーザ操作を検出する単一または複数のセンサとを備え、前記プロセッサは、前記センサからの出力に基づいて、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを決定し、前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて、前記ユーザが操作する仮想空間内の操作オブジェクトの移動または姿勢の制御である第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて、前記操作オブジェクトの移動または姿勢の制御のいずれとも異なる制御である第2制御を実行する。
前記第2制御は、前記操作オブジェクトに所定のアクションを実行させる制御であってもよい。
前記第2制御は、前記操作オブジェクトの一人称視点または三人称視点に対応する仮想カメラの移動または姿勢の制御であってもよい。
前記第1制御または前記第2制御の一方は前記第1入力または前記第2入力の一方の入力量に応じた段階的な制御であり、他方の制御は他方の入力の入力量に応じた段階的な制御であり、前記第1制御または前記第2制御の一方は他方よりも段階が細かくてもよい。
前記第1制御または前記第2制御の一方が実行されるのに要する前記第1入力または前記第2入力の一方の入力量は、他方の制御が実行されるのに要する他方の入力量に比べて大きくてもよい。
前記第1制御または前記第2制御の一方が前記第1入力または前記第2入力の一方に基づいて実行されているときには、両方の制御が実行されていないときに比べて、他方の制御が実行されるのに要する他方の入力量が大きくてもよい。
前記第1制御または前記第2制御の一方が実行されているときには、他方の制御は実行されないようにしてもよい。
前記第1入力または前記第2入力の一方の入力があるときには、他方の入力に基づく制御が実行されるのに要する入力量が、当該一方の入力がないときに当該他方の入力に基づく制御が実行されるのに要する入力量と比べて大きくてもよい。
前記第1入力があるときの前記第2入力に基づいて前記第2制御を実行する場合において、前記第1入力に基づいて異なる種類の第2制御が実行されてもよい。
前記第2制御は、前記操作オブジェクトに所定のアクションを実行させる制御であり、前記第1入力と前記第2入力の方向とに基づいて異なる種類のアクションが実行されてもよい。
前記第2制御は、前記操作オブジェクトに所定のアクションを実行させる制御であり、前記第1入力と前記第2入力の方向とに基づいて異なる方向へのアクションが実行されてもよい。
前記プロセッサは、前記第1制御と前記第2制御の両方を実行する第1操作モードと、前記第1制御または前記第2制御の一方を実行する第2操作モードの間で、操作モードを切り替えてもよい。
前記第2操作モードにおいて、前記第1入力の入力量と前記第2入力の入力量とに基づいて前記第1制御または前記第2制御が実行されてもよい。
前記コントローラは、前記ユーザの、前記指とは異なる指によって操作される他の操作子と、前記他の操作子に対するユーザ操作を検出する他のセンサとをさらに備え、前記プロセッサは、前記他のセンサからの出力に基づいて、前記他の操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含む他のせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含む他のモーメントパラメータとを決定し、前記第2操作モードにおいて、前記せん断パラメータに基づいて前記操作オブジェクトの移動または姿勢を制御する場合には、前記他のモーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行し、前記モーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行する場合には、前記他のせん断パラメータに基づいて前記操作オブジェクトの移動または姿勢を制御してもよい。
前記ユーザの、前記指とは異なる指によって操作される他の操作子と、前記他の操作子に対するユーザ操作を検出する他のセンサとを備える他のコントローラをさらに備え、前記プロセッサは、前記他のセンサからの出力に基づいて、前記他の操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含む他のせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含む他のモーメントパラメータとを決定し、前記第2操作モードにおいて、前記せん断パラメータに基づいて前記操作オブジェクトの移動または姿勢を制御する場合には、前記他のモーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行し、前記モーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行する場合には、前記他のせん断パラメータに基づいて前記操作オブジェクトの移動または姿勢を制御してもよい。
前記せん断パラメータおよび前記モーメントパラメータは、前記操作子の変位または前記操作子に対して前記ユーザにより付与された力に対応するパラメータであってもよい。
本発明の一実施形態に係る情報処理システムは、コントローラと一または複数のプロセッサを含む情報処理システムであって、前記コントローラは、ユーザの指によって操作される操作子と、前記操作子に対するユーザ操作を検出する単一または複数のセンサとを備え、前記プロセッサは、前記センサからの出力に基づいて、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを決定し、前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて第2制御を実行し、前記第1入力または前記第1入力に基づいて実行される前記第1制御に応じて、前記第2制御の種類または前記第2制御の実行が決定される。
前記第1制御は、前記ユーザが操作する仮想空間内の操作オブジェクトの移動または姿勢の制御であり、前記第2制御は、前記操作オブジェクトの移動または姿勢の制御のいずれとも異なる制御であってもよい。
本発明の一実施形態に係る情報処理プログラムは、コントローラと通信可能に接続される情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、前記コントローラは、ユーザの指によって操作される操作子と、前記操作子に対するユーザ操作を検出する単一または複数のセンサとを備え、前記コンピュータに、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを取得するステップと、前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて、前記ユーザが操作する仮想空間内の操作オブジェクトの移動または姿勢の制御である第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて、前記操作オブジェクトの移動または姿勢の制御のいずれとも異なる制御である第2制御を実行するステップとを実行させる。
本発明の一実施形態に係る情報処理方法は、コントローラを含む情報処理システムにより実行される情報処理方法であって、前記コントローラは、ユーザの指によって操作される操作子と、前記操作子に対するユーザ操作を検出する単一または複数のセンサとを備え、前記センサからの出力に基づいて、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを決定するステップと、前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて、前記ユーザが操作する仮想空間内の操作オブジェクトの移動または姿勢の制御である第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて、前記操作オブジェクトの移動または姿勢の制御のいずれとも異なる制御である第2制御を実行するステップとを含む。
本発明の一実施形態に係る情報処理システムは、コントローラと一または複数のプロセッサを含む情報処理システムであって、前記コントローラは、ユーザの指によって操作される操作子と、前記操作子に対するユーザ操作を検出する単一または複数のセンサとを備え、前記プロセッサは、前記センサからの出力に基づいて、前記操作子に対するユーザ操作の、少なくとも2つの方向成分を含むスライド成分と、少なくとも2つの方向成分を含む傾倒成分とを決定し、前記スライド成分または前記傾倒成分の一方である第1入力に基づいて、前記ユーザが操作する仮想空間内の操作オブジェクトの移動または姿勢の制御である第1制御を実行し、前記スライド成分または前記傾倒成分の他方である第2入力に基づいて、前記操作オブジェクトの移動または姿勢の制御のいずれとも異なる制御である第2制御を実行する。
本発明の一実施形態に係る情報処理システムは、コントローラと一または複数のプロセッサを含む情報処理システムであって、前記コントローラは、ユーザの指によって操作される第1操作子、および、当該ユーザの他の指によって操作される第2操作子と、前記第1および第2操作子に対するユーザ操作をそれぞれ検出する単一または複数のセンサとを備え、前記プロセッサは、前記センサからの出力に基づいて、前記第1操作子に対するユーザ操作の第1のスライド成分と第1の傾倒成分、および、前記第2操作子に対するユーザ操作の第2のスライド成分と第2の傾倒成分を決定し、前記第1のスライド成分に基づいて仮想空間内の第1操作オブジェクトの移動を制御し、かつ、前記第1の傾倒成分に基づいて当該第1操作オブジェクトの姿勢を制御し、および、前記第2のスライド成分に基づいて仮想空間内の第2操作オブジェクトの移動を制御し、かつ、前記第2の傾倒成分に基づいて当該第2操作オブジェクトの姿勢を制御する。
前記第1操作オブジェクトは、仮想空間内の所定の仮想キャラクタの所定部位のオブジェクトであり、前記第2操作オブジェクトは、当該仮想キャラクタの別の部位のオブジェクトであってもよい。
本発明によれば、1つの操作子を介した入力を多様化すること、または、多様化された入力を用いたアプリケーション処理を改善することが可能になる。
情報処理システムの一例を示すブロック図 センサ装置12、操作用プレート13および操作子14の外観の一例を示す図 センサ装置12の斜視図 センサ装置12の側面図 コントローラ1の内部構成の一例を示すブロック図 コントローラ1に入力可能な操作の一例を示す図 コントローラ1の操作例を示す図 コントローラ1の操作例を示す図 情報処理装置2の内部構成の一例を示すブロック図 情報処理装置2の機能構成の一例を示すブロック図 アプリケーション処理の一例を示すフロー図 操作オブジェクトデータ更新処理の一例を示すフロー図 アクション決定処理の一例を示すフロー図 アクションの一覧を示す図 本体装置7の内部構成の一例を示すブロック図 本体装置7の機能構成の一例を示すブロック図 受力部材52、センサ装置12およびセンサ固定部材53を示す側面断面図
1.第1実施形態
1-1.構成
本発明の第1実施形態に係る情報処理システムについて図面を参照して説明する。
図1は、この情報処理システムの一例を示すブロック図である。同図に示す情報処理システムは、コントローラ1、情報処理装置2およびディスプレイ3を備える。コントローラ1は、ユーザの操作に応じて操作データを生成し、生成した操作データを情報処理装置2に送信する。情報処理装置2は、コントローラ1から送信される操作データを基にアプリケーション処理を実行し、その実行結果を反映させたアプリケーション画像を生成する。そして、生成したアプリケーション画像を、専用線4を介してディスプレイ3に出力する。ディスプレイ3は、情報処理装置2から出力されるアプリケーション画像を表示する。
以下、この情報処理システムの構成要素のうち、コントローラ1と情報処理装置2について詳細に説明する。
コントローラ1は、片手で把持される片手コントローラである。このコントローラ1は、筐体11、センサ装置12、操作用プレート13および操作子14を備える。図2は、コントローラ1が備えるこれらの構成要素のうち、特にセンサ装置12、操作用プレート13および操作子14の外観の一例を示す図である。以下、各構成要素について説明する。
筐体11は、図示を省略するが、大略、半楕円体状の形状を有する。より具体的には、半球状の筐体本体と、筐体本体の平面部の外周に沿って形成された円筒壁とからなる。筐体本体の平面部と円筒壁の内周面により、円柱状の凹部が形成される。この筐体11は、ユーザの手のひらと親指以外の指により挟まれて把持される。
センサ装置12は、ユーザの操作を検出するための6軸力覚センサである。このセンサ装置12は、大略、円柱形状を有する。このセンサ装置12は、その底面が、筐体本体の平面部中央に固定され、上記の凹部内に配置される。このセンサ装置12については後で詳述する。
操作用プレート13は、円板状の部材である。この操作用プレート13の直径は、上記の円筒壁の内径よりも小さい。この操作用プレート13は、その底面中央が、センサ装置12の上面に固定され、上記の凹部内に配置される。この操作用プレート13は、操作子14の可動範囲を制限するために設けられている。
操作子14は、円板状の部材である。この操作子14の直径は、操作用プレート13の直径よりも小さい。この操作子14は、その底面が、操作用プレート13の上面中央に固定され、上記の円筒壁よりも上方に突出している。この操作子14は、筐体11を把持するユーザの親指により操作される。
次に、センサ装置12について詳細に説明する。
図3および図4は、センサ装置12の外観の一例を示す図である。このうち、図3は、センサ装置12の斜視図であり、図4は、センサ装置12の側面図である。これらの図に示すセンサ装置12は、起歪体121、センサチップ122および受力板123を備える。以下、各構成要素について説明する。
起歪体121は、その上部に印加される外力に応じて弾性変形する部材である。
センサチップ122は、起歪体121に収容され、一例として、複数のピエゾ抵抗素子と、DSP(digital signal processor)を備える(いずれも図示略)。複数のピエゾ抵抗素子は、起歪体121の機械的変形に応じて電気抵抗が変化するように配置されている。DSPは、複数のピエゾ抵抗素子から検出される抵抗の変化率から、起歪体121に対して印加された外力のせん断力およびモーメントを算出する。ここで算出されるせん断力とは、図3に示すように、X軸方向のせん断力Fx、Y軸方向のせん断力FyおよびZ軸方向のせん断力Fzである。これらのせん断力Fx、FyおよびFzは、3方向のせん断方向成分を含むせん断パラメータである。一方、ここで算出されるモーメントとは、同図に示すように、X軸周りのモーメントMx、Y軸周りのモーメントMyおよびZ軸周りのモーメントMzである。これらのモーメントMx、MyおよびMzは、3軸に対するモーメント方向成分を含むモーメントパラメータである。なお、モーメントは、軸周りのせん断力と言うこともできる。DSPは、上記の算出処理を所定の周期で実行して、算出したせん断力およびモーメントを6軸データとして出力する。
次に、受力板123は、起歪体121の上に固定され、その上面に印加された外力を起歪体121に伝達する。
以上まとめると、センサ装置12は、受力板123に印加された外力のせん断力およびモーメントを周期的に算出し、6軸データとして出力する。
なお、この種のセンサ装置12としては公知のものを適宜利用可能である。例えば、特開2018-185296号公報を参照してもよい。
コントローラ1の説明に戻る。
図5は、コントローラ1の内部構成の一例を示すブロック図である。同図に示すコントローラ1は、センサ装置12、通信制御部15および電力供給部16を備える。センサ装置12は、上記の通り、周期的に6軸データを出力する。通信制御部15は、マイクロプロセッサとメモリを備え、センサ装置12から出力される6軸データを近距離無線通信で情報処理装置2に送信する。電力供給部16は、バッテリと電力制御回路を備え、センサ装置12と通信制御部15に電力を供給する。
次に、このコントローラ1に入力可能な操作について説明する。図6は、このコントローラ1に入力可能な操作の一例を示す図である。
コントローラ1の操作子14は、図2に示す通り、操作用プレート13を介してセンサ装置12の上面に固定されている。この操作子14が固定されるセンサ装置12の上面は、より具体的には、受力板123の上面である。この受力板123は、操作子14が筐体11に対して平行にスライドされると、操作子14と同方向にスライドさせようとするせん断力を受ける。このせん断力は、受力板123から起歪体121に伝達され、起歪体121は、このせん断力に応じて弾性変形する。その結果、センサチップ122から出力されるせん断パラメータが変化する。このせん断パラメータは、3方向のスライド成分を含むパラメータである。このせん断パラメータの変化は、操作子14の変位(言い換えると、操作子14に付与された力)に対応する。このせん断パラメータの変化を検出することで、図6の矢印A1~A5が示すようなせん断方向の操作を検出することができる。ここで、図6の矢印A1~A4は、操作子14を上下左右にスライドさせる操作を示しており、矢印A5は、操作子14を押し込む操作を示している。なお、図が煩雑になることを避けるために図示を省略しているが、コントローラ1は、操作子14を斜め方向にスライドさせる操作も検出することができる。ここで言う操作子14を斜め方向にスライドさせる操作とは、言い換えると、複数軸間(具体的には、図3に示すFxおよびFy間)のスライド操作である。
加えて、受力板123は、操作子14が筐体11に対して傾倒されると、操作子14と同方向に傾倒させようとするモーメントを受ける。このモーメントは、受力板123から起歪体121に伝達され、起歪体121は、このモーメントに応じて弾性変形する。その結果、センサチップ122から出力されるモーメントパラメータが変化する。このモーメントパラメータは、3方向の傾倒成分を含むパラメータである。このモーメントパラメータの変化は、操作子14の変位(言い換えると、操作子14に付与された力)に対応する。このモーメントパラメータの変化を検出することで、図6の矢印A6~A8が示すようなモーメント方向の操作を検出することができる。ここで、図6の矢印A6は、操作子14を上下方向に傾倒させる操作を示しており、矢印A7は、操作子14を左右方向に傾倒させる操作を示しており、矢印A8は、操作子14を回転させる操作を示している。なお、図が煩雑になることを避けるために図示を省略しているが、コントローラ1は、操作子14を斜め方向に傾倒させる操作も検出することができる。ここで言う操作子14を斜め方向に傾倒させる操作とは、言い換えると、複数軸間(具体的には、図3に示すMxおよびMy間)の傾倒操作である。
せん断方向の操作とモーメント方向の操作はそれぞれ別々に検出される。そのため、操作子14をスライドさせる方向と傾倒させる方向は必ずしも同じでなくてもよい。例えば、図7(a)に例示するように、操作子14を図面右方向にスライドさせた状態で、図7(b)に例示するように、図面右方向に傾倒させた場合には、右方向のスライド操作と右方向の傾倒操作がそれぞれ検出されることになる。これに対して、図8(a)に例示するように、操作子14を図面右方向にスライドさせた状態で、図8(b)に例示するように、図面左方向に傾倒させた場合には、右方向のスライド操作と左方向の傾倒操作がそれぞれ検出されることになる。この例に示すように、操作子14をスライドさせる方向と傾倒させる方向は必ずしも同じでなくてもよい。
以上が、コントローラ1についての説明である。
以上説明したコントローラ1によれば、操作子14を介してせん断方向の操作とモーメント方向の操作の2つの操作を入力することができる。
次に、情報処理装置2について説明する。
図9は、情報処理装置2の内部構成の一例を示すブロック図である。同図に示す情報処理装置2は、CPU等の1以上のプロセッサ21と、フラッシュメモリ等の不揮発性メモリ22と、DRAM等の揮発性メモリ23と、メモリカード等の外部記憶媒体が装着可能なスロット24と、コントローラ1と近距離無線通信を行うための近距離無線通信部25と、無線LAN方式で外部装置と無線通信を行うためのネットワーク通信部26を備える。
この情報処理装置2が備える揮発性メモリ23には、不揮発性メモリ22または外部記憶媒体からアプリケーションプログラムが読み込まれる。この読み込まれたアプリケーションプログラムがプロセッサ21により実行されると、所定のアプリケーションが実行可能になる。
このアプリケーションでは、3次元の仮想空間が定義される。そして、この仮想空間上に、ユーザによって操作される操作オブジェクトや背景オブジェクトが配置される。加えて、この仮想空間上には、仮想カメラが配置される。この仮想カメラは操作オブジェクトに追従して移動し、この仮想カメラにより撮影された画像がディスプレイ3に表示される。
このアプリケーションを操作可能にするために、情報処理装置2では所定のアプリケーション処理がフレーム単位で実行される。図10は、このアプリケーション処理を実行するための機能構成の一例を示すブロック図である。同図に示す各機能は、アプリケーションプログラムがプロセッサ21により実行されることにより提供される。以下、各機能について説明する。
6軸データ記憶部231は、コントローラ1から順次出力される6軸データを時系列で記憶する。
移動方向決定部211は、6軸データ記憶部231に格納される最新のせん断パラメータに基づいて操作オブジェクトの移動方向を決定する。
移動速度決定部212は、6軸データ記憶部231に格納される最新のせん断パラメータに基づいて操作オブジェクトの移動速度を決定する。
操作オブジェクトデータ記憶部232は、操作オブジェクトの仮想空間における位置を示すデータと、同オブジェクトのアクションを示すデータを記憶する。
操作オブジェクト位置更新部213は、移動方向決定部211により決定された移動方向と、移動速度決定部212により決定された移動速度に基づいて、操作オブジェクトの現在位置を決定する。そして、決定した現在位置を示すデータで、操作オブジェクトデータ記憶部232に記憶されている位置データを更新する。この更新処理により、操作オブジェクトの移動が制御される。
アクション決定部214は、6軸データ記憶部231に格納される最新のモーメントパラメータと、移動方向決定部211により決定された移動方向と、移動速度決定部212により決定された移動速度とに基づいて、操作オブジェクトのアクションを決定する。そして、決定したアクションを示すデータで、操作オブジェクトデータ記憶部232に記憶されているアクションデータを更新する。この更新処理により、ユーザ操作オブジェクトのアクションが制御される。
なお、このアクション決定部214により決定されるアクションは、操作オブジェクトによる何らかの行動であるが、単なる移動は含まれない。このアクションには、移動を伴う行動が含まれる。
背景データ記憶部233は、背景オブジェクトの仮想空間における位置を示すデータと、同オブジェクトの状態を示すデータを記憶する。
背景データ更新部215は、操作オブジェクトデータ記憶部232に記憶されている各データに基づいて、背景データ記憶部233に記憶されている各データを更新する。
仮想カメラデータ記憶部234は、仮想カメラの仮想空間における位置を示すデータと、同カメラの姿勢を示すデータを記憶する。
仮想カメラデータ更新部216は、操作オブジェクトデータ記憶部232に記憶されている各データに基づいて、仮想カメラデータ記憶部234に記憶されている各データを更新する。
画面生成部217は、操作オブジェクトデータ記憶部232、背景データ記憶部233および仮想カメラデータ記憶部234に記憶されている各データに基づいて、画面データを生成する。生成された画面データは、専用線4を介してディスプレイ3に出力されて表示される。
以上が、情報処理装置2についての説明である。
1-2.動作
情報処理装置2で実行されるアプリケーション処理についてより詳細に説明する。図11は、このアプリケーション処理の一例を示すフロー図である。
同図に示すアプリケーション処理のステップSa1では、操作オブジェクトデータ更新処理が実行される。図12は、この操作オブジェクトデータ更新処理の一例を示すフロー図である。
同図に示す操作オブジェクトデータ更新処理のステップSa11では、移動方向決定部211は、6軸データ記憶部231に格納される最新のせん断パラメータに基づいて操作オブジェクトの移動方向を決定する。その際、移動方向決定部211は、そのせん断パラメータのX軸方向成分とY軸方向成分から合成ベクトルを算出し、算出した合成ベクトルの方向を、移動方向として特定する。
移動方向の特定後、次に、移動速度決定部212は、6軸データ記憶部231に格納される最新のせん断パラメータに基づいて操作オブジェクトの移動速度を決定する(ステップSa12)。その際、移動速度決定部212は、まず、そのせん断パラメータのX軸方向成分とY軸方向成分から合成ベクトルを算出する。そして、算出した合成ベクトルの大きさが、所定の閾値以上であるか否かを判定する。この判定の結果、合成ベクトルの大きさが所定の閾値以上である場合には、移動速度「高速」を特定する。一方、この判定の結果、合成ベクトルの大きさが所定の閾値未満である場合には、移動速度「低速」を特定する。
移動速度の特定後、操作オブジェクト位置更新部213は、ステップSa11で決定された移動方向と、ステップSa12で決定された移動速度に基づいて、操作オブジェクトの現在位置を決定する。そして、決定した現在位置を示すデータで、操作オブジェクトデータ記憶部232に記憶されている位置データを更新する(ステップSa13)。
位置データを更新後、次に、アクション決定部214は、6軸データ記憶部231に格納される最新のモーメントパラメータと、ステップSa11で決定された移動方向と、ステップSa12で決定された移動速度に基づいて、操作オブジェクトのアクションを決定する(ステップSa14)。図13は、このアクション決定処理の一例を示すフロー図である。
同図に示すアクション決定処理のステップSa1401では、アクション決定部214は、モーメントパラメータのX軸周り成分またはY軸周り成分が、所定の閾値以上であるか否かを判定する。この判定の結果、いずれの軸周り成分も所定の閾値未満である場合には(ステップSa1401のNO)、本アクション決定処理は終了する。
一方、ステップSa1401の判定の結果、いずれかの軸周り成分が所定の閾値以上である場合には(ステップSa1401のYES)、次に、ステップSa12で決定された移動速度が「低速」であるか否かを判定する(ステップSa1402)。この判定の結果、移動速度が「低速」である場合には(ステップSa1402のYES)、次に、ステップSa11で決定された移動方向とモーメント方向(言い換えると、操作子14の傾倒方向)の関係を判定する(ステップSa1403)。この判定の結果、移動方向とモーメント方向が同じ方向である場合には、アクション「前転」を特定し(ステップSa1404)、移動方向とモーメント方向が逆方向である場合には、アクション「後転」を特定し(ステップSa1405)、移動方向とモーメント方向が垂直の関係にある場合には、アクション「側転」を特定する(ステップSa1406)。なお、本処理において、移動方向とモーメント方向が同じ方向である場合には、2つの方向が厳密に一致する場合だけでなく、2つの方向がなす角度が所定の閾値以下である場合も含まれる。例えば、移動方向を中心として左右45度の範囲にモーメント方向が含まれる場合、これを「同じ方向」であるとみなしてもよい。これは、2つの方向が逆方向である場合と2つの方向が垂直関係にある場合についても同様である。
アクションを特定すると、次に、特定したアクションを示すデータで、操作オブジェクトデータ記憶部232に記憶されているアクションデータを更新する(ステップSa1407)。このアクションデータの更新を以って、アクション決定処理は終了する。
一方、上記のステップSa1402の判定の結果、移動速度が「低速」でない場合には(すなわち、移動速度が「高速」である場合には)(ステップSa1402のNO)、次に、ステップSa11で決定された移動方向とモーメント方向の関係を判定する(ステップSa1408)。この判定の結果、移動方向とモーメント方向が同じ方向である場合には、アクション「前転とび」を特定し(ステップSa1409)、移動方向とモーメント方向が逆方向である場合には、アクション「後転とび」を特定し(ステップSa1410)、移動方向とモーメント方向が垂直の関係にある場合には、アクション「側転とび」を特定する(ステップSa1411)。そして、上述したステップSa1407を実行する。
以上が、アクション決定処理についての説明である。
図14は、このアクション決定処理で決定されるアクションの一覧を示す図である。同図に示すように、決定されるアクションは、移動速度と、移動方向とモーメント方向の関係とに応じて変化する。例えば、ユーザがコントローラ1の操作子14を右方向に小さくスライドさせた状態で右方向に傾倒させると(すなわち、移動速度「低速」であり、移動方向とモーメント方向が同じ方向である場合には)、アクション「前転」が特定される。これに対して、ユーザが操作子14を右方向に大きくスライドさせた状態で左方向に傾倒させると(すなわち、移動速度「高速」であり、移動方向とモーメント方向が逆方向である場合には)、アクション「後転とび」が特定される。
なお、上記のアクション決定処理は、操作オブジェクトがいずれかの方向に移動することを前提にしている。操作オブジェクトが移動しない場合で(言い換えると、せん断方向の操作が入力されない場合で)、モーメント方向の操作のみが入力された場合には、そのモーメント方向(言い換えると、操作子14の傾倒方向)に応じてアクションが決定される。具体的には、操作子14が上方向に傾倒されるとアクション「前転」が特定され、操作子14が左右方向に傾倒されるとアクション「側転」が特定され、操作子14が下方向に傾倒されるとアクション「後転」が特定される。あるいは、モーメント方向の操作が入力されたときの操作オブジェクトの向きに応じてアクションが決定されてもよい。例えば、操作オブジェクトが右方向を向いて停止している状態において、操作子14が右方向に傾倒されるとアクション「前転」が特定され、操作子14が上下方向に傾倒されるとアクション「側転」が特定され、操作子14が左方向に傾倒されるとアクション「後転」が特定されるようにしてもよい。
このアクション決定処理の終了を以って、図12に示すように、操作オブジェクトデータ更新処理は終了する。
操作オブジェクトデータ更新処理が終了すると、次に、背景データ更新部215は、操作オブジェクトデータ記憶部232に記憶されている各データに基づいて、背景データ記憶部233に記憶されている各データを更新する(ステップSa2)。
背景データの更新後、次に、仮想カメラデータ更新部216は、操作オブジェクトデータ記憶部232に記憶されている各データに基づいて、仮想カメラデータ記憶部234に記憶されている各データを更新する(ステップSa3)。
仮想カメラデータの更新後、次に、画面生成部217は、操作オブジェクトデータ記憶部232、背景データ記憶部233および仮想カメラデータ記憶部234に記憶されている各データに基づいて、画面データを生成する(ステップSa4)。生成された画面データは、専用線4を介してディスプレイ3に出力され、このディスプレイ3に表示される。
以上説明したステップSa1からSa4は、アプリケーションの所定の終了条件が満たされるまで繰り返し実行され、所定の終了条件が満たされると(ステップSa5のYES)、本アプリケーション処理は終了する。
以上が、アプリケーション処理についての説明である。
2.第2実施形態
本発明の第2実施形態に係る情報処理システムについて図面を参照して説明する。
本実施形態に係る情報処理システムは、第1実施形態に係る、2つのコントローラ1と、本体装置7を備える。2つのコントローラ1のうち、本体装置7の正面に向かって左側に装着されるコントローラ1を「左コントローラ6L」と呼び、本体装置7の正面に向かって右側に装着されるコントローラ1を「右コントローラ6R」と呼ぶ。これらのコントローラを特に区別する必要がない場合には、単に「コントローラ6」と呼ぶ。
このコントローラ6は、ユーザの操作に応じて操作データを生成し、生成した操作データを本体装置7に出力する。本体装置7は、コントローラ6から送信される操作データを基にアプリケーション処理を実行し、その実行結果を反映させたアプリケーション画像を表示する。
左コントローラ6Lおよび右コントローラ6Rは、本体装置7に対して着脱自在である。これらのコントローラ6の使用方法には、以下の4つがある。第1の使用方法は、本体装置7に装着された2つのコントローラ6を1人のユーザが使用する方法である。第2の使用方法は、本体装置7から取り外された2つのコントローラ6を1人のユーザが使用する方法である。第3の使用方法は、本体装置7から取り外された1つのコントローラ6を1人のユーザが使用する方法である。第4の使用方法は、本体装置7から取り外された一方のコントローラ6を第1のユーザが使用し、もう一方の取り外されたコントローラ6を第2のユーザがする方法である。
以下、この情報処理システムを構成する本体装置7について詳細に説明する。
図15は、本体装置7の内部構成の一例を示すブロック図である。同図に示す本体装置7は、CPU等の1以上のプロセッサ71と、フラッシュメモリ等の不揮発性メモリ72と、DRAM等の揮発性メモリ73と、メモリカード等の外部記憶媒体が装着可能なスロット74と、コントローラ6と近距離無線通信を行うための近距離無線通信部75と、無線LAN方式で外部装置と無線通信を行うためのネットワーク通信部76と、LCD等のディスプレイ77と、左コントローラ6Lと有線通信するための左側端子78と、右コントローラ6Rと有線通信するための右側端子79を備える。
この本体装置7が備える揮発性メモリ73には、不揮発性メモリ72または外部記憶媒体からアプリケーションプログラムが読み込まれる。この読み込まれたアプリケーションプログラムがプロセッサ71により実行されると、所定のアプリケーションが実行可能になる。ここでは実行可能になるアプリケーションとして、第1実施形態の欄で説明したアプリケーションを想定する。
第1実施形態の欄で説明したアプリケーションは、2人のユーザが同時に操作することも可能である。このアプリケーションが2人のユーザによって同時操作される場合には、仮想空間内に2つの操作オブジェクトが配置される。一方の操作オブジェクトは、左コントローラ6Lを使用する第1のユーザによって操作され、他方の操作オブジェクトは、右コントローラ6Rを使用する第2のユーザによって操作される。各操作オブジェクトは、それぞれ異なる仮想カメラによって追従される。
このアプリケーションが、上記の第3または第4のコントローラ6の使用方法で実行される場合には、第1操作モードのアプリケーション処理が実行される。この第1操作モードのアプリケーション処理では、左コントローラ6Lと右コントローラ6Rのそれぞれにおいて、1つの操作子14を介してせん断方向の操作とモーメント方向の操作の2つの操作が入力される。これに対して、このアプリケーションが、上記の第1または第2のコントローラ6の使用方法で操作される場合には、第2操作モードのアプリケーション処理が実行される。この第2操作モードのアプリケーション処理では、左コントローラ6Lと右コントローラ6Rの2つの操作子14を介してせん断方向の操作とモーメント方向の操作の2つの操作が入力される。いずれの操作モードのアプリケーション処理が実行されるかは、コントローラ6の使用方法に応じて決定される。
これら2つのアプリケーション処理のうち、第1操作モードのアプリケーション処理を実行するための機能構成は、基本的には第1実施形態の機能構成(図10参照)と同様である。加えて、第1操作モードのアプリケーション処理は、基本的には第1実施形態のアプリケーション処理(図11~図13参照)と同様である。ただし、本実施形態では、6軸データ記憶部231は、コントローラ1に代えてコントローラ6から順次出力される6軸データを時系列で記憶する。加えて、画面生成部217は、生成した画面データを、ディスプレイ3に代えて、ディスプレイ77または外部ディスプレイに表示させる(図11のステップSa4参照)。
このアプリケーション処理では、コントローラ6の1つの操作子14を介してせん断方向の操作とモーメント方向の操作の2つの操作が入力される。
次に、第2操作モードのアプリケーション処理を実行するための機能構成について説明する。図16は、この機能構成の一例を示すブロック図である。同図に示す機能構成は、基本的には第1実施形態の機能構成(図10参照)と同様である。加えて、第2操作モードのアプリケーション処理も、基本的には第1実施形態のアプリケーション処理と同様である。ただし、本実施形態では、6軸データ記憶部235が追加されている点において、第1実施形態の機能構成と異なる。この新たに追加されている6軸データ記憶部235は、右コントローラ6Rから順次出力される6軸データを時系列で記憶する。
加えて、本実施形態では、6軸データ記憶部231は、コントローラ1に代えて左コントローラ6Lから順次出力される6軸データを時系列で記憶する。加えて、アクション決定部214は、6軸データ記憶部231に代えて6軸データ記憶部235に格納されている最新のモーメントパラメータに基づいて操作オブジェクトのアクションを決定する(図12のステップSa14参照)。言い換えると、アクション決定部214は、右コントローラ6Rから順次出力されるモーメントパラメータに基づいてアクションを決定する。加えて、画面生成部217は、生成した画面データを、ディスプレイ3に代えて、ディスプレイ77または外部ディスプレイに表示させる(図11のステップSa4参照)。
このアプリケーション処理では、左コントローラ6Lと右コントローラ6Rの2つの操作子14を介してせん断方向の操作とモーメント方向の操作の2つの操作が入力される。
3.変形例
上記の実施形態は、以下に説明するように変形してもよい。なお、以下に説明する変形例は互いに組み合わせてもよい。
3-1.変形例1
上記の実施形態では、せん断パラメータに基づいて操作オブジェクトの移動が制御されている。しかし、せん断パラメータに基づいて制御される対象は、操作オブジェクトの移動に限られない。例えば、移動に代えてアクションが制御されてもよい。これらのアクションは、例えば、操作子14が押し込まれたときに行われてもよい。同様に、上記の実施形態では、モーメントパラメータに基づいて操作オブジェクトのアクションが制御されている。しかし、アクションに代えて移動や姿勢が制御されてもよい。なお、上記の実施形態ではせん断パラメータに基づいて移動速度を決定していたが、移動速度は一律としてもよい。
3-2.変形例2
上記の実施形態では、モーメントパラメータに基づいて操作オブジェクトのアクションが制御されている。この操作オブジェクトのアクションは、上記の実施形態の例に限られない。例えば、操作子14が上方向に傾けられたときにジャンプが行われ、下方向に傾けられたときにしゃがむアクションが行われてもよい。
さらに別のアクションとして、操作オブジェクトが仮想空間中で把持するドアノブといったオブジェクトを回転させるアクションが採用されてもよい。これらのアクションは、例えば、操作子14を回転させたときに行われてもよい。
さらに別のアクションとして、操作オブジェクトが細い橋を渡る場面において、操作オブジェクトの重心移動を制御してもよい。
別の例として、操作オブジェクトのアクションに代えて、仮想カメラの移動および/または姿勢がモーメントパラメータに基づいて制御されてもよい。例えば、操作子14が上下方向に傾けられたときに仮想カメラをピッチ方向に回転移動させ、左右方向に傾けられたときにヨー方向に回転移動させ、回転させられたときにロール方向に回転させてもよい。なお、仮想カメラは、一人称視点の画像を撮影可能なように仮想空間に配置されてもよいし、これに代えて、三人称視点の画像を撮影可能なように仮想空間に配置されてもよい。
3-3.変形例3
操作オブジェクトは、生物に限らず、例えば機体であってもよい操作オブジェクトが飛行する機体である場合、せん断パラメータとモーメントパラメータに基づいて機体の姿勢とアクションを制御してもよい。具体的には、操作子14が上方向にスライドされたときに、飛行中の機体を一時的に加速させるアクションを実行し、下方向にスライドされたときに飛行中の機体を一時的に減速させるアクションを実行してもよい。加えて、操作子14が上下方向に傾けられたときに機体をピッチ方向に回転させ、左右方向に傾けられたときにロール方向に回転させ、回転されたときにヨー方向に回転させてもよい。なお、別の制御として、操作子14が左右方向にスライドされたときに機体をヨー方向に回転させてもよい。
さらに別の例として、操作オブジェクトはパズルのピースであってもよい。例えば、せん断パラメータに基づいて操作オブジェクトである落下するピースの左右方向や下方向への移動を制御し、モーメントパラメータに基づいて同オブジェクトの姿勢を制御してもよい。
3-4.変形例4
上記の実施形態では、1つの操作子を介してせん断方向の操作とモーメント方向の操作が入力される。そのため、一方の操作を入力しているときに意図せず他方の操作も入力してしまう可能性がある。例えば、操作子14を右方向にスライドしているときに意図せず右方向に傾倒してしまう場合が考えられる。別の例としては、操作子14を手前に傾けているときに意図せず下方向にスライドしてしまう場合が考えられる。このような操作に基づく意図せぬ制御を抑制するために、移動の制御に要する入力量とアクションの制御に要する入力量を異ならせることが考えられる。具体的には、移動を判定するための閾値と、アクションの要否を決定するための閾値を異ならせることが考えられる。ここで、閾値を異ならせるとは、例えば、前者の閾値を、最大スライド幅の5%以上、操作子14をスライドさせたときに超えられる閾値とする一方で、後者の閾値を、最大傾倒角度の20%以上、操作子14を傾倒させたときに超えられる閾値に設定することである。このように閾値を異ならせることで、上記のような意図せぬ制御を抑制することができる。また、いずれの入力に対しても上記のように一定の閾値を設けた場合、特に操作子14の操作開始時において意図せずせん断方向およびまたはモーメント方向の操作が入力されてしまったときにも、その入力に応じた意図しない制御が実行されてしまうことを抑制することができる。
必要入力量を異ならせる方法として、別の方法も考えられる。上記2つの閾値を異ならせずに、上記の2つの閾値のうちの一方と比較する値に補正をかけるようにしてもよい。ここで、上記の2つの閾値を異ならせないとは、例えば、上記前者の閾値を、最大スライド幅の5%以上、操作子14をスライドさせたときに超えられる閾値とする一方で、後者の閾値も、最大傾倒角度の5%以上、操作子14を傾倒させたときに超えられる閾値に設定することである。このように上記2つの閾値を異ならせずに、一方の閾値の比較対象に補正をかけることでも、上記のような意図せぬ制御を抑制することができる。
また別の例として、一方の制御の実行に要する入力量を、他方の制御の実行状態によって異ならせてもよい。例えば、操作子14のスライド操作による移動の制御が行われていない状態では、アクションの制御に必要なモーメント方向の操作の入力量をα値に設定し、移動の制御が行われている状態では、アクションの制御に必要な入力量をβ値(β>α)に設定するようにしてもよい。すなわち、移動の制御が行われている間だけ、モーメント方向の操作の必要入力量を増加させるようにしてもよい。その際、β値を、ユーザが入力可能な量を超える値に設定するようにしてもよい。その場合、移動の制御が行われている間は、アクションの制御は行われなくなる。
また別の例として、2つの制御が同時に行われる兆候がある場合に、上記のように2つの制御に要する入力量を異ならせるようにしてもよい。例えば、移動の制御は行われていなくても、移動の制御に必要なせん断方向の操作は行われており、所定の操作ボタンが押下されれば移動の制御が開始されるという状態のときに、アクションの制御に必要な入力量をα値からβ値に増加させるようにしてもよい。また別の例として、移動の制御は行われていなくても、移動の制御に必要な入力量よりも小さい所定の入力がなされたときに、アクションの制御に必要な入力量をα値からβ値に増加させるようにしてもよい。
3-5.変形例5
上記の実施形態では、操作子14のスライド幅が所定量を超えると、操作オブジェクトの移動速度が「低速」から「高速」に変化する。これに代えて、操作オブジェクトの移動速度を、スライド幅に対して線形に増加させてもよい。加えて、上記の実施形態では、モーメントパラメータに基づいて操作オブジェクトのアクションが制御されている。これに代えて、モーメントパラメータに基づいて仮想カメラの移動を制御してもよい。その際、仮想カメラの移動量を、操作子14の傾き角に対して線形に増加させることが考えられる。しかし、操作オブジェクトの移動速度に加えて仮想カメラの移動量も線形に増加させてしまうと、上述した意図せぬ操作に基づく意図せぬ制御が発生しやすくなると考えられる。そこで、そのような意図せぬ制御を抑制するために、仮想カメラの移動量を傾き角に対して段階的に(言い換えると、階段的に)増加させるようにしてもよい。具体的には、例えば、傾き角が第1の閾値を超えたときに仮想カメラを45度回転移動させ、第2の閾値を超えたときにさらに45度回転移動させるようにしてもよい。このように仮想カメラの移動量を段階的に変化させることで、上記のような意図せぬ制御を抑制することができる。
なお、上記の移動速度の線形の増加とは、言い換えると、移動速度の段階的な増加であって、仮想カメラの移動量の増加よりも段階が細かい増加である。仮想カメラの移動量の増加は、傾き角のデジタル的な変化が複数回生じることで実行されるのに対し、移動速度の増加は、スライド幅のデジタル的な変化が、上記複数回よりも少ない回数生じることで実行される。
なお、仮想カメラの移動量に代えて、操作オブジェクトの移動速度の方を段階的に変化させるようにしてもよい。
上記のような意図せぬ制御を抑制する別の方法として、操作オブジェクトの移動制御と仮想カメラの移動制御やアクションの制御とのうち、一方が実行されている場合には他方の制御を禁止するようにしてもよい。このような方法でも上記のような意図せぬ制御を抑制することができる。
3-6.変形例6
上記の第1実施形態では、操作オブジェクトの移動方向とモーメント方向の関係に応じてアクションの種類が決定されている(図14参照)。これに代えて、操作オブジェクトの移動方向に関係なく、モーメント方向のみに応じてアクションの種類を決定してもよい。
また別のアクションの決定方法として、モーメント方向の操作が入力されれば、その方向にかかわらず、操作オブジェクトの移動方向のみに応じてアクションの種類を決定してもよい。例えば、操作オブジェクトの移動方向が画面奥方向であるときにアクション「前転」を特定し、左右方向であるときにアクション「側転」を特定し、手前方向であるときにアクション「後転」を特定するようにしてもよい。
また別のアクションの決定方法として、操作オブジェクトの移動速度に応じてアクションの種類を決定してもよい。例えば、操作オブジェクトの移動速度が「低速」であるときにアクション「前転」を特定し、「高速」であるときにアクション「前転とび」を特定するようにしてもよい。
3-7.変形例7
上記の第2実施形態では、左コントローラ6Lと右コントローラ6Rがそれぞれ操作子14を備え、操作モードを第1操作モードと第2操作モードの間で切り替え可能になっている。これに代えて、1つのコントローラに2つの操作子14を備えさせ、このコントローラについて操作モードを第1操作モードと第2操作モードの間で切り替え可能にしてもよい。言い換えると、このコントローラを使ったせん断方向の操作とモーメント方向の操作を、1つの操作子14で入力可能とするか2つの操作子14で入力可能とするかを切り替え可能にしてもよい。
3-8.変形例8
上記の第1実施形態において、操作子14を介してせん断方向の操作とモーメント方向の操作の両方を入力可能な操作モードと、いずれか一方の操作のみを入力可能な操作モードの間で操作モードを切り替え可能にしてもよい。その場合、後者の操作モードが選択されているときに、他方の操作は他のボタンやスティックを介して入力可能としてもよい。また別の例として、他方の操作の結果出力されたパラメータを、一方の操作に基づく制御に反映させるようにしてもよい。例えば、一方の操作がせん断方向の操作であり他方の操作がモーメント方向の操作である場合に、モーメントパラメータに所定の比率を乗じてせん断パラメータに変換し、そのせん断パラメータを、せん断方向の操作の結果出力されたせん断パラメータに加算するようにしてもよい。また別の例として、変換して得られたせん断パラメータを、せん断方向の操作の結果出力されたせん断パラメータと比較し、大きい方のせん断パラメータに基づいて操作オブジェクトの移動制御を行うようにしてもよい。
3-9.変形例9
センサ装置12は、ユーザの操作を検出するための多軸センサの一例である。使用するセンサ装置は、検出対象とする操作の種類や、搭載されるコントローラの構造に応じて適宜選択されてよい。また、センサ装置12は、3方向のせん断力を検出するためのセンサ装置と、3軸周りのモーメントを検出するためのセンサ装置の組み合わせにより代替されてもよい。
3-10.変形例10
上記の実施形態では、操作オブジェクトの移動およびアクションを制御対象としている。これに代えて、操作オブジェクトとしての手の移動および姿勢を制御対象としてもよい。より具体的には、せん断パラメータとモーメントパラメータのうちの一方で手の移動を制御し、他方で手の姿勢を制御することを可能にしてもよい。
従来、手の移動や姿勢を制御する場合、6軸の加速度センサを使用したり、モーションキャプチャを利用したりしていた。しかし、いずれの場合も、ユーザは手や腕全体を動かす必要があった。これに対して、上記の実施形態において手を制御対象とすれば、指による操作によって、指よりも大きな手の移動および姿勢を制御することができる。
また別の例として、例えば第2実施形態のように操作子を2つ備える場合は、一方の操作子で左手オブジェクトを、他方の操作子で右手オブジェクトを制御することができる。その際、一方の操作子を介して入力されるせん断パラメータとモーメントパラメータのうちの一方は、左手オブジェクトの移動を制御するために使用され、他方は、左手オブジェクトの姿勢を制御するために使用される。加えて、他方の操作子を介して入力されるせん断パラメータとモーメントパラメータのうちの一方は、右手オブジェクトの移動を制御するために使用され、他方は、右手オブジェクトの姿勢を制御するために使用される。その結果、例えば2本の指による操作で、水等のオブジェクトを両手オブジェクトで掬い上げる動作が可能になる。
なお、手はあくまで一例であり、仮想キャラクタの他の部位を制御対象としてもよい。
3-11.変形例11
情報処理装置2は、上記のアプリケーションプログラムを実行可能な情報処理装置の一例である。情報処理装置2に代えて、スマートフォン等の他の情報処理装置が上記のアプリケーションプログラムを実行してもよい。
3-12.変形例12
上記の第1実施形態において、コントローラ1の一部の機能は情報処理装置2により実現されてもよい。例えば、コントローラ1で実行される、複数のピエゾ抵抗素子の抵抗変化率から6軸データの生成する処理は、情報処理装置2のプロセッサ21により実行されてもよい。また逆に、情報処理装置2の一部又は全部の機能は、コントローラ1により実現されてもよい。
上記の第2実施形態において、コントローラ6の一部の機能は本体装置7により実現されてもよい。また逆に、本体装置7の一部又は全部の機能は、コントローラ6により実現されてもよい。
3-13.変形例13
上記の第2実施形態の第2操作モードでは、左コントローラ6Lを使ってせん断方向の操作が入力され、右コントローラ6Rを使ってモーメント方向の操作が入力されている。これに代えて、左コントローラ6Lを使ってモーメント方向の操作を入力させ、右コントローラ6Rを使ってせん断方向の操作を入力させるようにしてもよい。
3-14.変形例14
上記の第1実施形態では、操作オブジェクトの移動方向とモーメント方向の操作との関係に応じてアクションの種類が決定されている(図14参照)。その際に、モーメント方向に応じてアクションの方向を決定してもよい。例えば、操作オブジェクトの移動方向が画面奥方向であり、かつ、操作子14が右上方向に傾倒されたときに、アクション「前転」または「前転とび」を特定するとともに、そのアクションの方向として、画面右奥方向を特定するようにしてもよい。また別の例では、操作オブジェクトの移動方向やスライド方向の操作にかかわらず、モーメント方向の操作に応じてアクションの種類および方向を特定してもよい。あるいは、モーメント方向の操作に応じて、所定のアクションの方向を特定してもよい。例えば、モーメント方向の操作に応じて操作オブジェクトはアクション「前転」を実行するが、その前転の方向を、モーメント方向によって特定してもよい。
3-15.変形例15
第1実施形態に係るコントローラ1は、1つの操作子を介してせん断方向の操作とモーメント方向の操作の2つの操作を入力可能なコントローラの一例である。このコントローラ1に代えて、以下に説明するコントローラ5を採用してもよい。
コントローラ5は、筐体51、受力部材52、センサ装置12およびセンサ固定部材53を備える。図17は、コントローラ5が備えるこれらの構成要素のうち、特に受力部材52、センサ装置12およびセンサ固定部材53を示す側面断面図である。
筐体51は、図示を省略するが、大略、逆U字形状を有する。より具体的には、略直方体状の筐体本体と、それぞれ略棒状の左把持部および右把持部からなる。左把持部は、筐体本体の左側底面に対して、受力部材52、センサ装置12およびセンサ固定部材53を介して連結される。右把持部は、筐体本体の右側底面に対して直接連結される。左把持部はユーザの左手で把持され、右把持部はユーザの右手で把持される。すなわち、このコントローラ5は、ユーザの両手で把持されるタイプのコントローラである。
次に、受力部材52は、略円板状の部材である。この受力部材52は、その底面中央に略円形の凹部521を有する。この受力部材52は、その上面が筐体本体の左側底面に固定される。
センサ装置12は、第1実施形態の欄で説明した通り、ユーザの操作を検出するための6軸力覚センサである。このセンサ装置12は、本実施形態では、その上面が、受力部材52の凹部521の底面に固定される。
センサ固定部材53は、略円板状の部材である。このセンサ固定部材53は、その上面中央に略円形の凹部531を有する。この凹部531の底面には、センサ装置12の底面が固定される。加えて、このセンサ固定部材53の底面には、左把持部が固定される。
このセンサ固定部材53の凹部531と上記の受力部材52の凹部521は、センサ固定部材53が受力部材52との間でセンサ装置12を挟み込んだときに、センサ固定部材53と受力部材52とが接しない深さに設定される。これは、左把持部を筐体本体に対して可動自在とするためである。このように可動自在とされた左把持部は、ユーザの左手のひらと親指以外の指によって挟まれて操作される操作子である。この左把持部を介しても、第1実施形態に係る操作子14と同様に、せん断方向の操作とモーメント方向の操作の2つの操作を入力することができる。
3-16.変形例16
上記の第1実施形態において、コントローラ1と情報処理装置2は有線で通信を行ってもよい。同様に、上記の第2実施形態において、コントローラ6と本体装置7は有線で通信を行ってもよい。
1…コントローラ、2…情報処理装置、3…ディスプレイ、4…専用線、5…コントローラ、6L…左コントローラ、6R…右コントローラ、7…本体装置、11…筐体、12…センサ装置、13…操作用プレート、14…操作子、15…通信制御部、16…電力供給部、21…プロセッサ、22…不揮発性メモリ、23…揮発性メモリ、24…スロット、25…近距離無線通信部、26…ネットワーク通信部、51…筐体、52…受力部材、53…センサ固定部材、71…プロセッサ、72…不揮発性メモリ、73…揮発性メモリ、74…スロット、75…近距離無線通信部、76…ネットワーク通信部、77…ディスプレイ、78…左側端子、79…右側端子、121…起歪体、122…センサチップ、123…受力板、211…移動方向決定部、212…移動速度決定部、213…操作オブジェクト位置更新部、214…アクション決定部、215…背景データ更新部、216…仮想カメラデータ更新部、217…画面生成部、231、235…6軸データ記憶部、232…操作オブジェクトデータ記憶部、233…背景データ記憶部、234…仮想カメラデータ記憶部、521…凹部、531…凹部

Claims (17)

  1. コントローラと一または複数のプロセッサを含む情報処理システムであって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記プロセッサは、
    前記センサからの出力に基づいて、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを決定し、
    前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行し、
    前記第1制御または前記第2制御の一方が前記第1入力または前記第2入力の一方に基づいて実行されているときには、両方の制御が実行されていないときに比べて、他方の制御が実行されるのに要する他方の入力量が大きい、
    情報処理システム。
  2. 前記第1制御または前記第2制御の一方は前記第1入力または前記第2入力の一方の入力量に応じた段階的な制御であり、他方の制御は他方の入力の入力量に応じた段階的な制御であり、前記第1制御または前記第2制御の一方は他方よりも段階が細かい、請求項1に記載の情報処理システム。
  3. 前記第1制御または前記第2制御の一方が実行されるのに要する前記第1入力または前記第2入力の一方の入力量は、他方の制御が実行されるのに要する他方の入力量に比べて大きい、請求項1又は2に記載の情報処理システム。
  4. コントローラと一または複数のプロセッサを含む情報処理システムであって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記プロセッサは、
    前記センサからの出力に基づいて、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを決定し、
    前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行し、
    前記第1入力または前記第2入力の一方の入力があるときには、他方の入力に基づく制御が実行されるのに要する入力量が、当該一方の入力がないときに当該他方の入力に基づく制御が実行されるのに要する入力量と比べて大きい、
    情報処理システム。
  5. 前記第1入力があるときの前記第2入力に基づいて前記第2制御を実行する場合において、前記第1入力に基づいて異なる種類の第2制御が実行される、請求項1からのいずれか1項に記載の情報処理システム。
  6. 前記第2制御は、前記ユーザが操作する仮想空間内の操作オブジェクトに所定のアクションを実行させる制御であり、
    前記第1入力と前記第2入力の方向とに基づいて異なる種類のアクションが実行される、請求項に記載の情報処理システム。
  7. 前記第2制御は、前記ユーザが操作する仮想空間内の操作オブジェクトに所定のアクションを実行させる制御であり、
    前記第1入力と前記第2入力の方向とに基づいて異なる方向へのアクションが実行される、請求項またはに記載の情報処理システム。
  8. 前記プロセッサは、前記第1制御と前記第2制御の両方を実行する第1操作モードと、前記第1制御または前記第2制御の一方を実行する第2操作モードの間で、操作モードを切り替える、請求項1からのいずれか1項に記載の情報処理システム。
  9. 前記第2操作モードにおいて、前記第1入力の入力量と前記第2入力の入力量とに基づいて前記第1制御または前記第2制御が実行される、請求項に記載の情報処理システム。
  10. 前記コントローラは、
    前記ユーザの、前記指とは異なる指によって操作される他の操作子と、
    前記他の操作子に対するユーザ操作を検出する他のセンサと
    をさらに備え、
    前記プロセッサは、
    前記他のセンサからの出力に基づいて、前記他の操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含む他のせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含む他のモーメントパラメータとを決定し、
    前記第2操作モードにおいて、前記せん断パラメータに基づいて前記ユーザが操作する仮想空間内の操作オブジェクトの移動または姿勢を制御する場合には、前記他のモーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行し、前記モーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行する場合には、前記他のせん断パラメータに基づいて前記操作オブジェクトの移動または姿勢を制御する、請求項またはに記載の情報処理システム。
  11. 前記ユーザの、前記指とは異なる指によって操作される他の操作子と、
    前記他の操作子に対するユーザ操作を検出する他のセンサと
    を備える他のコントローラをさらに備え、
    前記プロセッサは、
    前記他のセンサからの出力に基づいて、前記他の操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含む他のせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含む他のモーメントパラメータとを決定し、
    前記第2操作モードにおいて、前記せん断パラメータに基づいて前記ユーザが操作する仮想空間内の操作オブジェクトの移動または姿勢を制御する場合には、前記他のモーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行し、前記モーメントパラメータに基づいて前記操作オブジェクトの移動または姿勢の制御とは異なる制御を実行する場合には、前記他のせん断パラメータに基づいて前記操作オブジェクトの移動または姿勢を制御する、請求項またはに記載の情報処理システム。
  12. コントローラと通信可能に接続される情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記コンピュータに、
    前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを取得するステップと、
    前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行するステップと
    を実行させ
    前記第1制御または前記第2制御の一方が前記第1入力または前記第2入力の一方に基づいて実行されているときには、両方の制御が実行されていないときに比べて、他方の制御が実行されるのに要する他方の入力量が大きい、
    情報処理プログラム。
  13. コントローラを含む情報処理システムにより実行される情報処理方法であって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記センサからの出力に基づいて、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを決定するステップと、
    前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行するステップと
    を含み、
    前記第1制御または前記第2制御の一方が前記第1入力または前記第2入力の一方に基づいて実行されているときには、両方の制御が実行されていないときに比べて、他方の制御が実行されるのに要する他方の入力量が大きい、
    情報処理方法。
  14. コントローラと一または複数のプロセッサを含む情報処理システムであって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記プロセッサは、
    前記センサからの出力に基づいて、前記操作子に対するユーザ操作の、少なくとも2つの方向成分を含むスライド成分と、少なくとも2つの方向成分を含む傾倒成分とを決定し、
    前記スライド成分または前記傾倒成分の一方である第1入力に基づいて第1制御を実行し、前記スライド成分または前記傾倒成分の他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行し、
    前記第1制御または前記第2制御の一方が前記第1入力または前記第2入力の一方に基づいて実行されているときには、両方の制御が実行されていないときに比べて、他方の制御が実行されるのに要する他方の入力量が大きい、
    情報処理システム。
  15. コントローラと通信可能に接続される情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記コンピュータに、
    前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを取得するステップと、
    前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行するステップと
    を実行させ、
    前記第1入力または前記第2入力の一方の入力があるときには、他方の入力に基づく制御が実行されるのに要する入力量が、当該一方の入力がないときに当該他方の入力に基づく制御が実行されるのに要する入力量と比べて大きい、
    情報処理プログラム。
  16. コントローラを含む情報処理システムにより実行される情報処理方法であって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記センサからの出力に基づいて、前記操作子に対するユーザ操作に対応する、少なくとも2方向のせん断方向成分を含むせん断パラメータと、少なくとも2軸に対するモーメント方向成分を含むモーメントパラメータとを決定するステップと、
    前記せん断パラメータまたは前記モーメントパラメータの一方である第1入力に基づいて第1制御を実行し、前記せん断パラメータまたは前記モーメントパラメータの他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行するステップと
    を含み、
    前記第1入力または前記第2入力の一方の入力があるときには、他方の入力に基づく制御が実行されるのに要する入力量が、当該一方の入力がないときに当該他方の入力に基づく制御が実行されるのに要する入力量と比べて大きい、
    情報処理方法。
  17. コントローラと一または複数のプロセッサを含む情報処理システムであって、
    前記コントローラは、
    ユーザの指によって操作される操作子と、
    前記操作子に対するユーザ操作を検出する単一または複数のセンサと
    を備え、
    前記プロセッサは、
    前記センサからの出力に基づいて、前記操作子に対するユーザ操作の、少なくとも2つの方向成分を含むスライド成分と、少なくとも2つの方向成分を含む傾倒成分とを決定し、
    前記スライド成分または前記傾倒成分の一方である第1入力に基づいて第1制御を実行し、前記スライド成分または前記傾倒成分の他方である第2入力に基づいて前記第1制御とは異なる制御である第2制御を実行し、
    前記第1入力または前記第2入力の一方の入力があるときには、他方の入力に基づく制御が実行されるのに要する入力量が、当該一方の入力がないときに当該他方の入力に基づく制御が実行されるのに要する入力量と比べて大きい、
    情報処理システム。
JP2022556713A 2020-10-13 2020-10-13 情報処理システム、情報処理プログラムおよび情報処理方法 Active JP7441325B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/038593 WO2022079789A1 (ja) 2020-10-13 2020-10-13 情報処理システム、情報処理プログラムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2022079789A1 JPWO2022079789A1 (ja) 2022-04-21
JP7441325B2 true JP7441325B2 (ja) 2024-02-29

Family

ID=81207784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022556713A Active JP7441325B2 (ja) 2020-10-13 2020-10-13 情報処理システム、情報処理プログラムおよび情報処理方法

Country Status (3)

Country Link
US (1) US20230244326A1 (ja)
JP (1) JP7441325B2 (ja)
WO (1) WO2022079789A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2624631A (en) * 2022-11-22 2024-05-29 Sony Interactive Entertainment Inc Content control method and system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003504818A (ja) 1999-06-30 2003-02-04 ノキア モービル フォーンズ リミテッド ジョイスティック・コントローラ
JP2004184127A (ja) 2002-11-29 2004-07-02 K-Tech Devices Corp 応力センサ
US20050172711A1 (en) 2002-06-07 2005-08-11 Bernd Gombert Measuring device for measuring positions or movements
WO2012086601A1 (ja) 2010-12-22 2012-06-28 株式会社ソニー・コンピュータエンタテインメント 操作子及び操作装置
JP2013025666A (ja) 2011-07-25 2013-02-04 Sony Corp 情報処理装置、情報処理方法及び入力装置
JP2014526741A (ja) 2011-09-09 2014-10-06 インテル コーポレイション 球形の3次元コントローラ
JP2019084338A (ja) 2017-11-01 2019-06-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作信号提供方法
US20190302903A1 (en) 2018-03-30 2019-10-03 Microsoft Technology Licensing, Llc Six dof input device
JP2020061629A (ja) 2018-10-09 2020-04-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびコンテンツファイルの再生方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345004B1 (en) * 2009-03-06 2013-01-01 Pixar Methods and apparatus for differentially controlling degrees of freedom of an object

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003504818A (ja) 1999-06-30 2003-02-04 ノキア モービル フォーンズ リミテッド ジョイスティック・コントローラ
US20050172711A1 (en) 2002-06-07 2005-08-11 Bernd Gombert Measuring device for measuring positions or movements
JP2004184127A (ja) 2002-11-29 2004-07-02 K-Tech Devices Corp 応力センサ
WO2012086601A1 (ja) 2010-12-22 2012-06-28 株式会社ソニー・コンピュータエンタテインメント 操作子及び操作装置
JP2014052664A (ja) 2010-12-22 2014-03-20 Sony Computer Entertainment Inc 操作子及び操作装置
JP2013025666A (ja) 2011-07-25 2013-02-04 Sony Corp 情報処理装置、情報処理方法及び入力装置
JP2014526741A (ja) 2011-09-09 2014-10-06 インテル コーポレイション 球形の3次元コントローラ
JP2019084338A (ja) 2017-11-01 2019-06-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作信号提供方法
US20190302903A1 (en) 2018-03-30 2019-10-03 Microsoft Technology Licensing, Llc Six dof input device
JP2020061629A (ja) 2018-10-09 2020-04-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびコンテンツファイルの再生方法

Also Published As

Publication number Publication date
WO2022079789A1 (ja) 2022-04-21
JPWO2022079789A1 (ja) 2022-04-21
US20230244326A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
US9996153B1 (en) Haptic interaction method, tool and system
US6115028A (en) Three dimensional input system using tilt
JP5440176B2 (ja) 入力装置、制御装置、制御システム、ハンドヘルド装置及び制御方法
US8847883B2 (en) Input apparatus, input method, and control system
EP3489803A1 (en) Systems and methods for providing haptic feedback according to tilt-based inputs
JP2008015679A (ja) ユーザインタフェース装置および操作感度調整方法
EP3277393B1 (en) Game controller
KR20120007970A (ko) 입력 장치
EP2664527A1 (en) Inverted pendulum type vehicle
US10698490B2 (en) Haptic feedback device, method and system
JP2020149584A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US20190282905A1 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP7455277B2 (ja) モーション信号とマウス信号を使用してホスト装置を制御するための電子装置
JP7441325B2 (ja) 情報処理システム、情報処理プログラムおよび情報処理方法
EP4049103A1 (en) Maintaining free-drive mode of robot arm for period of time
JP2022184958A (ja) アニメーション制作システム
JP4940294B2 (ja) 情報処理システム、操作デバイス及び情報処理方法
US20220137787A1 (en) Method and system for showing a cursor for user interaction on a display device
JP4121492B2 (ja) ゲーム装置およびゲームプログラム
JP6710919B2 (ja) ロボット操作装置
JP7248720B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP2017134802A (ja) ユーザーインターフェースプログラム
EP3553635B1 (en) Information processing program, information processing apparatus, information processing system, and information processing method
WO2021078344A1 (en) Safe activation of free-drive mode of robot arm
JP7115698B2 (ja) アニメーション制作システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240216

R150 Certificate of patent or registration of utility model

Ref document number: 7441325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150