JP5784259B1 - Information processing program and information processing method - Google Patents
Information processing program and information processing method Download PDFInfo
- Publication number
- JP5784259B1 JP5784259B1 JP2015121002A JP2015121002A JP5784259B1 JP 5784259 B1 JP5784259 B1 JP 5784259B1 JP 2015121002 A JP2015121002 A JP 2015121002A JP 2015121002 A JP2015121002 A JP 2015121002A JP 5784259 B1 JP5784259 B1 JP 5784259B1
- Authority
- JP
- Japan
- Prior art keywords
- command
- input
- estimation
- display
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 64
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000009471 action Effects 0.000 claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 abstract description 16
- 230000004043 responsiveness Effects 0.000 abstract description 13
- 230000033001 locomotion Effects 0.000 description 40
- 238000004364 calculation method Methods 0.000 description 22
- 230000007704 transition Effects 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 19
- 238000010586 diagram Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供すること。【解決手段】制御部30は、入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含むゲームを実行する際に機能する。入力検出部31は、タッチスクリーン40への物体の接触又は近接の操作による入力イベントを検出する。推定部32は、入力検出部31における検出結果の履歴に基づいて、複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する。表示制御部33は、推定コマンドに関連する画像をタッチスクリーン40に表示させる制御を実行する。コマンド確定部34は、推定コマンドが所定の条件を満たした場合、当該推定コマンドを入力コマンドとして確定する。アクション実行部35は、確定された入力コマンドに対応するアクションを実行する。【選択図】図1A position-independent user interface capable of realizing a variety of commands and high responsiveness from a user's viewpoint is provided. A control unit functions when a game including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events is executed. The input detection unit 31 detects an input event caused by an operation of touching or approaching an object to the touch screen 40. Based on the detection result history in the input detection unit 31, the estimation unit 32 determines an estimated command as an input command from a plurality of types of commands. The display control unit 33 performs control to display an image related to the estimation command on the touch screen 40. When the estimated command satisfies a predetermined condition, the command confirming unit 34 confirms the estimated command as an input command. The action execution unit 35 executes an action corresponding to the confirmed input command. [Selection] Figure 1
Description
本発明は、情報処理プログラムおよび情報処理方法に関する。 The present invention relates to an information processing program and an information processing method.
従来より、携帯機器には、表示装置と入力装置とを兼ね備えたタッチスクリーンが多用されている。
タッチスクリーンを用いた入力インターフェイスとしては、図9に示すボタン表示型のユーザ・インターフェイスと、図10に示す位置独立型のユーザ・インターフェイスとが存在する。
Conventionally, a touch screen having both a display device and an input device has been frequently used for portable devices.
As an input interface using a touch screen, there are a button display type user interface shown in FIG. 9 and a position independent type user interface shown in FIG.
ボタン表示型のユーザ・インターフェイスでは、図9に示すように、入力用のボタンや十字キーの他入力イベントに関連する各種特定表示501乃至510が、主要な画像(人や風景の画像)の上に重畳表示される。そして、ボタンを示す特定表示501や十字キーを示す特定表示502等の限られた場所に、プレイヤーの指がタッチされた場合にのみ、入力イベントが検出される。
In the button display type user interface, as shown in FIG. 9, various
これに対して、位置独立型のユーザ・インターフェイスでは、図10に示すように、特定表示501乃至510は存在せず、主要な画像(人や風景の画像)が隠されずに表示された状態で、画面(タッチスクリーン)の任意の場所にプレイヤーの指601がタッチされると、入力イベントが検出される。
On the other hand, in the position-independent user interface, as shown in FIG. 10, there are no
このように、画面(タッチスクリーン)上の任意の場所をタッチ操作できる位置独立型のユーザ・インターフェイスは、画面上にボタンや十字キーを常時表示する必要があるボタン表示型のユーザ・インターフェイスと比較して、画面サイズに制限のあるスマートフォン等の携帯端末でゲームを実行する場合に特に有効である。 In this way, the position-independent user interface that can be operated by touching any place on the screen (touch screen) is compared with the button-display type user interface that always needs to display buttons and cross keys on the screen. This is particularly effective when the game is executed on a mobile terminal such as a smartphone with a limited screen size.
ただし、位置独立型のユーザ・インターフェイスを採用するゲームでは、ユーザの1つのタッチ操作から、1つのアクションをユニークに(一意に)決定することができない。
例えば、ユーザが画面上の一部をタッチした瞬間では、その場所に表示されているアイテムやキャラクターを選択するためのワンタップ操作であったのか、それとも、スクリーンを連続的にタップする操作の開始なのか、それとも、方向指示を行うためのスワイプ操作の開始なのかを一意に特定することは困難である。
そのため、従来の位置独立型ユーザ・インターフェイスでは、すべての操作を一意に決定できるように、ユーザが入力する内容を著しく制限する手法や、タップするエリアを大まかに分類する手法、入力内容をリアルタイムに画面上にフィードバックすることにより、ユーザが誤入力を直ちに認識できるようにする手法等が採用されてきた(例えば特許文献1参照)。
However, in a game employing a position-independent user interface, one action cannot be determined uniquely (uniquely) from one touch operation of the user.
For example, at the moment when the user touches a part of the screen, it may be a one-tap operation to select an item or character displayed at the location, or an operation to continuously tap the screen is not started. It is difficult to uniquely identify whether this is the start of a swipe operation for instructing a direction.
For this reason, with the conventional position-independent user interface, all the operations can be determined uniquely, a technique that significantly restricts the contents input by the user, a technique that roughly classifies the area to be tapped, and the input contents in real time. A method has been adopted in which a user can immediately recognize an erroneous input by feeding back on the screen (see, for example, Patent Document 1).
また、ゲームとは異なる分野では、位置独立型のユーザ・インターフェイスとして、ジェスチャー入力がよく知られている。例えば、特許文献2には、円、四角等の図形、チェックマークやクエスチョンマーク等の記号、アルファベット等の文字を組み合わせたジェスチャーを認識する機能、および、ユーザが独自にジェスチャーをカスタマイズする機能を有するユーザ・インターフェイスが開示されている。 In a field different from games, gesture input is well known as a position-independent user interface. For example, Patent Document 2 has a function of recognizing a gesture combining a figure such as a circle or a square, a symbol such as a check mark or a question mark, or a character such as an alphabet, and a function that allows a user to customize a gesture independently. A user interface is disclosed.
しかしながら、特許文献1および2を含む従来の技術では、入力イベントのシーケンスから表されるコマンドを即座に識別することができないため、アクションゲームやリアルタイム性の高いRPGゲームのユーザ・インターフェイスとしては、不適切である。
そこで、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスの実現が、スマートフォン等の携帯機器向け用ゲームにおいて要求されている。
However, since the conventional techniques including Patent Documents 1 and 2 cannot immediately identify a command represented from the sequence of input events, it is not suitable as a user interface for an action game or a real-time RPG game. Is appropriate.
Therefore, the realization of a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint is required in games for mobile devices such as smartphones.
本発明は、このような状況に鑑みてなされたものであり、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint.
上記目的を達成するため、本発明の一態様の情報処理プログラムは、
入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含むゲームを実行するコンピュータに、
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップと、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップと、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップと、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップと、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップと、
を含む制御処理を実行させる情報処理プログラムであって、
前記表示制御ステップとして、
前記推定ステップにおいて第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を前記表示媒体に表示させ、
その後、前記コマンド確定ステップにおいて前記入力コマンドが確定されるまでの間に、前記推定ステップにおいて第2推定コマンドが決定された場合、前記第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を前記表示媒体に表示させる
制御処理を実行させる。
In order to achieve the above object, an information processing program according to one aspect of the present invention is provided.
A computer that executes a game including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events;
An input detection step of detecting an input event due to an operation of contact or proximity of an object to the display medium;
Based on the detection result history in the input detection step, an estimation step of determining what is estimated as an input command among the plurality of types of commands as an estimation command;
A display control step for executing control to display an image related to the estimation command on the display medium;
A command confirming step for confirming the estimated command as the input command when the estimated command satisfies a predetermined condition;
An action execution step for executing an action corresponding to the confirmed input command;
An information processing program for executing control processing including:
As the display control step,
When the first estimation command is determined in the estimation step, a first image corresponding to the first estimation command is displayed on the display medium,
Thereafter, when the second estimation command is determined in the estimation step until the input command is determined in the command determination step, the display of the first image is stopped and the second estimation command is displayed. A control process for displaying the corresponding second image on the display medium is executed.
このように、入力コマンドの確定前に、入力イベントの履歴に基づいて推定コマンドが決定されて、推定コマンドに関連する画像が表示媒体に表示される。そして、所定の条件を満たした推定コマンドが入力コマンドとして確定されて、当該入力コマンドに対応するアクションが実行される。これにより、多種のコマンドの確保が容易になると共に、(推定コマンドの画像の表示切替等により)ユーザ視点でのコマンドの高応答性が実現できる。従って、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供することができる。
さらに、推定コマンドが何であるのかを、リアルタイムかつ適切にプレイヤーに提示することができるので、コマンドの多様性とユーザ視点での高応答性をより適切に実現することが可能になる。
Thus, before the input command is confirmed, the estimation command is determined based on the history of the input event, and the image related to the estimation command is displayed on the display medium. Then, an estimated command that satisfies a predetermined condition is confirmed as an input command, and an action corresponding to the input command is executed. As a result, it is easy to secure various commands, and high responsiveness of commands from the user's viewpoint can be realized (by switching display of estimated command images). Therefore, it is possible to provide a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint.
Furthermore, since what the estimated command is can be presented to the player in real time and appropriately, it is possible to more appropriately realize command diversity and high responsiveness from the user's viewpoint.
本発明の別の態様の情報処理プログラムにおいて、前記入力イベントの検出から前記アクションの実行までの期間が予め規定されており、
前記第1画像および前記第2画像は、前記期間の長さを有する動画像であり、
前記期間内の所定タイミングで前記第1推定コマンドから前記第2推定コマンドに切り替わった場合、前記表示制御ステップとして、前記第2画像の表示開始点を前記期間のうち前記所定タイミングとして、前記第2画像の表示を開始する
制御処理を実行させる。
In the information processing program according to another aspect of the present invention, a period from the detection of the input event to the execution of the action is defined in advance,
The first image and the second image are moving images having the length of the period,
When the first estimation command is switched to the second estimation command at a predetermined timing within the period, as the display control step, the display start point of the second image is set as the predetermined timing in the period, and the second Start the control process that starts the image display.
これにより、アクションの実行までの期間において、推定コマンドの動画像が違和感なく表示され、推定コマンドの動画像が終了すると、最後の動画像に対応するコマンドが入力コマンドとしてアクションが実行される。これにより、ユーザにとって違和感なく、ゲームを実行させることができる。 Thereby, in the period until the execution of the action, the moving image of the estimated command is displayed without a sense of incongruity, and when the moving image of the estimated command is finished, the action corresponding to the last moving image is executed as the input command. Thereby, a game can be performed without a sense of incongruity for a user.
本発明の一態様の情報処理方法は、上述の本発明の一態様の情報処理プログラムに対応する情報処理方法である。 An information processing method of one embodiment of the present invention is an information processing method corresponding to the information processing program of one embodiment of the present invention described above.
本発明によれば、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供できる。 According to the present invention, it is possible to provide a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
なお、以下において、単に「画像」と呼ぶ場合には、「動画像」と「静止画像」との両方を含むものとする。
また、「動画像」には、次の第1処理乃至第3処理の夫々により表示される画像を含むものとする。
第1処理とは、平面画像(2D画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対して、複数枚からなる一連の静止画像を時間経過と共に連続的に切り替えて表示させる処理をいう。具体的には例えば、2次元アニメーション、いわゆるパラパラ漫画的な処理が第1処理に該当する。
第2処理とは、立体画像(3Dモデルの画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対応するモーションを設定しておき、時間経過と共に当該モーションを変化させて表示させる処理をいう。具体的には例えば、3次元アニメーションが第2処理に該当する。
第3処理とは、オブジェクト(例えばゲームキャラクタ)の夫々の動作に対応した映像(即ち動画)を準備しておき、時間経過と共に当該映像を流していく処理をいう。
In the following description, when simply referred to as “image”, both “moving image” and “still image” are included.
The “moving image” includes an image displayed by each of the following first to third processes.
The first process refers to a process in which a series of still images composed of a plurality of images are continuously switched over time and displayed for each motion of an object (for example, a game character) in a planar image (2D image). Specifically, for example, two-dimensional animation, so-called flip-flopping processing, corresponds to the first processing.
The second process refers to a process in which motions corresponding to respective actions of an object (for example, a game character) in a stereoscopic image (3D model image) are set, and the motions are changed and displayed over time. Specifically, for example, a three-dimensional animation corresponds to the second process.
The third process refers to a process in which videos (that is, moving images) corresponding to respective actions of an object (for example, a game character) are prepared and the video is played over time.
図1は、本発明の一実施形態に係る情報処理装置10の構成を示している。
本実施形態における情報処理装置10は、コンピュータおよびその周辺装置に適用される。本実施形態における各部は、コンピュータおよびその周辺装置が備えるハードウェア並びに当該ハードウェアを制御するソフトウェアによって構成される。
FIG. 1 shows a configuration of an
The
上記ハードウェアには、制御部としてのCPU(Central Processing Unit)の他、記憶部、通信部、表示部および入力部が含まれる。記憶部としては、例えば、メモリ(RAM:Random Access Memory、ROM:Read Only Memory等)、ハードディスクドライブ(HDD:Hard Disk Drive)、光ディスク(CD:Compact Disk、DVD:Digital Versatile Disk等)ドライブ等が挙げられる。通信部としては、例えば、各種有線および無線インターフェイス装置が挙げられる。表示部としては、例えば、液晶ディスプレイ等の各種ディスプレイが挙げられる。入力部としては、例えば、キーボードやポインティング・デバイス(マウス、トラッキングボール等)が挙げられる。 The hardware includes a CPU (Central Processing Unit) as a control unit, a storage unit, a communication unit, a display unit, and an input unit. Examples of the storage unit include a memory (RAM: Random Access Memory, ROM: Read Only Memory, etc.), a hard disk drive (HDD: Hard Disk Drive), an optical disk (CD: Compact Disk, DVD: Digital Versatile Drive, etc.). Can be mentioned. Examples of the communication unit include various wired and wireless interface devices. Examples of the display unit include various displays such as a liquid crystal display. Examples of the input unit include a keyboard and a pointing device (mouse, tracking ball, etc.).
本実施形態の情報処理装置10は、入力部と表示部とを兼ね備えた表示媒体として、タッチスクリーン40を設けている。
タッチスクリーン40の入力部は、例えば表示部の表示領域に積層される静電容量式又は抵抗膜式の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。ここで、タッチ操作とは、表示媒体たるタッチスクリーン40(正確にはそのうちの入力部)に対する物体(ユーザの指やタッチペン等)の接触又は近接の操作をいう。なお、以下、タッチ操作がなされた位置を「タッチ位置」といい、タッチ位置の座標を「タッチ座標」という。
The
The input unit of the
また、上記ソフトウェアには、上記ハードウェアを制御するコンピュータ・プログラムやデータが含まれる。コンピュータ・プログラムやデータは、記憶部により記憶され、制御部により適宜実行、参照される。また、コンピュータ・プログラムやデータは、通信回線を介して配布されることも可能であり、CD−ROM等のコンピュータ可読媒体に記録して配布されることも可能である。 The software includes a computer program and data for controlling the hardware. The computer program and data are stored in the storage unit, and are appropriately executed and referenced by the control unit. The computer program and data can be distributed via a communication line, or can be recorded on a computer-readable medium such as a CD-ROM and distributed.
本実施形態の情報処理装置10は、このようなハードウェアとソフトウェアの協働による各種動作をすべく、図1に示すような機能的構成を有している。
The
情報処理装置10は、制御部30とタッチスクリーン40とを備える。制御部30は、入力検出部31と、推定部32と、表示制御部33と、コマンド確定部34と、アクション実行部35とを備える。
The
入力検出部31は、タッチスクリーン40(入力部)に対するタッチ操作による入力イベントを検出する。
The
推定部32は、入力検出部31における検出結果の履歴に基づいて、複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する。
即ち、推定コマンドは、入力コマンドであろうと推定されているものをいい、入力コマンドは、後述するコマンド確定部34によって確定されたものをいう。
具体的には、推定部32は、確率演算部321と推定コマンド決定部322とを備える。確率演算部321は、入力イベントの履歴に基づいて複数種類のコマンドの夫々の入力確率を演算する。ここで、入力確率(Input Probability)とは、所定コマンドが入力コマンドとなり得る確率をいう。
推定コマンド決定部322は、演算された入力確率が最高のコマンドを推定コマンドとして決定する。
Based on the detection result history in the
That is, the estimated command refers to a command that is estimated to be an input command, and the input command refers to a command that is confirmed by a
Specifically, the
The estimation
表示制御部33は、推定コマンドに関連する画像を表示媒体(例えばタッチスクリーン40の表示部)に表示させる制御を実行する。
具体的には例えば、表示制御部33は、推定部32において第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を表示媒体に表示させる。その後、コマンド確定部34において入力コマンドが確定されるまでの間に、推定部32において第2推定コマンドが決定された場合、表示制御部33は、第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を表示媒体に表示させる。このような表示制御部33による表示制御の詳細や具体例については、図2、図3および図4を参照して後述する。
The
Specifically, for example, when the first estimation command is determined by the
コマンド確定部34は、推定コマンドが所定の条件を満たした場合、当該推定コマンドを入力コマンドとして確定する。
所定の条件は、特に限定されないが、本実施形態では、入力確率が100%に達した推定コマンドであるという第1条件と、例えば所定の時間(例えば、30フレーム)が経過した時点での推定コマンドになっているという第2条件とが採用されている。なお、第1条件と第2条件は「Or条件」である。即ち、第1条件と第2条件の何れか一方が満たされた場合が、推定コマンドが所定の条件を満たした場合になる。
When the estimated command satisfies a predetermined condition, the
The predetermined condition is not particularly limited, but in the present embodiment, the first condition that the input probability has reached 100% and the estimation when a predetermined time (for example, 30 frames) has elapsed, for example. The second condition of being a command is employed. The first condition and the second condition are “Or conditions”. That is, the case where one of the first condition and the second condition is satisfied is a case where the estimation command satisfies a predetermined condition.
アクション実行部35は、入力コマンドに対応するアクションを実行する。具体的には例えば、敵が存在するゲームの実行中においては、アクション実行部35は、入力コマンドに対応する、敵へのダメージ計算等を行い、その計算結果に応じた内容の画像を表示させる。
The
さらに以下、図2以降の図面を参照して、本実施形態の情報処理装置10をゲームに適用した場合について詳細に説明する。
本実施形態の情報処理装置10は、プレイヤーが入力しようとしているコマンドに曖昧性がある状況において、夫々のコマンドについて、入力されているコマンドを推定する確率として、上述の入力確率を連続的に計算する。そして、情報処理装置10は、その入力確率の変化に応じて、ゲーム内のキャラクターのモーションの再生処理、および、コマンドの実行処理をスケジューリングする。
ここで、スケジューリングとは、処理を加工したり変更することをいい、例えば、あるコマンドに対応するモーション再生の一部を省略する処理、入力確率の変化に応じて別のコマンドに対応する別のモーション再生を途中から開始する処理、モーションの再生を省略し、直ちにコマンドを実行してその結果を表示する処理、別のアクションに関する動画像を途中から再生する処理を含む。
このようなスケジューリングが行われるゲームにおいては、コマンド、モーション、およびアクションの用語は、次のような意味を有する。
コマンドは、ゲーム内において1つの機能に対応する入力イベントのシーケンスを示す。例えば本実施形態では、“攻撃”を行うためには画面を1回タップする、プレイヤー・キャラクターをジャンプさせるためには画面を2回タップする、道具を使うためには画面を長押しする、攻撃のためのターゲット選択のためには、敵キャラクターをタップする等、タッチスクリーン40に対する1以上のシーケンシャルなタッチ操作により、1のコマンドが表される。
モーションとは、画面上に表示されるキャラクターの動きを示す。モーションは、レンダリングされる2D/3D要素のみを示しており、実際の当たり判定(hit−testing)等は含まない。
アクションとは、コマンドを実行した結果行われる、実際の当たり判定等のゲーム上影響のある処理を示す。また、アクションは、当たり判定の成否の結果を画面上に表示する処理も含む。
Further, the case where the
The
Here, scheduling means processing or changing a process, for example, a process of omitting a part of motion playback corresponding to a certain command, another process corresponding to another command according to a change in input probability, and the like. This includes processing for starting motion playback halfway, processing for skipping motion playback, immediately executing a command and displaying the result, and processing for playing back a moving image related to another action.
In a game in which such scheduling is performed, the terms command, motion, and action have the following meanings.
The command indicates a sequence of input events corresponding to one function in the game. For example, in this embodiment, to perform an “attack”, tap the screen once, to jump the player character, tap the screen twice, to use a tool, long press the screen, attack In order to select a target, one command is represented by one or more sequential touch operations on the
Motion refers to the movement of a character displayed on the screen. The motion shows only 2D / 3D elements to be rendered, and does not include actual hit-testing or the like.
The action indicates a process that has an effect on the game, such as an actual hit determination, performed as a result of executing the command. The action also includes processing for displaying a result of success or failure of the hit determination on the screen.
図2は、本発明の一実施形態に係る情報処理装置10における入力イベントの入力確率の変化の例を示す図である。図3は、図2の変化例に基づくスケジューリングの例を示す図である。図4は、図3のスケジューリングの結果の例を示す図である。
図5は、図2乃至図4の例にあわせて、図1の情報処理装置10の各部の機能を模式的に示した図である。
FIG. 2 is a diagram illustrating an example of a change in input probability of an input event in the
FIG. 5 is a diagram schematically illustrating functions of each unit of the
図2乃至図5の例では、説明の便宜上、コマンドA(1回のタップ、即ち、シングルタップで発動するコマンド)と、コマンドB(2回のタップ、即ち、ダブルタップで発動するコマンド)とのみが定義されているものとする。
また、1つのコマンドの描画と実行とに30フレームを使用するものとする。なお、30フレームは、30FPS(Frames Per Second)のゲームでは1秒間に相当する。
In the example of FIGS. 2 to 5, for convenience of explanation, a command A (a command that is activated by one tap, that is, a single tap), and a command B (a command that is activated by two taps, that is, a double tap), Only is defined.
Also, 30 frames are used for drawing and executing one command. Note that 30 frames corresponds to one second in a 30 FPS (Frames Per Second) game.
まず、プレイヤーは、タッチスクリーン40に対してスワイプし、キャラクター101を移動させる。このとき、コマンドA、および、コマンドBは、ともに発生確率が0%のままである。
First, the player swipes the
次に、プレイヤーは、タッチスクリーン40に対して1回のタップを行ったものとする。このとき、図5の入力検出部31は、図2に示すように、当該タップを入力イベント201として検出する。
そして、図5の確率演算部321は、コマンドAとBの夫々の入力確率(夫々のコマンドA,Bが入力コマンドとなり得る各確率)を算出する。
ここで、コマンドAは、コマンドBよりも単純な操作で表される。このため、図2に示すように、1回のタップが行われた時点では、コマンドAの入力確率の方が、コマンドBの入力確率よりも少しだけ高くなるように算出される。
従って、図5の推定コマンド決定部322は、入力確率が最高のコマンドAを推定コマンドとして決定する。
そこで、図3および図4に示すように、図5の表示制御部33は、コマンドAに対応するモーションの描画処理211を開始する。即ち、キャラクターの表示として、モーション表示102が開始される。
Next, it is assumed that the player performs one tap on the
Then, the
Here, the command A is expressed by a simpler operation than the command B. For this reason, as shown in FIG. 2, the input probability of command A is calculated to be slightly higher than the input probability of command B when one tap is performed.
Therefore, the estimation
Therefore, as shown in FIGS. 3 and 4, the
その後も、確率演算部321は、入力検出部31における検出結果の履歴に基づいて、コマンドAとBの夫々の入力確率を逐次的に算出する。
即ち、入力イベント201が検出された後、後述する次の入力イベント202が検出されるまでの間は、1回のタップ(入力イベント201)が行われた後、所定時間の間には入力イベントが行われていない、という検出結果の履歴になる。
この場合、入力イベントが行われていない所定時間が長くなるほど、1回のタップで終了する確率が高くなる。従って、図2の点線で示すように、コマンドAの入力確率は徐々に高くなっていく。これに対して、図2の実線で示すように、コマンドBの入力確率は一定のままとなる。
従って、推定コマンド決定部322は、コマンドAを推定コマンドとする決定結果を維持する。このため、図3および図4に示すように、表示制御部33は、コマンドAに対応するモーションの描画処理211を継続する。つまり、キャラクターの表示は、モーション表示102のまま継続する。
Thereafter, the
That is, after the
In this case, the longer the predetermined time during which no input event is performed, the higher the probability of ending with one tap. Therefore, as shown by the dotted line in FIG. 2, the input probability of the command A gradually increases. On the other hand, the input probability of the command B remains constant as shown by the solid line in FIG.
Therefore, the estimation
しかし、その後、例えば描画開始してから15フレーム後に、プレイヤーが2回目のタップを行ったものとする。
このとき、入力検出部31は、図2に示すように、当該タップを入力イベント202として検出する。
この場合、2回のタップ(入力イベント201および202)が行われた、という検出結果の履歴になる。本例では、1回のタップのコマンドAと、2回のタップのコマンドBとしか定義されていないので、確率演算部321は、コマンドAの入力確率を0%と算出すると共に、コマンドBの入力確率を100%と算出する。
即ち、最高の入力確率が、コマンドAの入力確率から、コマンドBの入力確率に変化する。
そこで、図3および図4に示すように、表示制御部33は、コマンドAに対応するモーションの描画処理211を中止して、コマンドBに対応するモーションの描画処理212を開始する。つまり、キャラクターの表示は、モーション表示102からモーション表示103に変化する。
ここで、本実施形態では、コマンドBに対応するモーション表示103は、最初の15フレームはスキップされ、16フレーム目から開始される。
However, after that, for example, it is assumed that the player performs the second tap 15 frames after the start of drawing.
At this time, the
In this case, the detection result history is that two taps (input
That is, the highest input probability changes from the input probability of command A to the input probability of command B.
3 and 4, the
Here, in this embodiment, the
より一般的にいえば、入力イベントの検出(本例では入力イベント201)からアクションの実行までの期間(本例では30フレーム)が予め規定されている。そして、コマンドAに対応する第1画像(本例ではモーション表示102に相当)と、コマンドBに対応する第2画像(本例ではモーション表示103に相当)とは、上記予め規定された期間(本例では30フレーム)の長さを有する動画像である。
上記期間内の所定タイミング(15フレーム描画後のタイミング)で推定コマンドがコマンドAからコマンドBに切り替わった場合、表示制御部33は、第2画像の表示開始点を上記期間の所定タイミング(15フレーム描画後のタイミングなので16フレーム目から)として、第2画像の表示を開始する。
More generally speaking, a period (30 frames in this example) from detection of an input event (
When the estimation command is switched from the command A to the command B at a predetermined timing within the period (timing after 15 frames are drawn), the
ただし、これは例示に過ぎず、例えば、第2画像(コマンドBのモーション)の最初の1フレーム目から30フレーム目までを、フレームの間引き再生(早送り再生)等を利用することで、15フレーム期間内に描画するようにしてもよい。 However, this is only an example. For example, the first frame to the 30th frame of the second image (command B motion) can be obtained by using thinned frame playback (fast-forward playback) or the like for 15 frames. You may make it draw within a period.
ところで、入力イベント202の段階で、コマンドBの入力確率は100%となる。そこで、図5のコマンド確定部34は、コマンドBを入力コマンドとして確定する。
By the way, at the stage of the
図5のアクション実行部35は、コマンドBのモーション表示103が30フレーム目まで描画された後(最初の入力イベント201から30フレーム分のモーション描画がなされた後)、コマンドBに従って所定のアクションの処理を実行する。
例えばコマンドBの攻撃による敵へのダメージ計算等が行われる。そして、図3や図4に示すように、そのダメージ計算等の結果に応じたキャラクターの表示104が適宜行われる。
The
For example, the damage to the enemy due to the attack of the command B is calculated. Then, as shown in FIGS. 3 and 4, a
ここで、入力検出部31による入力イベントの検出結果の履歴は、図6および図7に示すような行列(以下、「タッチイベントマトリックス」と呼ぶ)として表すことで、推定部32の演算を容易かつ確実に行うことができるようになる。
Here, the history of the detection result of the input event by the
図6は、タッチイベントマトリックスの例を示す図である。図7は、タッチイベントマトリックスの別の例を示す図である。
本実施形態において、例として示す図6および図7のタッチイベントマトリックスは、タッチスクリーン40を構成する各画素(ピクセル)に対する、ユーザからの入力イベントの発生有無を時系列順にメモリ上に記録したものとして構成される。
FIG. 6 is a diagram illustrating an example of a touch event matrix. FIG. 7 is a diagram illustrating another example of the touch event matrix.
In this embodiment, the touch event matrix of FIGS. 6 and 7 shown as an example is recorded in the memory in time series in the presence or absence of occurrence of an input event from the user for each pixel (pixel) constituting the
図6及ぶ図7の例のタッチイベントマトリックスは、列の要素(横軸の要素)として、表示媒体における入力イベントの検出単位(各画素)が採用され、行の要素(時間軸たる縦軸の要素)として、入力イベントの検出タイミングが採用されている。
具体的には、列の各要素(横軸の各要素)を示すpx[x,y]は、タッチスクリーン40の右上を原点としたとき、横x番目、縦y番目のピクセルを意味する。
例えば、px[0,0]は最も右上のピクセルを示し、px[1136,640]は、最も左下のピクセルを示すこととする。
行の要素(縦軸である時間軸の要素)は、入力イベントの検出タイミングを、ミリ秒、もしくは、フレーム数で示したものである。なお、情報処理システムをゲームに適用する場合、行の要素(縦軸の要素)は、フレーム数で示すことが好適である。
本例では、タッチイベントマトリックスの要素(ti,px[x,y])には、検出タイミングtiにおいてピクセルpx[x,y]に入力イベントが発生したときには、「1」が格納され、入力イベントが発生していないときには「0」が格納される。
なお、上記値の格納手法は、例示に過ぎず、例えば、あいまいな入力イベントへの対応や、タッチスクリーン40の静電容量を直接扱うことを目的として、0.5等の実数を格納する手法を採用してもよい。
The touch event matrix in the example of FIGS. 6 and 7 employs a detection unit (each pixel) of an input event in a display medium as a column element (horizontal axis element), and a row element (vertical axis as a time axis). As an element), an input event detection timing is adopted.
Specifically, px [x, y] indicating each element in the column (each element on the horizontal axis) means the x-th pixel in the horizontal direction and the y-th pixel in the vertical direction when the upper right of the
For example, px [0,0] indicates the upper right pixel, and px [1136, 640] indicates the lower left pixel.
The row element (the time axis element which is the vertical axis) indicates the detection timing of the input event in milliseconds or the number of frames. When the information processing system is applied to a game, it is preferable that the row elements (vertical elements) are represented by the number of frames.
In this example, “1” is stored in the element (ti, px [x, y]) of the touch event matrix when an input event occurs in the pixel px [x, y] at the detection timing ti. When no occurs, “0” is stored.
Note that the above-described value storage method is merely an example, and for example, a method of storing a real number such as 0.5 for the purpose of dealing with an ambiguous input event or directly handling the capacitance of the
図6のタッチイベントマトリックスにおいて、画素px[0,2]についての要素群401から、継続する時間においてタップイベントが発生し、その後、発生していないことがわかる。即ち、要素群401は、画素px[0,2]におけるシングルタップの検出を示している。
一方、画素px[0,1]についての要素411および要素412からは、ある程度の時間間隔をおいて同一の(もしくは、近傍の)ピクセルへのタッチイベントが発生していることがわかる。即ち、要素411および要素412は、画素px[0,1]におけるダブルタップの検出を示している。
In the touch event matrix of FIG. 6, it can be seen from the
On the other hand, from the
また、図7のタッチイベントマトリックスにおいては、画素px[0,2]についての要素群421から、同一場所に長時間にわたってタッチイベントが発生し続けていることがわかる。即ち、要素群421は、指等の物体が当該場所で押し付け続けられているタッチ操作、即ちいわゆる長押しの検出を示している。
Further, in the touch event matrix of FIG. 7, it can be seen from the
なお、タッチイベントマトリックスの構造は、図6や図7の構造に限定されず、以下のような構造であればよい。
即ち、入力イベントの検出タイミングを行又は列の一方の要素とし、表示媒体における入力イベントの検出単位を行又は列の他方の要素として構成される行列であって、検出タイミング毎の検出単位毎の検出結果を各要素値とする行列であれば、タッチイベントマトリックスとして採用することができる。
Note that the structure of the touch event matrix is not limited to the structure of FIG. 6 or 7, and may be the following structure.
That is, a matrix configured with the input event detection timing as one element of a row or column and the input event detection unit in the display medium as the other element of the row or column, and for each detection unit at each detection timing Any matrix having a detection result as each element value can be adopted as a touch event matrix.
次に、上記図6や図7の構造のタッチイベントマトリックスを対象として、ゲーム内で使用される夫々のコマンドについて、入力確率を演算する手法の概要を説明する。
ある1タイトルのゲームにおいて、n個(nは1以上の整数値)のコマンドが存在するとき、n個のコマンドの夫々についての入力確率を演算するためのn個の関数(以下、「確率計算関数」と呼ぶ)が用意される。
具体的には、i番目(iは1乃至nのうちの任意の整数値)のコマンドに対応する、確率計算関数fiは、式(1)に示すように、タッチイベントマトリックスであるMを引数として、0から1までの実数を返す関数として定義することができる。
fi(M,wi)→[0…1] ・・・(1)
Next, an outline of a technique for calculating the input probability for each command used in the game will be described for the touch event matrix having the structure shown in FIGS.
When there are n commands (n is an integer value of 1 or more) in a game of one title, n functions (hereinafter referred to as “probability calculation”) for calculating input probabilities for each of the n commands. Called "function").
Specifically, the probability calculation function fi corresponding to the i-th command (i is an arbitrary integer value from 1 to n) is an argument of M, which is a touch event matrix, as shown in Expression (1). Can be defined as a function that returns a real number from 0 to 1.
fi (M, wi) → [0... 1] (1)
ここで、wiは、i番目のコマンドに対応する重み係数である。このような重み係数wiを設定することにより、入力しやすいコマンドと入力しにくいコマンドとの差を、入力確率の演算に反映することが可能になる。
具体的には例えば、図2の例では、より単純なコマンドAが、複雑なコマンドBよりも、高い重み係数を有するようにすることができる。
なお、確率計算関数の実装方法は、ゲーム内容に依存するものであるため、ここでは詳細については規定しない。
Here, wi is a weighting factor corresponding to the i-th command. By setting such a weighting factor wi, the difference between a command that is easy to input and a command that is difficult to input can be reflected in the calculation of the input probability.
Specifically, for example, in the example of FIG. 2, a simpler command A can have a higher weight coefficient than a complex command B.
Note that the implementation method of the probability calculation function depends on the game content, so details are not specified here.
図5の確率演算部321は、タッチイベントマトリックスMと上記式(1)の確率計算関数fiとを用いて、n個のコマンドの夫々の入力確率を演算する。
推定コマンド決定部322は、n個のコマンドのうち、入力確率を最高のコマンドを推定コマンドとして決定し、当該推定コマンドの適切なフレーム番号からレンダリングを開始するよう、表示制御部33へ通知する。
また、推定コマンド決定部322は、確率演算部321によりある特定のコマンドの入力確率が100%と算出されたとき、当該特定のコマンドをコマンド確定部34に通知する。
The
The estimation
Further, when the
推定コマンド決定部322のさらに詳細な動作は次の通りである。
推定コマンド決定部322は、内部変数であるフレーム数カウンター(以下、「FC」と呼ぶ)をゼロに初期化する。
確率演算部321が算出したn個の入力確率の何れもが100%未満であったとき、即ち、曖昧性のある入力があったとき、推定コマンド決定部322は、最高の入力確率を有するコマンド(以下、「コマンドα」と呼ぶ)を推定コマンドとして選択し、当該コマンドαのモーションをFCが示す値のフレームから再生する旨を表示制御部33に通知する。
コマンドαのモーションが再生されている間に、もし、確率演算部321が算出した入力確率が最高となるコマンドが変化したとき、推定コマンド決定部322は、その変化後の最高の入力確率を有するコマンド(以下、「コマンドβ」と呼ぶ)を推定コマンドとして選択する。そして、推定コマンド決定部322は、現在再生中のコマンドαのモーションの再生を中断する旨を表示制御部33に通知し、さらに、再生したフレームの数をFCに加えた上で、コマンドβのモーションをFCが示す値のフレームから再生する旨を表示制御部33に通知する。
The detailed operation of the estimation
The estimation
When any of the n input probabilities calculated by the
While the motion of the command α is being reproduced, if the command with the highest input probability calculated by the
表示制御部33は、推定コマンド決定部322からの上記通知に応じて、キャラクターのモーションを再生する。表示制御部33は、既存のゲーム・ソフトウェアが有するモーションの再生の拡張として実装することができる。なお、本例のようにモーションの状態をフレーム番号で識別する場合には、2D/3Dの何れのゲームにも適用することができる
The
コマンド確定部34は、推定コマンド決定部322から通知されたコマンドを入力コマンドとして確定して、当該入力コマンドに対応するレンダリング(キャラクターのモーション表示)の終了後、当該入力コマンドに対応するアクションを実行するよう、アクション実行部35へ通知する。
The
アクション実行部35は、コマンド確定部34から通知された入力コマンドに従って、所定のアクションを実行する。例えば、アクション実行部35は、実際の当たり判定等のゲーム上影響のある処理を実行する。また、アクション実行部35は、当たり判定の成否の結果を画面上に表示する制御を実行する。
なお、アクション実行部35は、既存のゲーム・ソフトウェアが有するアクションの実行機能を再利用し、実装することで実現できる。
The
The
図8は、このような本実施形態の情報処理装置10の状態遷移の例を示す状態遷移図である。図8を参照して、情報処理装置10によるコンテクストに応じたキャラクター・アクションのスケジューリングの実行手順を示す。
情報処理装置10は、入力イベントが検出されると、連続的に各コマンドの入力確率を演算するため、ループとして処理を実行する。このループにおける状態遷移モデルを示す図8において、各状態は、1つの楕円形で示されており、その楕円形に引かれた“S”を含む符号により判別される。1つの状態から1つの状態への状態遷移は、所定の条件(以下、「状態遷移条件」という)が満たされると実行される。このような状態遷移条件は、図8においては、1つの状態から1つの状態への遷移を表す矢印に、“A”を含む符号を付して表されている。
FIG. 8 is a state transition diagram illustrating an example of the state transition of the
When an input event is detected, the
本実施形態においては、図8に示すように、初期状態S1が基本の状態になる。ユーザが所定の操作(例えば、ゲーム開始操作等)をすることで、図示せぬ別の状態から初期状態S1に遷移するものとする。
初期状態S1では、情報処理装置10は、入力検出部31の内部変数である、すべてのコマンドの入力確率をゼロに設定する。また、情報処理装置10は、内部変数であるFCをゼロに設定する。
In the present embodiment, as shown in FIG. 8, the initial state S1 is the basic state. When the user performs a predetermined operation (for example, a game start operation or the like), the state transitions from another state (not shown) to the initial state S1.
In the initial state S1, the
初期状態S1において、入力検出部31が、入力イベント(例えば、プレイヤーによる1回のタップ等)を検出すると、状態遷移条件A1が満たされる。すると、状態は、推定コマンド決定状態S2に遷移する。
In the initial state S1, when the
推定コマンド決定状態S2において、推定部32は、タッチイベントマトリックスを用いて、すべてのコマンドの入力確率を算出し、最高の入力確率を有するコマンドを推定コマンドに決定する。表示制御部33は、推定コマンドのモーションの描画を開始する。
In the estimated command determination state S2, the
推定コマンド決定状態S2において、入力確率が100%に達しない限り、状態遷移条件A2が満たされたとみなされて、状態は、推定コマンド決定状態S2に戻る。即ち、推定コマンド決定状態S2が維持される。
推定コマンド決定状態S2が維持された状態で、入力確率が100%に達した推定コマンドが生じた場合、状態遷移条件A3が満たされる。すると、状態は、入力コマンド確定状態S3に遷移する。
In the estimated command determination state S2, unless the input probability reaches 100%, the state transition condition A2 is considered to be satisfied, and the state returns to the estimated command determination state S2. That is, the estimated command determination state S2 is maintained.
In the state where the estimated command determination state S2 is maintained, when an estimated command whose input probability reaches 100% occurs, the state transition condition A3 is satisfied. Then, the state transitions to the input command confirmation state S3.
入力コマンド確定状態S3に遷移すると、コマンド確定部34は、入力確率が100%に達した推定コマンドを入力コマンドとして確定する。
すると、状態遷移条件A4が満たされて、状態は、アクション実行状態S4に遷移する。
When transitioning to the input command determination state S3, the
Then, the state transition condition A4 is satisfied, and the state transitions to the action execution state S4.
アクション実行状態S4に遷移すると、アクション実行部35は、アクションを実行する。
アクションの実行後に入力イベントが検出された場合、状態遷移条件A5が満たされ、状態は推定コマンド決定状態S2に遷移する。一方、アクションの実行後に入力イベントが検出されない場合、状態遷移条件A6が満たされ、状態は初期状態S1に遷移する。
When transitioning to the action execution state S4, the
When an input event is detected after execution of the action, the state transition condition A5 is satisfied, and the state transitions to the estimated command determination state S2. On the other hand, when no input event is detected after the action is executed, the state transition condition A6 is satisfied, and the state transitions to the initial state S1.
以上説明したように、本実施形態の情報処理装置10は、コンテクストに応じたキャラクター・アクションのスケジューリングによる、応答性の高いタッチスクリーン40用位置独立ユーザ・インターフェイスを実現することができる。即ち、情報処理装置10は、タッチスクリーン40上の任意の場所をタッチして操作する、位置独立型のユーザ・インターフェイスにおいて、多数のコマンドをサポートしながら、応答性を飛躍的に高めることができる。
さらに、本実施形態の情報処理装置10は、タッチスクリーン40から得られる入力イベントのシーケンスを対象として、ユーザの意図を推定する確率計算を連続的に実行し、その確率の変化に応じて、キャラクターのモーションの表示と、アクションの実行(攻撃の当たり判定やアイテムの消費等)をリアルタイムにスケジューリングすることができる。情報処理装置10によるスケジューリング方式は、コマンドの入力途中から即座にキャラクターのモーションを再生しながら、コマンドの入力の進行に応じて極めて高速にコマンドの曖昧性を排除するので、高い応答性の実現と多種のコマンドの正確な識別とを同時に実現することができる。
As described above, the
Furthermore, the
即ち、本実施形態の情報処理装置10は、ユーザから見たときの応答性を損なうことなく、多種類のコマンドを位置独立型のユーザ・インターフェイスを用いて入力可能とすることができる。
ここで、従来の位置独立型のユーザ・インターフェイスは、ジェスチャー入力のようにゲームに適さないほどの長い時間の入力を要するコマンドや、ごく単純な入力イベントで表現されるコマンドを受け付けるものであり、限られた数のコマンドしか設定できない。
これに対して、本実施形態の情報処理装置10は、数倍から数十倍の数のコマンドを設定しても、入力の開始と共に推定コマンドを決定し、当該推定コマンドに対応するキャラクターの画像(モーション)の表示を開始することができるため、プレイヤーからみて高い応答性が実現できていると認識される。
That is, the
Here, the conventional position-independent user interface accepts a command that requires an input that is too long for a game, such as gesture input, or a command that is represented by a very simple input event. Only a limited number of commands can be set.
On the other hand, the
さらに、本実施形態の情報処理装置10は、他にも、次の利点を有する。
Furthermore, the
本実施形態の情報処理装置10は、解像度に依存しないユーザ・インターフェイスを実現可能という利点を有する。即ち、本実施形態の情報処理装置10は、画面上に表示されるボタンを使用する必要がないため、タッチスクリーン40の解像度に依存しないユーザ・インターフェイスを実現可能である。従って、スマートフォンの機種ごとに解像度が異なる状況においても、同一の操作性を利用者に提供することができる。
The
本実施形態の情報処理装置10は、既存のアセットを再利用可能であるという利点を有する。即ち、本実施形態の情報処理装置10は、モーションの状態をフレーム番号で識別することができれば、任意のアセット(ゲーム内で使用される静止画像や3Dオブジェクト)を使用することができる。そのため、本実施形態の情報処理装置10は、2D/3Dの何れのゲームにも適用することができ、さらに、既存のゲームのアセットをそのまま再利用することができる。
The
本実施形態の情報処理装置10は、多ジャンルへ適用可能であるという利点を有する。即ち、本実施形態の情報処理装置10で実現可能になるスケジューリングは、特定のゲームジャンルに依存していない。従って、本実施形態の情報処理装置10は、アクションゲームやリアルタイムRPG、および、リアルタイム・シミュレーションゲーム等、ユーザがリアルタイムにコマンドを入力するゲームに幅広く適用可能である。
さらにいえば、本実施形態の情報処理装置10は、ゲームに特に限定する必要は無く、複数のコマンドに対応する複数のアクションを含むアルゴリズムを実行する際にも適用可能である。
The
Furthermore, the
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
例えば、推定コマンドの算出手法は、上述の実施形態では、各コマンドの入力確率を求める手法が採用されたが、特にこれに限定されず、分岐処理等で推定コマンドを絞り込んでいく手法等、任意のアルゴリズムに従った手法を採用することができる。 For example, in the above-described embodiment, the estimation command calculation method is a method for obtaining the input probability of each command. However, the calculation method is not particularly limited to this, and any method such as a method of narrowing down the estimation command by a branch process or the like may be used. It is possible to adopt a method according to the algorithm.
換言すると、本発明が適用される、コンピュータによって実行される情報処理プログラムは、上述の図1の実施形態としての情報処理装置10によって実行される情報処理プログラムを含め、次のような構成を有する各種各様の実施形態を取ることができる。
In other words, the information processing program executed by the computer to which the present invention is applied has the following configuration including the information processing program executed by the
即ち、本発明が適用される情報処理プログラムは、
入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含むゲームを実行するコンピュータ(例えば図1の情報処理装置10)に、
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップ(例えば、本ステップを実行する図1の入力検出部31)と、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップ(例えば、本ステップを実行する図1の推定部32)と、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップ(例えば、本ステップを実行する図1の表示制御部33)と、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップ(例えば、本ステップを実行する図1のコマンド確定部34)と、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップ(例えば、本ステップを実行する図1のアクション実行部35)と、
を含む制御処理を実行させる情報処理プログラムである。
That is, an information processing program to which the present invention is applied is
In a computer (for example, the
An input detection step (for example, the
An estimation step (for example, the
A display control step for executing control for displaying an image related to the estimation command on the display medium (for example, the
When the estimated command satisfies a predetermined condition, a command confirmation step for confirming the estimated command as the input command (for example, the
An action execution step for executing an action corresponding to the determined input command (for example, the
An information processing program for executing a control process including
これにより、本発明に係る情報処理プログラムは、コンピュータに、位置独立型のユーザ・インターフェイスにおいて、多種のコマンドを確保し、かつ、ユーザからみたコマンドの高応答性を実現させることができる。 As a result, the information processing program according to the present invention can ensure a variety of commands in a position-independent user interface and realize high command responsiveness from the user's perspective.
また例えば上述の実施形態では、算出した入力確率のうち、最も高い値を有するコマンドのモーションの描画を開始するとされたが、特にこれに限定されず、すべてのコマンドの入力確率が、閾値(例えば、30%)を下回るときは、モーションの描画を行わずに、確率計算が次に実行されるのを待つ実施形態であってもよい。
これにより、情報処理装置10は、コマンドの応答性をリアルタイムに実現しながら、多種のコマンドのうち、プレイヤーの意図に合致した入力コマンドの推定をより確実に行うことができる。
Further, for example, in the above-described embodiment, the drawing of the motion of the command having the highest value among the calculated input probabilities is started. However, the present invention is not particularly limited to this, and the input probabilities of all commands are threshold values (for example, , 30%), the embodiment may wait for the probability calculation to be executed next without drawing the motion.
Thereby, the
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図1の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理プログラムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図1の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 1 is merely an example, and is not particularly limited. That is, it is sufficient that the information processing program has a function capable of executing the above-described series of processes as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or personal computer other than a server.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。 The recording medium including such a program is not only constituted by a removable medium (not shown) distributed separately from the apparatus main body in order to provide the user with the program, but is also provided to the user in a state of being pre-installed in the apparatus main body. It is composed of a provided recording medium or the like.
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
10・・・情報処理装置、30・・・制御部、31・・・入力検出部、32・・・推定部、33・・・表示制御部、34・・・コマンド確定部、35・・・アクション実行部、40・・・タッチスクリーン、321・・確率演算部、322・・推定コマンド決定部
DESCRIPTION OF
Claims (3)
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップと、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップと、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップと、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップと、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップと、
を含む制御処理を実行させる情報処理プログラムであって、
前記表示制御ステップとして、
前記推定ステップにおいて第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を前記表示媒体に表示させ、
その後、前記コマンド確定ステップにおいて前記入力コマンドが確定されるまでの間に、前記推定ステップにおいて第2推定コマンドが決定された場合、前記第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を前記表示媒体に表示させる
制御処理を実行させる情報処理プログラム。 A computer that executes a game including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events;
An input detection step of detecting an input event due to an operation of contact or proximity of an object to the display medium;
Based on the detection result history in the input detection step, an estimation step of determining what is estimated as an input command among the plurality of types of commands as an estimation command;
A display control step for executing control to display an image related to the estimation command on the display medium;
A command confirming step for confirming the estimated command as the input command when the estimated command satisfies a predetermined condition;
An action execution step for executing an action corresponding to the confirmed input command;
An information processing program for executing control processing including:
As the display control step,
When the first estimation command is determined in the estimation step, a first image corresponding to the first estimation command is displayed on the display medium,
Thereafter, when the second estimation command is determined in the estimation step until the input command is determined in the command determination step, the display of the first image is stopped and the second estimation command is displayed. An information processing program for executing a control process for displaying a corresponding second image on the display medium.
前記第1画像および前記第2画像は、前記期間の長さを有する動画像であり、
前記期間内の所定タイミングで前記第1推定コマンドから前記第2推定コマンドに切り替わった場合、前記表示制御ステップとして、前記第2画像の表示開始点を前記期間のうち前記所定タイミングとして、前記第2画像の表示を開始する
制御処理を実行させる請求項1に記載の情報処理プログラム。 A period from the detection of the input event to the execution of the action is defined in advance,
The first image and the second image are moving images having the length of the period,
When the first estimation command is switched to the second estimation command at a predetermined timing within the period, as the display control step, the display start point of the second image is set as the predetermined timing in the period, and the second The information processing program according to claim 1, wherein control processing for starting display of an image is executed.
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップと、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップと、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップと、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップと、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップと、
を含み、
前記表示制御ステップとして、
前記推定ステップにおいて第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を前記表示媒体に表示させ、
その後、前記コマンド確定ステップにおいて前記入力コマンドが確定されるまでの間に、前記推定ステップにおいて第2推定コマンドが決定された場合、前記第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を前記表示媒体に表示させる
制御を実行するステップを含む情報処理方法。 In an information processing method including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events, executed by an information processing device,
An input detection step of detecting an input event due to an operation of contact or proximity of an object to the display medium;
Based on the detection result history in the input detection step, an estimation step of determining what is estimated as an input command among the plurality of types of commands as an estimation command;
A display control step for executing control to display an image related to the estimation command on the display medium;
A command confirming step for confirming the estimated command as the input command when the estimated command satisfies a predetermined condition;
An action execution step for executing an action corresponding to the confirmed input command;
Including
As the display control step,
When the first estimation command is determined in the estimation step, a first image corresponding to the first estimation command is displayed on the display medium,
Thereafter, when the second estimation command is determined in the estimation step until the input command is determined in the command determination step, the display of the first image is stopped and the second estimation command is displayed. An information processing method including a step of executing control to display a corresponding second image on the display medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015121002A JP5784259B1 (en) | 2015-06-16 | 2015-06-16 | Information processing program and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015121002A JP5784259B1 (en) | 2015-06-16 | 2015-06-16 | Information processing program and information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014256987A Division JP5784211B1 (en) | 2014-12-19 | 2014-12-19 | Information processing program and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5784259B1 true JP5784259B1 (en) | 2015-09-24 |
JP2016119049A JP2016119049A (en) | 2016-06-30 |
Family
ID=54200775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015121002A Active JP5784259B1 (en) | 2015-06-16 | 2015-06-16 | Information processing program and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5784259B1 (en) |
-
2015
- 2015-06-16 JP JP2015121002A patent/JP5784259B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016119049A (en) | 2016-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230280793A1 (en) | Adaptive enclosure for a mobile computing device | |
US12001650B2 (en) | Music user interface | |
US11747956B2 (en) | Multi-dimensional object rearrangement | |
CN109982756B (en) | Information processing program, information processing method, and information processing apparatus | |
US10384125B2 (en) | Information processing program and information processing method | |
US20190230400A1 (en) | Video recording and replay | |
JP6496752B2 (en) | Input device and user interface interaction | |
US20100182264A1 (en) | Mobile Device Equipped With Touch Screen | |
US20150035746A1 (en) | User Interface Device | |
CN105556438A (en) | Systems and methods for providing response to user input using information about state changes predicting future user input | |
US20150067589A1 (en) | Operation Processing Method And Operation Processing Device | |
US11759702B2 (en) | Game system, processing method, and information storage medium | |
JP5784211B1 (en) | Information processing program and information processing method | |
JP5784259B1 (en) | Information processing program and information processing method | |
JP5784260B1 (en) | Information processing program and information processing method | |
CN104951211B (en) | A kind of information processing method and electronic equipment | |
KR101610952B1 (en) | User gesture-based video play apparatus and operation method thereof | |
JP5993513B1 (en) | Baseball game program, game program, and computer | |
EP2672374A1 (en) | Detection of circular motion in a two-dimensional space | |
Myers | Touch-Enhanced Gesture Control Scheme | |
WO2017159796A1 (en) | Information processing method and information processing device | |
JP2017167792A (en) | Information processing method and information processor | |
Hörschinger et al. | Towards Self-Adaptive User Interfaces by Holding Posture Recognition for Smartphones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20150702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5784259 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |