JP5784259B1 - Information processing program and information processing method - Google Patents

Information processing program and information processing method Download PDF

Info

Publication number
JP5784259B1
JP5784259B1 JP2015121002A JP2015121002A JP5784259B1 JP 5784259 B1 JP5784259 B1 JP 5784259B1 JP 2015121002 A JP2015121002 A JP 2015121002A JP 2015121002 A JP2015121002 A JP 2015121002A JP 5784259 B1 JP5784259 B1 JP 5784259B1
Authority
JP
Japan
Prior art keywords
command
input
estimation
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015121002A
Other languages
Japanese (ja)
Other versions
JP2016119049A (en
Inventor
修一 倉林
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2015121002A priority Critical patent/JP5784259B1/en
Application granted granted Critical
Publication of JP5784259B1 publication Critical patent/JP5784259B1/en
Publication of JP2016119049A publication Critical patent/JP2016119049A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供すること。【解決手段】制御部30は、入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含むゲームを実行する際に機能する。入力検出部31は、タッチスクリーン40への物体の接触又は近接の操作による入力イベントを検出する。推定部32は、入力検出部31における検出結果の履歴に基づいて、複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する。表示制御部33は、推定コマンドに関連する画像をタッチスクリーン40に表示させる制御を実行する。コマンド確定部34は、推定コマンドが所定の条件を満たした場合、当該推定コマンドを入力コマンドとして確定する。アクション実行部35は、確定された入力コマンドに対応するアクションを実行する。【選択図】図1A position-independent user interface capable of realizing a variety of commands and high responsiveness from a user's viewpoint is provided. A control unit functions when a game including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events is executed. The input detection unit 31 detects an input event caused by an operation of touching or approaching an object to the touch screen 40. Based on the detection result history in the input detection unit 31, the estimation unit 32 determines an estimated command as an input command from a plurality of types of commands. The display control unit 33 performs control to display an image related to the estimation command on the touch screen 40. When the estimated command satisfies a predetermined condition, the command confirming unit 34 confirms the estimated command as an input command. The action execution unit 35 executes an action corresponding to the confirmed input command. [Selection] Figure 1

Description

本発明は、情報処理プログラムおよび情報処理方法に関する。   The present invention relates to an information processing program and an information processing method.

従来より、携帯機器には、表示装置と入力装置とを兼ね備えたタッチスクリーンが多用されている。
タッチスクリーンを用いた入力インターフェイスとしては、図9に示すボタン表示型のユーザ・インターフェイスと、図10に示す位置独立型のユーザ・インターフェイスとが存在する。
Conventionally, a touch screen having both a display device and an input device has been frequently used for portable devices.
As an input interface using a touch screen, there are a button display type user interface shown in FIG. 9 and a position independent type user interface shown in FIG.

ボタン表示型のユーザ・インターフェイスでは、図9に示すように、入力用のボタンや十字キーの他入力イベントに関連する各種特定表示501乃至510が、主要な画像(人や風景の画像)の上に重畳表示される。そして、ボタンを示す特定表示501や十字キーを示す特定表示502等の限られた場所に、プレイヤーの指がタッチされた場合にのみ、入力イベントが検出される。   In the button display type user interface, as shown in FIG. 9, various specific displays 501 to 510 related to an input event in addition to an input button and a cross key are displayed on a main image (an image of a person or a landscape). Is superimposed on the screen. An input event is detected only when a player's finger is touched on a limited place such as a specific display 501 indicating a button or a specific display 502 indicating a cross key.

これに対して、位置独立型のユーザ・インターフェイスでは、図10に示すように、特定表示501乃至510は存在せず、主要な画像(人や風景の画像)が隠されずに表示された状態で、画面(タッチスクリーン)の任意の場所にプレイヤーの指601がタッチされると、入力イベントが検出される。   On the other hand, in the position-independent user interface, as shown in FIG. 10, there are no specific displays 501 to 510, and main images (people and landscape images) are displayed without being hidden. When the player's finger 601 is touched at any place on the screen (touch screen), an input event is detected.

このように、画面(タッチスクリーン)上の任意の場所をタッチ操作できる位置独立型のユーザ・インターフェイスは、画面上にボタンや十字キーを常時表示する必要があるボタン表示型のユーザ・インターフェイスと比較して、画面サイズに制限のあるスマートフォン等の携帯端末でゲームを実行する場合に特に有効である。   In this way, the position-independent user interface that can be operated by touching any place on the screen (touch screen) is compared with the button-display type user interface that always needs to display buttons and cross keys on the screen. This is particularly effective when the game is executed on a mobile terminal such as a smartphone with a limited screen size.

ただし、位置独立型のユーザ・インターフェイスを採用するゲームでは、ユーザの1つのタッチ操作から、1つのアクションをユニークに(一意に)決定することができない。
例えば、ユーザが画面上の一部をタッチした瞬間では、その場所に表示されているアイテムやキャラクターを選択するためのワンタップ操作であったのか、それとも、スクリーンを連続的にタップする操作の開始なのか、それとも、方向指示を行うためのスワイプ操作の開始なのかを一意に特定することは困難である。
そのため、従来の位置独立型ユーザ・インターフェイスでは、すべての操作を一意に決定できるように、ユーザが入力する内容を著しく制限する手法や、タップするエリアを大まかに分類する手法、入力内容をリアルタイムに画面上にフィードバックすることにより、ユーザが誤入力を直ちに認識できるようにする手法等が採用されてきた(例えば特許文献1参照)。
However, in a game employing a position-independent user interface, one action cannot be determined uniquely (uniquely) from one touch operation of the user.
For example, at the moment when the user touches a part of the screen, it may be a one-tap operation to select an item or character displayed at the location, or an operation to continuously tap the screen is not started. It is difficult to uniquely identify whether this is the start of a swipe operation for instructing a direction.
For this reason, with the conventional position-independent user interface, all the operations can be determined uniquely, a technique that significantly restricts the contents input by the user, a technique that roughly classifies the area to be tapped, and the input contents in real time. A method has been adopted in which a user can immediately recognize an erroneous input by feeding back on the screen (see, for example, Patent Document 1).

また、ゲームとは異なる分野では、位置独立型のユーザ・インターフェイスとして、ジェスチャー入力がよく知られている。例えば、特許文献2には、円、四角等の図形、チェックマークやクエスチョンマーク等の記号、アルファベット等の文字を組み合わせたジェスチャーを認識する機能、および、ユーザが独自にジェスチャーをカスタマイズする機能を有するユーザ・インターフェイスが開示されている。   In a field different from games, gesture input is well known as a position-independent user interface. For example, Patent Document 2 has a function of recognizing a gesture combining a figure such as a circle or a square, a symbol such as a check mark or a question mark, or a character such as an alphabet, and a function that allows a user to customize a gesture independently. A user interface is disclosed.

特開2011−076588号公報Japanese Patent Application Laid-Open No. 2011-076588 米国特許第8379098号明細書US Pat. No. 8,379,098

しかしながら、特許文献1および2を含む従来の技術では、入力イベントのシーケンスから表されるコマンドを即座に識別することができないため、アクションゲームやリアルタイム性の高いRPGゲームのユーザ・インターフェイスとしては、不適切である。
そこで、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスの実現が、スマートフォン等の携帯機器向け用ゲームにおいて要求されている。
However, since the conventional techniques including Patent Documents 1 and 2 cannot immediately identify a command represented from the sequence of input events, it is not suitable as a user interface for an action game or a real-time RPG game. Is appropriate.
Therefore, the realization of a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint is required in games for mobile devices such as smartphones.

本発明は、このような状況に鑑みてなされたものであり、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint.

上記目的を達成するため、本発明の一態様の情報処理プログラムは、
入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含むゲームを実行するコンピュータに、
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップと、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップと、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップと、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップと、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップと、
を含む制御処理を実行させる情報処理プログラムであって、
前記表示制御ステップとして、
前記推定ステップにおいて第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を前記表示媒体に表示させ、
その後、前記コマンド確定ステップにおいて前記入力コマンドが確定されるまでの間に、前記推定ステップにおいて第2推定コマンドが決定された場合、前記第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を前記表示媒体に表示させる
制御処理を実行させる。
In order to achieve the above object, an information processing program according to one aspect of the present invention is provided.
A computer that executes a game including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events;
An input detection step of detecting an input event due to an operation of contact or proximity of an object to the display medium;
Based on the detection result history in the input detection step, an estimation step of determining what is estimated as an input command among the plurality of types of commands as an estimation command;
A display control step for executing control to display an image related to the estimation command on the display medium;
A command confirming step for confirming the estimated command as the input command when the estimated command satisfies a predetermined condition;
An action execution step for executing an action corresponding to the confirmed input command;
An information processing program for executing control processing including:
As the display control step,
When the first estimation command is determined in the estimation step, a first image corresponding to the first estimation command is displayed on the display medium,
Thereafter, when the second estimation command is determined in the estimation step until the input command is determined in the command determination step, the display of the first image is stopped and the second estimation command is displayed. A control process for displaying the corresponding second image on the display medium is executed.

このように、入力コマンドの確定前に、入力イベントの履歴に基づいて推定コマンドが決定されて、推定コマンドに関連する画像が表示媒体に表示される。そして、所定の条件を満たした推定コマンドが入力コマンドとして確定されて、当該入力コマンドに対応するアクションが実行される。これにより、多種のコマンドの確保が容易になると共に、(推定コマンドの画像の表示切替等により)ユーザ視点でのコマンドの高応答性が実現できる。従って、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供することができる。
さらに、推定コマンドが何であるのかを、リアルタイムかつ適切にプレイヤーに提示することができるので、コマンドの多様性とユーザ視点での高応答性をより適切に実現することが可能になる。
Thus, before the input command is confirmed, the estimation command is determined based on the history of the input event, and the image related to the estimation command is displayed on the display medium. Then, an estimated command that satisfies a predetermined condition is confirmed as an input command, and an action corresponding to the input command is executed. As a result, it is easy to secure various commands, and high responsiveness of commands from the user's viewpoint can be realized (by switching display of estimated command images). Therefore, it is possible to provide a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint.
Furthermore, since what the estimated command is can be presented to the player in real time and appropriately, it is possible to more appropriately realize command diversity and high responsiveness from the user's viewpoint.

本発明の別の態様の情報処理プログラムにおいて、前記入力イベントの検出から前記アクションの実行までの期間が予め規定されており、
前記第1画像および前記第2画像は、前記期間の長さを有する動画像であり、
前記期間内の所定タイミングで前記第1推定コマンドから前記第2推定コマンドに切り替わった場合、前記表示制御ステップとして、前記第2画像の表示開始点を前記期間のうち前記所定タイミングとして、前記第2画像の表示を開始する
制御処理を実行させる。
In the information processing program according to another aspect of the present invention, a period from the detection of the input event to the execution of the action is defined in advance,
The first image and the second image are moving images having the length of the period,
When the first estimation command is switched to the second estimation command at a predetermined timing within the period, as the display control step, the display start point of the second image is set as the predetermined timing in the period, and the second Start the control process that starts the image display.

これにより、アクションの実行までの期間において、推定コマンドの動画像が違和感なく表示され、推定コマンドの動画像が終了すると、最後の動画像に対応するコマンドが入力コマンドとしてアクションが実行される。これにより、ユーザにとって違和感なく、ゲームを実行させることができる。   Thereby, in the period until the execution of the action, the moving image of the estimated command is displayed without a sense of incongruity, and when the moving image of the estimated command is finished, the action corresponding to the last moving image is executed as the input command. Thereby, a game can be performed without a sense of incongruity for a user.

本発明の一態様の情報処理方法は、上述の本発明の一態様の情報処理プログラムに対応する情報処理方法である。   An information processing method of one embodiment of the present invention is an information processing method corresponding to the information processing program of one embodiment of the present invention described above.

本発明によれば、コマンドの多様性とユーザ視点での高応答性を実現可能な位置独立型ユーザ・インターフェイスを提供できる。   According to the present invention, it is possible to provide a position-independent user interface capable of realizing a variety of commands and high responsiveness from the user's viewpoint.

本発明の一実施形態に係る情報処理装置の機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure of the information processing apparatus which concerns on one Embodiment of this invention. 図1の情報処理装置における入力イベントの入力確率の変化の例を示す図である。It is a figure which shows the example of the change of the input probability of the input event in the information processing apparatus of FIG. 図2の変化例に基づくスケジューリングの例を示す図である。It is a figure which shows the example of the scheduling based on the example of a change of FIG. 図3のスケジューリングの結果の例を示す図である。It is a figure which shows the example of the result of the scheduling of FIG. 、図2乃至図4の例にあわせて、図1の情報処理装置の各部の機能を模式的に示した図である。FIG. 5 is a diagram schematically illustrating the function of each unit of the information processing apparatus of FIG. 1 in accordance with the examples of FIGS. 2 to 4. 図1の情報処理装置が用いるタッチイベントマトリックスの例を示す図である。It is a figure which shows the example of the touch event matrix which the information processing apparatus of FIG. 1 uses. 図1の情報処理装置が用いるタッチイベントマトリックスの別の例を示す図である。It is a figure which shows another example of the touch event matrix which the information processing apparatus of FIG. 1 uses. 図1の情報処理装置の状態遷移の例を示す状態遷移図である。FIG. 2 is a state transition diagram illustrating an example of state transition of the information processing apparatus of FIG. 1. ボタン表示型のユーザ・インターフェイスを説明する図である。It is a figure explaining a button display type user interface. 位置独立型のユーザ・インターフェイスを説明する図である。It is a figure explaining a position independent type user interface.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、以下において、単に「画像」と呼ぶ場合には、「動画像」と「静止画像」との両方を含むものとする。
また、「動画像」には、次の第1処理乃至第3処理の夫々により表示される画像を含むものとする。
第1処理とは、平面画像(2D画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対して、複数枚からなる一連の静止画像を時間経過と共に連続的に切り替えて表示させる処理をいう。具体的には例えば、2次元アニメーション、いわゆるパラパラ漫画的な処理が第1処理に該当する。
第2処理とは、立体画像(3Dモデルの画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対応するモーションを設定しておき、時間経過と共に当該モーションを変化させて表示させる処理をいう。具体的には例えば、3次元アニメーションが第2処理に該当する。
第3処理とは、オブジェクト(例えばゲームキャラクタ)の夫々の動作に対応した映像(即ち動画)を準備しておき、時間経過と共に当該映像を流していく処理をいう。
In the following description, when simply referred to as “image”, both “moving image” and “still image” are included.
The “moving image” includes an image displayed by each of the following first to third processes.
The first process refers to a process in which a series of still images composed of a plurality of images are continuously switched over time and displayed for each motion of an object (for example, a game character) in a planar image (2D image). Specifically, for example, two-dimensional animation, so-called flip-flopping processing, corresponds to the first processing.
The second process refers to a process in which motions corresponding to respective actions of an object (for example, a game character) in a stereoscopic image (3D model image) are set, and the motions are changed and displayed over time. Specifically, for example, a three-dimensional animation corresponds to the second process.
The third process refers to a process in which videos (that is, moving images) corresponding to respective actions of an object (for example, a game character) are prepared and the video is played over time.

図1は、本発明の一実施形態に係る情報処理装置10の構成を示している。
本実施形態における情報処理装置10は、コンピュータおよびその周辺装置に適用される。本実施形態における各部は、コンピュータおよびその周辺装置が備えるハードウェア並びに当該ハードウェアを制御するソフトウェアによって構成される。
FIG. 1 shows a configuration of an information processing apparatus 10 according to an embodiment of the present invention.
The information processing apparatus 10 in this embodiment is applied to a computer and its peripheral devices. Each unit in the present embodiment is configured by hardware included in a computer and its peripheral devices, and software that controls the hardware.

上記ハードウェアには、制御部としてのCPU(Central Processing Unit)の他、記憶部、通信部、表示部および入力部が含まれる。記憶部としては、例えば、メモリ(RAM:Random Access Memory、ROM:Read Only Memory等)、ハードディスクドライブ(HDD:Hard Disk Drive)、光ディスク(CD:Compact Disk、DVD:Digital Versatile Disk等)ドライブ等が挙げられる。通信部としては、例えば、各種有線および無線インターフェイス装置が挙げられる。表示部としては、例えば、液晶ディスプレイ等の各種ディスプレイが挙げられる。入力部としては、例えば、キーボードやポインティング・デバイス(マウス、トラッキングボール等)が挙げられる。   The hardware includes a CPU (Central Processing Unit) as a control unit, a storage unit, a communication unit, a display unit, and an input unit. Examples of the storage unit include a memory (RAM: Random Access Memory, ROM: Read Only Memory, etc.), a hard disk drive (HDD: Hard Disk Drive), an optical disk (CD: Compact Disk, DVD: Digital Versatile Drive, etc.). Can be mentioned. Examples of the communication unit include various wired and wireless interface devices. Examples of the display unit include various displays such as a liquid crystal display. Examples of the input unit include a keyboard and a pointing device (mouse, tracking ball, etc.).

本実施形態の情報処理装置10は、入力部と表示部とを兼ね備えた表示媒体として、タッチスクリーン40を設けている。
タッチスクリーン40の入力部は、例えば表示部の表示領域に積層される静電容量式又は抵抗膜式の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。ここで、タッチ操作とは、表示媒体たるタッチスクリーン40(正確にはそのうちの入力部)に対する物体(ユーザの指やタッチペン等)の接触又は近接の操作をいう。なお、以下、タッチ操作がなされた位置を「タッチ位置」といい、タッチ位置の座標を「タッチ座標」という。
The information processing apparatus 10 according to the present embodiment includes a touch screen 40 as a display medium having both an input unit and a display unit.
The input unit of the touch screen 40 is configured by, for example, a capacitance type or resistive film type position input sensor stacked in the display area of the display unit, and detects the coordinates of the position where the touch operation is performed. Here, the touch operation refers to an operation of touching or approaching an object (such as a user's finger or a touch pen) with respect to the touch screen 40 (more precisely, an input unit thereof) as a display medium. Hereinafter, the position where the touch operation is performed is referred to as “touch position”, and the coordinates of the touch position are referred to as “touch coordinates”.

また、上記ソフトウェアには、上記ハードウェアを制御するコンピュータ・プログラムやデータが含まれる。コンピュータ・プログラムやデータは、記憶部により記憶され、制御部により適宜実行、参照される。また、コンピュータ・プログラムやデータは、通信回線を介して配布されることも可能であり、CD−ROM等のコンピュータ可読媒体に記録して配布されることも可能である。   The software includes a computer program and data for controlling the hardware. The computer program and data are stored in the storage unit, and are appropriately executed and referenced by the control unit. The computer program and data can be distributed via a communication line, or can be recorded on a computer-readable medium such as a CD-ROM and distributed.

本実施形態の情報処理装置10は、このようなハードウェアとソフトウェアの協働による各種動作をすべく、図1に示すような機能的構成を有している。   The information processing apparatus 10 according to the present embodiment has a functional configuration as shown in FIG. 1 in order to perform various operations by such cooperation of hardware and software.

情報処理装置10は、制御部30とタッチスクリーン40とを備える。制御部30は、入力検出部31と、推定部32と、表示制御部33と、コマンド確定部34と、アクション実行部35とを備える。   The information processing apparatus 10 includes a control unit 30 and a touch screen 40. The control unit 30 includes an input detection unit 31, an estimation unit 32, a display control unit 33, a command determination unit 34, and an action execution unit 35.

入力検出部31は、タッチスクリーン40(入力部)に対するタッチ操作による入力イベントを検出する。   The input detection unit 31 detects an input event due to a touch operation on the touch screen 40 (input unit).

推定部32は、入力検出部31における検出結果の履歴に基づいて、複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する。
即ち、推定コマンドは、入力コマンドであろうと推定されているものをいい、入力コマンドは、後述するコマンド確定部34によって確定されたものをいう。
具体的には、推定部32は、確率演算部321と推定コマンド決定部322とを備える。確率演算部321は、入力イベントの履歴に基づいて複数種類のコマンドの夫々の入力確率を演算する。ここで、入力確率(Input Probability)とは、所定コマンドが入力コマンドとなり得る確率をいう。
推定コマンド決定部322は、演算された入力確率が最高のコマンドを推定コマンドとして決定する。
Based on the detection result history in the input detection unit 31, the estimation unit 32 determines an estimated command as an input command from a plurality of types of commands.
That is, the estimated command refers to a command that is estimated to be an input command, and the input command refers to a command that is confirmed by a command determination unit 34 described later.
Specifically, the estimation unit 32 includes a probability calculation unit 321 and an estimation command determination unit 322. The probability calculation unit 321 calculates the input probabilities of each of a plurality of types of commands based on the input event history. Here, the input probability means the probability that a predetermined command can be an input command.
The estimation command determination unit 322 determines a command having the highest calculated input probability as an estimation command.

表示制御部33は、推定コマンドに関連する画像を表示媒体(例えばタッチスクリーン40の表示部)に表示させる制御を実行する。
具体的には例えば、表示制御部33は、推定部32において第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を表示媒体に表示させる。その後、コマンド確定部34において入力コマンドが確定されるまでの間に、推定部32において第2推定コマンドが決定された場合、表示制御部33は、第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を表示媒体に表示させる。このような表示制御部33による表示制御の詳細や具体例については、図2、図3および図4を参照して後述する。
The display control unit 33 performs control to display an image related to the estimation command on a display medium (for example, the display unit of the touch screen 40).
Specifically, for example, when the first estimation command is determined by the estimation unit 32, the display control unit 33 displays a first image corresponding to the first estimation command on the display medium. Thereafter, when the second estimation command is determined by the estimation unit 32 before the input command is determined by the command determination unit 34, the display control unit 33 stops displaying the first image, and 2 The second image corresponding to the estimation command is displayed on the display medium. Details and specific examples of display control by the display control unit 33 will be described later with reference to FIGS. 2, 3, and 4.

コマンド確定部34は、推定コマンドが所定の条件を満たした場合、当該推定コマンドを入力コマンドとして確定する。
所定の条件は、特に限定されないが、本実施形態では、入力確率が100%に達した推定コマンドであるという第1条件と、例えば所定の時間(例えば、30フレーム)が経過した時点での推定コマンドになっているという第2条件とが採用されている。なお、第1条件と第2条件は「Or条件」である。即ち、第1条件と第2条件の何れか一方が満たされた場合が、推定コマンドが所定の条件を満たした場合になる。
When the estimated command satisfies a predetermined condition, the command confirming unit 34 confirms the estimated command as an input command.
The predetermined condition is not particularly limited, but in the present embodiment, the first condition that the input probability has reached 100% and the estimation when a predetermined time (for example, 30 frames) has elapsed, for example. The second condition of being a command is employed. The first condition and the second condition are “Or conditions”. That is, the case where one of the first condition and the second condition is satisfied is a case where the estimation command satisfies a predetermined condition.

アクション実行部35は、入力コマンドに対応するアクションを実行する。具体的には例えば、敵が存在するゲームの実行中においては、アクション実行部35は、入力コマンドに対応する、敵へのダメージ計算等を行い、その計算結果に応じた内容の画像を表示させる。   The action execution unit 35 executes an action corresponding to the input command. Specifically, for example, during the execution of a game in which an enemy is present, the action execution unit 35 calculates damage to the enemy corresponding to the input command, and displays an image having contents according to the calculation result. .

さらに以下、図2以降の図面を参照して、本実施形態の情報処理装置10をゲームに適用した場合について詳細に説明する。
本実施形態の情報処理装置10は、プレイヤーが入力しようとしているコマンドに曖昧性がある状況において、夫々のコマンドについて、入力されているコマンドを推定する確率として、上述の入力確率を連続的に計算する。そして、情報処理装置10は、その入力確率の変化に応じて、ゲーム内のキャラクターのモーションの再生処理、および、コマンドの実行処理をスケジューリングする。
ここで、スケジューリングとは、処理を加工したり変更することをいい、例えば、あるコマンドに対応するモーション再生の一部を省略する処理、入力確率の変化に応じて別のコマンドに対応する別のモーション再生を途中から開始する処理、モーションの再生を省略し、直ちにコマンドを実行してその結果を表示する処理、別のアクションに関する動画像を途中から再生する処理を含む。
このようなスケジューリングが行われるゲームにおいては、コマンド、モーション、およびアクションの用語は、次のような意味を有する。
コマンドは、ゲーム内において1つの機能に対応する入力イベントのシーケンスを示す。例えば本実施形態では、“攻撃”を行うためには画面を1回タップする、プレイヤー・キャラクターをジャンプさせるためには画面を2回タップする、道具を使うためには画面を長押しする、攻撃のためのターゲット選択のためには、敵キャラクターをタップする等、タッチスクリーン40に対する1以上のシーケンシャルなタッチ操作により、1のコマンドが表される。
モーションとは、画面上に表示されるキャラクターの動きを示す。モーションは、レンダリングされる2D/3D要素のみを示しており、実際の当たり判定(hit−testing)等は含まない。
アクションとは、コマンドを実行した結果行われる、実際の当たり判定等のゲーム上影響のある処理を示す。また、アクションは、当たり判定の成否の結果を画面上に表示する処理も含む。
Further, the case where the information processing apparatus 10 according to the present embodiment is applied to a game will be described in detail with reference to FIG. 2 and subsequent drawings.
The information processing apparatus 10 according to the present embodiment continuously calculates the above input probabilities as the probabilities of estimating the input commands for each command in a situation where the command that the player is trying to input is ambiguous. To do. Then, the information processing apparatus 10 schedules the reproduction process of the motion of the character in the game and the execution process of the command according to the change in the input probability.
Here, scheduling means processing or changing a process, for example, a process of omitting a part of motion playback corresponding to a certain command, another process corresponding to another command according to a change in input probability, and the like. This includes processing for starting motion playback halfway, processing for skipping motion playback, immediately executing a command and displaying the result, and processing for playing back a moving image related to another action.
In a game in which such scheduling is performed, the terms command, motion, and action have the following meanings.
The command indicates a sequence of input events corresponding to one function in the game. For example, in this embodiment, to perform an “attack”, tap the screen once, to jump the player character, tap the screen twice, to use a tool, long press the screen, attack In order to select a target, one command is represented by one or more sequential touch operations on the touch screen 40 such as tapping an enemy character.
Motion refers to the movement of a character displayed on the screen. The motion shows only 2D / 3D elements to be rendered, and does not include actual hit-testing or the like.
The action indicates a process that has an effect on the game, such as an actual hit determination, performed as a result of executing the command. The action also includes processing for displaying a result of success or failure of the hit determination on the screen.

図2は、本発明の一実施形態に係る情報処理装置10における入力イベントの入力確率の変化の例を示す図である。図3は、図2の変化例に基づくスケジューリングの例を示す図である。図4は、図3のスケジューリングの結果の例を示す図である。
図5は、図2乃至図4の例にあわせて、図1の情報処理装置10の各部の機能を模式的に示した図である。
FIG. 2 is a diagram illustrating an example of a change in input probability of an input event in the information processing apparatus 10 according to an embodiment of the present invention. FIG. 3 is a diagram illustrating an example of scheduling based on the variation of FIG. FIG. 4 is a diagram illustrating an example of the scheduling result of FIG.
FIG. 5 is a diagram schematically illustrating functions of each unit of the information processing apparatus 10 of FIG. 1 in accordance with the examples of FIGS. 2 to 4.

図2乃至図5の例では、説明の便宜上、コマンドA(1回のタップ、即ち、シングルタップで発動するコマンド)と、コマンドB(2回のタップ、即ち、ダブルタップで発動するコマンド)とのみが定義されているものとする。
また、1つのコマンドの描画と実行とに30フレームを使用するものとする。なお、30フレームは、30FPS(Frames Per Second)のゲームでは1秒間に相当する。
In the example of FIGS. 2 to 5, for convenience of explanation, a command A (a command that is activated by one tap, that is, a single tap), and a command B (a command that is activated by two taps, that is, a double tap), Only is defined.
Also, 30 frames are used for drawing and executing one command. Note that 30 frames corresponds to one second in a 30 FPS (Frames Per Second) game.

まず、プレイヤーは、タッチスクリーン40に対してスワイプし、キャラクター101を移動させる。このとき、コマンドA、および、コマンドBは、ともに発生確率が0%のままである。   First, the player swipes the touch screen 40 and moves the character 101. At this time, the occurrence probability of both command A and command B remains 0%.

次に、プレイヤーは、タッチスクリーン40に対して1回のタップを行ったものとする。このとき、図5の入力検出部31は、図2に示すように、当該タップを入力イベント201として検出する。
そして、図5の確率演算部321は、コマンドAとBの夫々の入力確率(夫々のコマンドA,Bが入力コマンドとなり得る各確率)を算出する。
ここで、コマンドAは、コマンドBよりも単純な操作で表される。このため、図2に示すように、1回のタップが行われた時点では、コマンドAの入力確率の方が、コマンドBの入力確率よりも少しだけ高くなるように算出される。
従って、図5の推定コマンド決定部322は、入力確率が最高のコマンドAを推定コマンドとして決定する。
そこで、図3および図4に示すように、図5の表示制御部33は、コマンドAに対応するモーションの描画処理211を開始する。即ち、キャラクターの表示として、モーション表示102が開始される。
Next, it is assumed that the player performs one tap on the touch screen 40. At this time, the input detection unit 31 in FIG. 5 detects the tap as an input event 201 as shown in FIG.
Then, the probability calculation unit 321 in FIG. 5 calculates the input probabilities of the commands A and B (respective probabilities that the commands A and B can be input commands).
Here, the command A is expressed by a simpler operation than the command B. For this reason, as shown in FIG. 2, the input probability of command A is calculated to be slightly higher than the input probability of command B when one tap is performed.
Therefore, the estimation command determination unit 322 in FIG. 5 determines the command A having the highest input probability as the estimation command.
Therefore, as shown in FIGS. 3 and 4, the display control unit 33 in FIG. 5 starts a motion drawing process 211 corresponding to the command A. That is, the motion display 102 is started as a character display.

その後も、確率演算部321は、入力検出部31における検出結果の履歴に基づいて、コマンドAとBの夫々の入力確率を逐次的に算出する。
即ち、入力イベント201が検出された後、後述する次の入力イベント202が検出されるまでの間は、1回のタップ(入力イベント201)が行われた後、所定時間の間には入力イベントが行われていない、という検出結果の履歴になる。
この場合、入力イベントが行われていない所定時間が長くなるほど、1回のタップで終了する確率が高くなる。従って、図2の点線で示すように、コマンドAの入力確率は徐々に高くなっていく。これに対して、図2の実線で示すように、コマンドBの入力確率は一定のままとなる。
従って、推定コマンド決定部322は、コマンドAを推定コマンドとする決定結果を維持する。このため、図3および図4に示すように、表示制御部33は、コマンドAに対応するモーションの描画処理211を継続する。つまり、キャラクターの表示は、モーション表示102のまま継続する。
Thereafter, the probability calculation unit 321 sequentially calculates the input probabilities of the commands A and B based on the detection result history in the input detection unit 31.
That is, after the input event 201 is detected, until the next input event 202 to be described later is detected, after one tap (input event 201) is performed, the input event is performed for a predetermined time. This is a history of detection results indicating that no operation has been performed.
In this case, the longer the predetermined time during which no input event is performed, the higher the probability of ending with one tap. Therefore, as shown by the dotted line in FIG. 2, the input probability of the command A gradually increases. On the other hand, the input probability of the command B remains constant as shown by the solid line in FIG.
Therefore, the estimation command determination unit 322 maintains a determination result using the command A as an estimation command. Therefore, as shown in FIGS. 3 and 4, the display control unit 33 continues the motion rendering process 211 corresponding to the command A. That is, the character display continues with the motion display 102.

しかし、その後、例えば描画開始してから15フレーム後に、プレイヤーが2回目のタップを行ったものとする。
このとき、入力検出部31は、図2に示すように、当該タップを入力イベント202として検出する。
この場合、2回のタップ(入力イベント201および202)が行われた、という検出結果の履歴になる。本例では、1回のタップのコマンドAと、2回のタップのコマンドBとしか定義されていないので、確率演算部321は、コマンドAの入力確率を0%と算出すると共に、コマンドBの入力確率を100%と算出する。
即ち、最高の入力確率が、コマンドAの入力確率から、コマンドBの入力確率に変化する。
そこで、図3および図4に示すように、表示制御部33は、コマンドAに対応するモーションの描画処理211を中止して、コマンドBに対応するモーションの描画処理212を開始する。つまり、キャラクターの表示は、モーション表示102からモーション表示103に変化する。
ここで、本実施形態では、コマンドBに対応するモーション表示103は、最初の15フレームはスキップされ、16フレーム目から開始される。
However, after that, for example, it is assumed that the player performs the second tap 15 frames after the start of drawing.
At this time, the input detection unit 31 detects the tap as an input event 202 as shown in FIG.
In this case, the detection result history is that two taps (input events 201 and 202) have been performed. In this example, only the command A for one tap and the command B for two taps are defined, so the probability calculation unit 321 calculates the input probability of the command A as 0% and The input probability is calculated as 100%.
That is, the highest input probability changes from the input probability of command A to the input probability of command B.
3 and 4, the display control unit 33 stops the motion drawing process 211 corresponding to the command A and starts the motion drawing process 212 corresponding to the command B. That is, the character display changes from the motion display 102 to the motion display 103.
Here, in this embodiment, the motion display 103 corresponding to the command B is started from the 16th frame with the first 15 frames skipped.

より一般的にいえば、入力イベントの検出(本例では入力イベント201)からアクションの実行までの期間(本例では30フレーム)が予め規定されている。そして、コマンドAに対応する第1画像(本例ではモーション表示102に相当)と、コマンドBに対応する第2画像(本例ではモーション表示103に相当)とは、上記予め規定された期間(本例では30フレーム)の長さを有する動画像である。
上記期間内の所定タイミング(15フレーム描画後のタイミング)で推定コマンドがコマンドAからコマンドBに切り替わった場合、表示制御部33は、第2画像の表示開始点を上記期間の所定タイミング(15フレーム描画後のタイミングなので16フレーム目から)として、第2画像の表示を開始する。
More generally speaking, a period (30 frames in this example) from detection of an input event (input event 201 in this example) to execution of an action is defined in advance. Then, the first image corresponding to the command A (corresponding to the motion display 102 in this example) and the second image corresponding to the command B (corresponding to the motion display 103 in this example) In this example, it is a moving image having a length of 30 frames).
When the estimation command is switched from the command A to the command B at a predetermined timing within the period (timing after 15 frames are drawn), the display control unit 33 sets the display start point of the second image as the predetermined timing (15 frames). Since the timing after drawing is from the 16th frame), the display of the second image is started.

ただし、これは例示に過ぎず、例えば、第2画像(コマンドBのモーション)の最初の1フレーム目から30フレーム目までを、フレームの間引き再生(早送り再生)等を利用することで、15フレーム期間内に描画するようにしてもよい。   However, this is only an example. For example, the first frame to the 30th frame of the second image (command B motion) can be obtained by using thinned frame playback (fast-forward playback) or the like for 15 frames. You may make it draw within a period.

ところで、入力イベント202の段階で、コマンドBの入力確率は100%となる。そこで、図5のコマンド確定部34は、コマンドBを入力コマンドとして確定する。   By the way, at the stage of the input event 202, the input probability of the command B becomes 100%. Therefore, the command confirmation unit 34 in FIG. 5 confirms the command B as an input command.

図5のアクション実行部35は、コマンドBのモーション表示103が30フレーム目まで描画された後(最初の入力イベント201から30フレーム分のモーション描画がなされた後)、コマンドBに従って所定のアクションの処理を実行する。
例えばコマンドBの攻撃による敵へのダメージ計算等が行われる。そして、図3や図4に示すように、そのダメージ計算等の結果に応じたキャラクターの表示104が適宜行われる。
The action execution unit 35 in FIG. 5 performs a predetermined action according to the command B after the motion display 103 of the command B is drawn up to the 30th frame (after the motion drawing for 30 frames is performed from the first input event 201). Execute the process.
For example, the damage to the enemy due to the attack of the command B is calculated. Then, as shown in FIGS. 3 and 4, a character display 104 is appropriately performed according to the result of the damage calculation or the like.

ここで、入力検出部31による入力イベントの検出結果の履歴は、図6および図7に示すような行列(以下、「タッチイベントマトリックス」と呼ぶ)として表すことで、推定部32の演算を容易かつ確実に行うことができるようになる。   Here, the history of the detection result of the input event by the input detection unit 31 is expressed as a matrix as shown in FIGS. 6 and 7 (hereinafter referred to as “touch event matrix”), so that the calculation of the estimation unit 32 is easy. And it becomes possible to carry out surely.

図6は、タッチイベントマトリックスの例を示す図である。図7は、タッチイベントマトリックスの別の例を示す図である。
本実施形態において、例として示す図6および図7のタッチイベントマトリックスは、タッチスクリーン40を構成する各画素(ピクセル)に対する、ユーザからの入力イベントの発生有無を時系列順にメモリ上に記録したものとして構成される。
FIG. 6 is a diagram illustrating an example of a touch event matrix. FIG. 7 is a diagram illustrating another example of the touch event matrix.
In this embodiment, the touch event matrix of FIGS. 6 and 7 shown as an example is recorded in the memory in time series in the presence or absence of occurrence of an input event from the user for each pixel (pixel) constituting the touch screen 40. Configured as

図6及ぶ図7の例のタッチイベントマトリックスは、列の要素(横軸の要素)として、表示媒体における入力イベントの検出単位(各画素)が採用され、行の要素(時間軸たる縦軸の要素)として、入力イベントの検出タイミングが採用されている。
具体的には、列の各要素(横軸の各要素)を示すpx[x,y]は、タッチスクリーン40の右上を原点としたとき、横x番目、縦y番目のピクセルを意味する。
例えば、px[0,0]は最も右上のピクセルを示し、px[1136,640]は、最も左下のピクセルを示すこととする。
行の要素(縦軸である時間軸の要素)は、入力イベントの検出タイミングを、ミリ秒、もしくは、フレーム数で示したものである。なお、情報処理システムをゲームに適用する場合、行の要素(縦軸の要素)は、フレーム数で示すことが好適である。
本例では、タッチイベントマトリックスの要素(ti,px[x,y])には、検出タイミングtiにおいてピクセルpx[x,y]に入力イベントが発生したときには、「1」が格納され、入力イベントが発生していないときには「0」が格納される。
なお、上記値の格納手法は、例示に過ぎず、例えば、あいまいな入力イベントへの対応や、タッチスクリーン40の静電容量を直接扱うことを目的として、0.5等の実数を格納する手法を採用してもよい。
The touch event matrix in the example of FIGS. 6 and 7 employs a detection unit (each pixel) of an input event in a display medium as a column element (horizontal axis element), and a row element (vertical axis as a time axis). As an element), an input event detection timing is adopted.
Specifically, px [x, y] indicating each element in the column (each element on the horizontal axis) means the x-th pixel in the horizontal direction and the y-th pixel in the vertical direction when the upper right of the touch screen 40 is the origin.
For example, px [0,0] indicates the upper right pixel, and px [1136, 640] indicates the lower left pixel.
The row element (the time axis element which is the vertical axis) indicates the detection timing of the input event in milliseconds or the number of frames. When the information processing system is applied to a game, it is preferable that the row elements (vertical elements) are represented by the number of frames.
In this example, “1” is stored in the element (ti, px [x, y]) of the touch event matrix when an input event occurs in the pixel px [x, y] at the detection timing ti. When no occurs, “0” is stored.
Note that the above-described value storage method is merely an example, and for example, a method of storing a real number such as 0.5 for the purpose of dealing with an ambiguous input event or directly handling the capacitance of the touch screen 40. May be adopted.

図6のタッチイベントマトリックスにおいて、画素px[0,2]についての要素群401から、継続する時間においてタップイベントが発生し、その後、発生していないことがわかる。即ち、要素群401は、画素px[0,2]におけるシングルタップの検出を示している。
一方、画素px[0,1]についての要素411および要素412からは、ある程度の時間間隔をおいて同一の(もしくは、近傍の)ピクセルへのタッチイベントが発生していることがわかる。即ち、要素411および要素412は、画素px[0,1]におけるダブルタップの検出を示している。
In the touch event matrix of FIG. 6, it can be seen from the element group 401 for the pixel px [0,2] that a tap event has occurred in a continuous time and has not occurred thereafter. In other words, the element group 401 indicates detection of a single tap in the pixel px [0, 2].
On the other hand, from the element 411 and the element 412 for the pixel px [0, 1], it can be seen that touch events to the same (or neighboring) pixels occur at a certain time interval. That is, the element 411 and the element 412 indicate detection of a double tap in the pixel px [0, 1].

また、図7のタッチイベントマトリックスにおいては、画素px[0,2]についての要素群421から、同一場所に長時間にわたってタッチイベントが発生し続けていることがわかる。即ち、要素群421は、指等の物体が当該場所で押し付け続けられているタッチ操作、即ちいわゆる長押しの検出を示している。   Further, in the touch event matrix of FIG. 7, it can be seen from the element group 421 for the pixel px [0, 2] that a touch event continues to occur in the same place for a long time. That is, the element group 421 indicates a touch operation in which an object such as a finger is continuously pressed at the place, that is, so-called long press detection.

なお、タッチイベントマトリックスの構造は、図6や図7の構造に限定されず、以下のような構造であればよい。
即ち、入力イベントの検出タイミングを行又は列の一方の要素とし、表示媒体における入力イベントの検出単位を行又は列の他方の要素として構成される行列であって、検出タイミング毎の検出単位毎の検出結果を各要素値とする行列であれば、タッチイベントマトリックスとして採用することができる。
Note that the structure of the touch event matrix is not limited to the structure of FIG. 6 or 7, and may be the following structure.
That is, a matrix configured with the input event detection timing as one element of a row or column and the input event detection unit in the display medium as the other element of the row or column, and for each detection unit at each detection timing Any matrix having a detection result as each element value can be adopted as a touch event matrix.

次に、上記図6や図7の構造のタッチイベントマトリックスを対象として、ゲーム内で使用される夫々のコマンドについて、入力確率を演算する手法の概要を説明する。
ある1タイトルのゲームにおいて、n個(nは1以上の整数値)のコマンドが存在するとき、n個のコマンドの夫々についての入力確率を演算するためのn個の関数(以下、「確率計算関数」と呼ぶ)が用意される。
具体的には、i番目(iは1乃至nのうちの任意の整数値)のコマンドに対応する、確率計算関数fiは、式(1)に示すように、タッチイベントマトリックスであるMを引数として、0から1までの実数を返す関数として定義することができる。
fi(M,wi)→[0…1] ・・・(1)
Next, an outline of a technique for calculating the input probability for each command used in the game will be described for the touch event matrix having the structure shown in FIGS.
When there are n commands (n is an integer value of 1 or more) in a game of one title, n functions (hereinafter referred to as “probability calculation”) for calculating input probabilities for each of the n commands. Called "function").
Specifically, the probability calculation function fi corresponding to the i-th command (i is an arbitrary integer value from 1 to n) is an argument of M, which is a touch event matrix, as shown in Expression (1). Can be defined as a function that returns a real number from 0 to 1.
fi (M, wi) → [0... 1] (1)

ここで、wiは、i番目のコマンドに対応する重み係数である。このような重み係数wiを設定することにより、入力しやすいコマンドと入力しにくいコマンドとの差を、入力確率の演算に反映することが可能になる。
具体的には例えば、図2の例では、より単純なコマンドAが、複雑なコマンドBよりも、高い重み係数を有するようにすることができる。
なお、確率計算関数の実装方法は、ゲーム内容に依存するものであるため、ここでは詳細については規定しない。
Here, wi is a weighting factor corresponding to the i-th command. By setting such a weighting factor wi, the difference between a command that is easy to input and a command that is difficult to input can be reflected in the calculation of the input probability.
Specifically, for example, in the example of FIG. 2, a simpler command A can have a higher weight coefficient than a complex command B.
Note that the implementation method of the probability calculation function depends on the game content, so details are not specified here.

図5の確率演算部321は、タッチイベントマトリックスMと上記式(1)の確率計算関数fiとを用いて、n個のコマンドの夫々の入力確率を演算する。
推定コマンド決定部322は、n個のコマンドのうち、入力確率を最高のコマンドを推定コマンドとして決定し、当該推定コマンドの適切なフレーム番号からレンダリングを開始するよう、表示制御部33へ通知する。
また、推定コマンド決定部322は、確率演算部321によりある特定のコマンドの入力確率が100%と算出されたとき、当該特定のコマンドをコマンド確定部34に通知する。
The probability calculation unit 321 of FIG. 5 calculates the input probabilities of each of the n commands using the touch event matrix M and the probability calculation function fi of the above formula (1).
The estimation command determination unit 322 determines a command having the highest input probability among n commands as an estimation command, and notifies the display control unit 33 to start rendering from an appropriate frame number of the estimation command.
Further, when the probability calculation unit 321 calculates that the input probability of a specific command is 100%, the estimated command determination unit 322 notifies the command determination unit 34 of the specific command.

推定コマンド決定部322のさらに詳細な動作は次の通りである。
推定コマンド決定部322は、内部変数であるフレーム数カウンター(以下、「FC」と呼ぶ)をゼロに初期化する。
確率演算部321が算出したn個の入力確率の何れもが100%未満であったとき、即ち、曖昧性のある入力があったとき、推定コマンド決定部322は、最高の入力確率を有するコマンド(以下、「コマンドα」と呼ぶ)を推定コマンドとして選択し、当該コマンドαのモーションをFCが示す値のフレームから再生する旨を表示制御部33に通知する。
コマンドαのモーションが再生されている間に、もし、確率演算部321が算出した入力確率が最高となるコマンドが変化したとき、推定コマンド決定部322は、その変化後の最高の入力確率を有するコマンド(以下、「コマンドβ」と呼ぶ)を推定コマンドとして選択する。そして、推定コマンド決定部322は、現在再生中のコマンドαのモーションの再生を中断する旨を表示制御部33に通知し、さらに、再生したフレームの数をFCに加えた上で、コマンドβのモーションをFCが示す値のフレームから再生する旨を表示制御部33に通知する。
The detailed operation of the estimation command determination unit 322 is as follows.
The estimation command determination unit 322 initializes a frame number counter (hereinafter referred to as “FC”), which is an internal variable, to zero.
When any of the n input probabilities calculated by the probability calculation unit 321 is less than 100%, that is, when there is an ambiguous input, the estimated command determination unit 322 determines the command having the highest input probability. (Hereinafter referred to as “command α”) is selected as the estimation command, and the display control unit 33 is notified that the motion of the command α is to be reproduced from the frame having the value indicated by FC.
While the motion of the command α is being reproduced, if the command with the highest input probability calculated by the probability calculation unit 321 changes, the estimated command determination unit 322 has the highest input probability after the change. A command (hereinafter referred to as “command β”) is selected as an estimation command. Then, the estimated command determination unit 322 notifies the display control unit 33 that the playback of the motion of the command α being currently played back is interrupted, and further adds the number of played frames to the FC, The display control unit 33 is notified that the motion is to be reproduced from the frame having the value indicated by FC.

表示制御部33は、推定コマンド決定部322からの上記通知に応じて、キャラクターのモーションを再生する。表示制御部33は、既存のゲーム・ソフトウェアが有するモーションの再生の拡張として実装することができる。なお、本例のようにモーションの状態をフレーム番号で識別する場合には、2D/3Dの何れのゲームにも適用することができる   The display control unit 33 reproduces the character motion in response to the notification from the estimation command determination unit 322. The display control unit 33 can be implemented as an extension of the reproduction of motion that the existing game software has. When the motion state is identified by the frame number as in this example, it can be applied to any 2D / 3D game.

コマンド確定部34は、推定コマンド決定部322から通知されたコマンドを入力コマンドとして確定して、当該入力コマンドに対応するレンダリング(キャラクターのモーション表示)の終了後、当該入力コマンドに対応するアクションを実行するよう、アクション実行部35へ通知する。   The command determination unit 34 determines the command notified from the estimation command determination unit 322 as an input command, and executes an action corresponding to the input command after rendering (character motion display) corresponding to the input command is completed. The action execution unit 35 is notified to do so.

アクション実行部35は、コマンド確定部34から通知された入力コマンドに従って、所定のアクションを実行する。例えば、アクション実行部35は、実際の当たり判定等のゲーム上影響のある処理を実行する。また、アクション実行部35は、当たり判定の成否の結果を画面上に表示する制御を実行する。
なお、アクション実行部35は、既存のゲーム・ソフトウェアが有するアクションの実行機能を再利用し、実装することで実現できる。
The action execution unit 35 executes a predetermined action according to the input command notified from the command determination unit 34. For example, the action execution unit 35 executes a game-influenced process such as an actual hit determination. Further, the action execution unit 35 executes control for displaying a result of success or failure of the hit determination on the screen.
The action execution unit 35 can be realized by reusing and implementing the action execution function of the existing game software.

図8は、このような本実施形態の情報処理装置10の状態遷移の例を示す状態遷移図である。図8を参照して、情報処理装置10によるコンテクストに応じたキャラクター・アクションのスケジューリングの実行手順を示す。
情報処理装置10は、入力イベントが検出されると、連続的に各コマンドの入力確率を演算するため、ループとして処理を実行する。このループにおける状態遷移モデルを示す図8において、各状態は、1つの楕円形で示されており、その楕円形に引かれた“S”を含む符号により判別される。1つの状態から1つの状態への状態遷移は、所定の条件(以下、「状態遷移条件」という)が満たされると実行される。このような状態遷移条件は、図8においては、1つの状態から1つの状態への遷移を表す矢印に、“A”を含む符号を付して表されている。
FIG. 8 is a state transition diagram illustrating an example of the state transition of the information processing apparatus 10 according to the present embodiment. With reference to FIG. 8, the execution procedure of the scheduling of the character action according to the context by the information processing apparatus 10 is shown.
When an input event is detected, the information processing apparatus 10 performs processing as a loop in order to continuously calculate the input probability of each command. In FIG. 8 showing the state transition model in this loop, each state is indicated by one ellipse, and is discriminated by a code including “S” drawn in the ellipse. The state transition from one state to one state is executed when a predetermined condition (hereinafter referred to as “state transition condition”) is satisfied. In FIG. 8, such a state transition condition is represented by adding a symbol including “A” to an arrow representing a transition from one state to one state.

本実施形態においては、図8に示すように、初期状態S1が基本の状態になる。ユーザが所定の操作(例えば、ゲーム開始操作等)をすることで、図示せぬ別の状態から初期状態S1に遷移するものとする。
初期状態S1では、情報処理装置10は、入力検出部31の内部変数である、すべてのコマンドの入力確率をゼロに設定する。また、情報処理装置10は、内部変数であるFCをゼロに設定する。
In the present embodiment, as shown in FIG. 8, the initial state S1 is the basic state. When the user performs a predetermined operation (for example, a game start operation or the like), the state transitions from another state (not shown) to the initial state S1.
In the initial state S1, the information processing apparatus 10 sets the input probabilities of all commands, which are internal variables of the input detection unit 31, to zero. In addition, the information processing apparatus 10 sets the internal variable FC to zero.

初期状態S1において、入力検出部31が、入力イベント(例えば、プレイヤーによる1回のタップ等)を検出すると、状態遷移条件A1が満たされる。すると、状態は、推定コマンド決定状態S2に遷移する。   In the initial state S1, when the input detection unit 31 detects an input event (for example, one tap by the player), the state transition condition A1 is satisfied. Then, the state transitions to the estimated command determination state S2.

推定コマンド決定状態S2において、推定部32は、タッチイベントマトリックスを用いて、すべてのコマンドの入力確率を算出し、最高の入力確率を有するコマンドを推定コマンドに決定する。表示制御部33は、推定コマンドのモーションの描画を開始する。   In the estimated command determination state S2, the estimation unit 32 calculates the input probabilities of all commands using the touch event matrix, and determines the command having the highest input probability as the estimated command. The display control unit 33 starts drawing the motion of the estimation command.

推定コマンド決定状態S2において、入力確率が100%に達しない限り、状態遷移条件A2が満たされたとみなされて、状態は、推定コマンド決定状態S2に戻る。即ち、推定コマンド決定状態S2が維持される。
推定コマンド決定状態S2が維持された状態で、入力確率が100%に達した推定コマンドが生じた場合、状態遷移条件A3が満たされる。すると、状態は、入力コマンド確定状態S3に遷移する。
In the estimated command determination state S2, unless the input probability reaches 100%, the state transition condition A2 is considered to be satisfied, and the state returns to the estimated command determination state S2. That is, the estimated command determination state S2 is maintained.
In the state where the estimated command determination state S2 is maintained, when an estimated command whose input probability reaches 100% occurs, the state transition condition A3 is satisfied. Then, the state transitions to the input command confirmation state S3.

入力コマンド確定状態S3に遷移すると、コマンド確定部34は、入力確率が100%に達した推定コマンドを入力コマンドとして確定する。
すると、状態遷移条件A4が満たされて、状態は、アクション実行状態S4に遷移する。
When transitioning to the input command determination state S3, the command determination unit 34 determines an estimated command whose input probability has reached 100% as an input command.
Then, the state transition condition A4 is satisfied, and the state transitions to the action execution state S4.

アクション実行状態S4に遷移すると、アクション実行部35は、アクションを実行する。
アクションの実行後に入力イベントが検出された場合、状態遷移条件A5が満たされ、状態は推定コマンド決定状態S2に遷移する。一方、アクションの実行後に入力イベントが検出されない場合、状態遷移条件A6が満たされ、状態は初期状態S1に遷移する。
When transitioning to the action execution state S4, the action execution unit 35 executes the action.
When an input event is detected after execution of the action, the state transition condition A5 is satisfied, and the state transitions to the estimated command determination state S2. On the other hand, when no input event is detected after the action is executed, the state transition condition A6 is satisfied, and the state transitions to the initial state S1.

以上説明したように、本実施形態の情報処理装置10は、コンテクストに応じたキャラクター・アクションのスケジューリングによる、応答性の高いタッチスクリーン40用位置独立ユーザ・インターフェイスを実現することができる。即ち、情報処理装置10は、タッチスクリーン40上の任意の場所をタッチして操作する、位置独立型のユーザ・インターフェイスにおいて、多数のコマンドをサポートしながら、応答性を飛躍的に高めることができる。
さらに、本実施形態の情報処理装置10は、タッチスクリーン40から得られる入力イベントのシーケンスを対象として、ユーザの意図を推定する確率計算を連続的に実行し、その確率の変化に応じて、キャラクターのモーションの表示と、アクションの実行(攻撃の当たり判定やアイテムの消費等)をリアルタイムにスケジューリングすることができる。情報処理装置10によるスケジューリング方式は、コマンドの入力途中から即座にキャラクターのモーションを再生しながら、コマンドの入力の進行に応じて極めて高速にコマンドの曖昧性を排除するので、高い応答性の実現と多種のコマンドの正確な識別とを同時に実現することができる。
As described above, the information processing apparatus 10 according to the present embodiment can realize a highly responsive position-independent user interface for the touch screen 40 by scheduling character actions according to the context. That is, the information processing apparatus 10 can dramatically improve responsiveness while supporting a large number of commands in a position-independent user interface operated by touching an arbitrary place on the touch screen 40. .
Furthermore, the information processing apparatus 10 according to the present embodiment continuously executes probability calculation for estimating the user's intention for the sequence of input events obtained from the touch screen 40, and in accordance with the change in the probability, the character Display of motion and execution of actions (attack hit determination, item consumption, etc.) can be scheduled in real time. The scheduling method by the information processing apparatus 10 reproduces the motion of the character immediately in the middle of command input and eliminates the ambiguity of the command very rapidly according to the progress of command input, thereby realizing high responsiveness. Accurate identification of various commands can be realized simultaneously.

即ち、本実施形態の情報処理装置10は、ユーザから見たときの応答性を損なうことなく、多種類のコマンドを位置独立型のユーザ・インターフェイスを用いて入力可能とすることができる。
ここで、従来の位置独立型のユーザ・インターフェイスは、ジェスチャー入力のようにゲームに適さないほどの長い時間の入力を要するコマンドや、ごく単純な入力イベントで表現されるコマンドを受け付けるものであり、限られた数のコマンドしか設定できない。
これに対して、本実施形態の情報処理装置10は、数倍から数十倍の数のコマンドを設定しても、入力の開始と共に推定コマンドを決定し、当該推定コマンドに対応するキャラクターの画像(モーション)の表示を開始することができるため、プレイヤーからみて高い応答性が実現できていると認識される。
That is, the information processing apparatus 10 according to the present embodiment can input various types of commands using a position-independent user interface without impairing responsiveness when viewed from the user.
Here, the conventional position-independent user interface accepts a command that requires an input that is too long for a game, such as gesture input, or a command that is represented by a very simple input event. Only a limited number of commands can be set.
On the other hand, the information processing apparatus 10 according to the present embodiment determines an estimation command at the start of input and sets an image of a character corresponding to the estimation command even when several to several tens of times as many commands are set. Since the display of (motion) can be started, it is recognized that high responsiveness is realized from the viewpoint of the player.

さらに、本実施形態の情報処理装置10は、他にも、次の利点を有する。   Furthermore, the information processing apparatus 10 of the present embodiment has the following other advantages.

本実施形態の情報処理装置10は、解像度に依存しないユーザ・インターフェイスを実現可能という利点を有する。即ち、本実施形態の情報処理装置10は、画面上に表示されるボタンを使用する必要がないため、タッチスクリーン40の解像度に依存しないユーザ・インターフェイスを実現可能である。従って、スマートフォンの機種ごとに解像度が異なる状況においても、同一の操作性を利用者に提供することができる。   The information processing apparatus 10 of this embodiment has an advantage that a user interface independent of resolution can be realized. That is, the information processing apparatus 10 according to the present embodiment does not need to use buttons displayed on the screen, and thus can implement a user interface that does not depend on the resolution of the touch screen 40. Therefore, the same operability can be provided to the user even in a situation where the resolution differs for each smartphone model.

本実施形態の情報処理装置10は、既存のアセットを再利用可能であるという利点を有する。即ち、本実施形態の情報処理装置10は、モーションの状態をフレーム番号で識別することができれば、任意のアセット(ゲーム内で使用される静止画像や3Dオブジェクト)を使用することができる。そのため、本実施形態の情報処理装置10は、2D/3Dの何れのゲームにも適用することができ、さらに、既存のゲームのアセットをそのまま再利用することができる。   The information processing apparatus 10 according to the present embodiment has an advantage that an existing asset can be reused. That is, the information processing apparatus 10 according to the present embodiment can use any asset (a still image or a 3D object used in the game) as long as the motion state can be identified by the frame number. Therefore, the information processing apparatus 10 according to the present embodiment can be applied to any 2D / 3D game, and the existing game assets can be reused as they are.

本実施形態の情報処理装置10は、多ジャンルへ適用可能であるという利点を有する。即ち、本実施形態の情報処理装置10で実現可能になるスケジューリングは、特定のゲームジャンルに依存していない。従って、本実施形態の情報処理装置10は、アクションゲームやリアルタイムRPG、および、リアルタイム・シミュレーションゲーム等、ユーザがリアルタイムにコマンドを入力するゲームに幅広く適用可能である。
さらにいえば、本実施形態の情報処理装置10は、ゲームに特に限定する必要は無く、複数のコマンドに対応する複数のアクションを含むアルゴリズムを実行する際にも適用可能である。
The information processing apparatus 10 of this embodiment has an advantage that it can be applied to many genres. That is, the scheduling that can be realized by the information processing apparatus 10 of the present embodiment does not depend on a specific game genre. Therefore, the information processing apparatus 10 of this embodiment can be widely applied to games in which a user inputs commands in real time, such as action games, real-time RPGs, and real-time simulation games.
Furthermore, the information processing apparatus 10 of the present embodiment is not particularly limited to a game, and can be applied when executing an algorithm including a plurality of actions corresponding to a plurality of commands.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

例えば、推定コマンドの算出手法は、上述の実施形態では、各コマンドの入力確率を求める手法が採用されたが、特にこれに限定されず、分岐処理等で推定コマンドを絞り込んでいく手法等、任意のアルゴリズムに従った手法を採用することができる。   For example, in the above-described embodiment, the estimation command calculation method is a method for obtaining the input probability of each command. However, the calculation method is not particularly limited to this, and any method such as a method of narrowing down the estimation command by a branch process or the like may be used. It is possible to adopt a method according to the algorithm.

換言すると、本発明が適用される、コンピュータによって実行される情報処理プログラムは、上述の図1の実施形態としての情報処理装置10によって実行される情報処理プログラムを含め、次のような構成を有する各種各様の実施形態を取ることができる。   In other words, the information processing program executed by the computer to which the present invention is applied has the following configuration including the information processing program executed by the information processing apparatus 10 as the embodiment of FIG. 1 described above. Various embodiments can be taken.

即ち、本発明が適用される情報処理プログラムは、
入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含むゲームを実行するコンピュータ(例えば図1の情報処理装置10)に、
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップ(例えば、本ステップを実行する図1の入力検出部31)と、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップ(例えば、本ステップを実行する図1の推定部32)と、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップ(例えば、本ステップを実行する図1の表示制御部33)と、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップ(例えば、本ステップを実行する図1のコマンド確定部34)と、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップ(例えば、本ステップを実行する図1のアクション実行部35)と、
を含む制御処理を実行させる情報処理プログラムである。
That is, an information processing program to which the present invention is applied is
In a computer (for example, the information processing apparatus 10 in FIG. 1) that executes a game including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events,
An input detection step (for example, the input detection unit 31 in FIG. 1 that executes this step) for detecting an input event due to an operation of touching or approaching an object to the display medium;
An estimation step (for example, the estimation unit 32 in FIG. 1 that executes this step) that determines an estimated command as an input command among the plurality of types of commands based on a history of detection results in the input detection step. )When,
A display control step for executing control for displaying an image related to the estimation command on the display medium (for example, the display control unit 33 in FIG. 1 for executing this step);
When the estimated command satisfies a predetermined condition, a command confirmation step for confirming the estimated command as the input command (for example, the command confirmation unit 34 in FIG. 1 that executes this step);
An action execution step for executing an action corresponding to the determined input command (for example, the action execution unit 35 in FIG. 1 for executing this step);
An information processing program for executing a control process including

これにより、本発明に係る情報処理プログラムは、コンピュータに、位置独立型のユーザ・インターフェイスにおいて、多種のコマンドを確保し、かつ、ユーザからみたコマンドの高応答性を実現させることができる。   As a result, the information processing program according to the present invention can ensure a variety of commands in a position-independent user interface and realize high command responsiveness from the user's perspective.

また例えば上述の実施形態では、算出した入力確率のうち、最も高い値を有するコマンドのモーションの描画を開始するとされたが、特にこれに限定されず、すべてのコマンドの入力確率が、閾値(例えば、30%)を下回るときは、モーションの描画を行わずに、確率計算が次に実行されるのを待つ実施形態であってもよい。
これにより、情報処理装置10は、コマンドの応答性をリアルタイムに実現しながら、多種のコマンドのうち、プレイヤーの意図に合致した入力コマンドの推定をより確実に行うことができる。
Further, for example, in the above-described embodiment, the drawing of the motion of the command having the highest value among the calculated input probabilities is started. However, the present invention is not particularly limited to this, and the input probabilities of all commands are threshold values (for example, , 30%), the embodiment may wait for the probability calculation to be executed next without drawing the motion.
Thereby, the information processing apparatus 10 can more reliably estimate an input command that matches a player's intention among various commands while realizing command responsiveness in real time.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図1の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理プログラムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図1の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 1 is merely an example, and is not particularly limited. That is, it is sufficient that the information processing program has a function capable of executing the above-described series of processes as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or personal computer other than a server.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。   The recording medium including such a program is not only constituted by a removable medium (not shown) distributed separately from the apparatus main body in order to provide the user with the program, but is also provided to the user in a state of being pre-installed in the apparatus main body. It is composed of a provided recording medium or the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

10・・・情報処理装置、30・・・制御部、31・・・入力検出部、32・・・推定部、33・・・表示制御部、34・・・コマンド確定部、35・・・アクション実行部、40・・・タッチスクリーン、321・・確率演算部、322・・推定コマンド決定部   DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 30 ... Control part, 31 ... Input detection part, 32 ... Estimation part, 33 ... Display control part, 34 ... Command confirmation part, 35 ... Action execution unit, 40... Touch screen, 321 .. probability calculation unit, 322 .. estimation command determination unit

Claims (3)

入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含むゲームを実行するコンピュータに、
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップと、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップと、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップと、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップと、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップと、
を含む制御処理を実行させる情報処理プログラムであって、
前記表示制御ステップとして、
前記推定ステップにおいて第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を前記表示媒体に表示させ、
その後、前記コマンド確定ステップにおいて前記入力コマンドが確定されるまでの間に、前記推定ステップにおいて第2推定コマンドが決定された場合、前記第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を前記表示媒体に表示させる
制御処理を実行させる情報処理プログラム。
A computer that executes a game including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events;
An input detection step of detecting an input event due to an operation of contact or proximity of an object to the display medium;
Based on the detection result history in the input detection step, an estimation step of determining what is estimated as an input command among the plurality of types of commands as an estimation command;
A display control step for executing control to display an image related to the estimation command on the display medium;
A command confirming step for confirming the estimated command as the input command when the estimated command satisfies a predetermined condition;
An action execution step for executing an action corresponding to the confirmed input command;
An information processing program for executing control processing including:
As the display control step,
When the first estimation command is determined in the estimation step, a first image corresponding to the first estimation command is displayed on the display medium,
Thereafter, when the second estimation command is determined in the estimation step until the input command is determined in the command determination step, the display of the first image is stopped and the second estimation command is displayed. An information processing program for executing a control process for displaying a corresponding second image on the display medium.
前記入力イベントの検出から前記アクションの実行までの期間が予め規定されており、
前記第1画像および前記第2画像は、前記期間の長さを有する動画像であり、
前記期間内の所定タイミングで前記第1推定コマンドから前記第2推定コマンドに切り替わった場合、前記表示制御ステップとして、前記第2画像の表示開始点を前記期間のうち前記所定タイミングとして、前記第2画像の表示を開始する
制御処理を実行させる請求項1に記載の情報処理プログラム。
A period from the detection of the input event to the execution of the action is defined in advance,
The first image and the second image are moving images having the length of the period,
When the first estimation command is switched to the second estimation command at a predetermined timing within the period, as the display control step, the display start point of the second image is set as the predetermined timing in the period, and the second The information processing program according to claim 1, wherein control processing for starting display of an image is executed.
情報処理装置が実行する、入力イベントの所定のシーケンスにより表される所定のコマンドに対応するアクションを複数種類含む情報処理方法において、
表示媒体への物体の接触又は近接の操作による入力イベントを検出する入力検出ステップと、
前記入力検出ステップにおける検出結果の履歴に基づいて、前記複数種類のコマンドのうち入力コマンドと推定されるものを、推定コマンドとして決定する推定ステップと、
前記推定コマンドに関連する画像を前記表示媒体に表示させる制御を実行する表示制御ステップと、
前記推定コマンドが所定の条件を満たした場合、当該推定コマンドを前記入力コマンドとして確定するコマンド確定ステップと、
確定された前記入力コマンドに対応するアクションを実行するアクション実行ステップと、
を含み、
前記表示制御ステップとして、
前記推定ステップにおいて第1推定コマンドが決定された場合、当該第1推定コマンドに対応する第1画像を前記表示媒体に表示させ、
その後、前記コマンド確定ステップにおいて前記入力コマンドが確定されるまでの間に、前記推定ステップにおいて第2推定コマンドが決定された場合、前記第1画像の表示を中止して、当該第2推定コマンドに対応する第2画像を前記表示媒体に表示させる
制御を実行するステップを含む情報処理方法。
In an information processing method including a plurality of types of actions corresponding to a predetermined command represented by a predetermined sequence of input events, executed by an information processing device,
An input detection step of detecting an input event due to an operation of contact or proximity of an object to the display medium;
Based on the detection result history in the input detection step, an estimation step of determining what is estimated as an input command among the plurality of types of commands as an estimation command;
A display control step for executing control to display an image related to the estimation command on the display medium;
A command confirming step for confirming the estimated command as the input command when the estimated command satisfies a predetermined condition;
An action execution step for executing an action corresponding to the confirmed input command;
Including
As the display control step,
When the first estimation command is determined in the estimation step, a first image corresponding to the first estimation command is displayed on the display medium,
Thereafter, when the second estimation command is determined in the estimation step until the input command is determined in the command determination step, the display of the first image is stopped and the second estimation command is displayed. An information processing method including a step of executing control to display a corresponding second image on the display medium.
JP2015121002A 2015-06-16 2015-06-16 Information processing program and information processing method Active JP5784259B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015121002A JP5784259B1 (en) 2015-06-16 2015-06-16 Information processing program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015121002A JP5784259B1 (en) 2015-06-16 2015-06-16 Information processing program and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014256987A Division JP5784211B1 (en) 2014-12-19 2014-12-19 Information processing program and information processing method

Publications (2)

Publication Number Publication Date
JP5784259B1 true JP5784259B1 (en) 2015-09-24
JP2016119049A JP2016119049A (en) 2016-06-30

Family

ID=54200775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015121002A Active JP5784259B1 (en) 2015-06-16 2015-06-16 Information processing program and information processing method

Country Status (1)

Country Link
JP (1) JP5784259B1 (en)

Also Published As

Publication number Publication date
JP2016119049A (en) 2016-06-30

Similar Documents

Publication Publication Date Title
US20230280793A1 (en) Adaptive enclosure for a mobile computing device
US12001650B2 (en) Music user interface
US11747956B2 (en) Multi-dimensional object rearrangement
CN109982756B (en) Information processing program, information processing method, and information processing apparatus
US10384125B2 (en) Information processing program and information processing method
US20190230400A1 (en) Video recording and replay
JP6496752B2 (en) Input device and user interface interaction
US20100182264A1 (en) Mobile Device Equipped With Touch Screen
US20150035746A1 (en) User Interface Device
CN105556438A (en) Systems and methods for providing response to user input using information about state changes predicting future user input
US20150067589A1 (en) Operation Processing Method And Operation Processing Device
US11759702B2 (en) Game system, processing method, and information storage medium
JP5784211B1 (en) Information processing program and information processing method
JP5784259B1 (en) Information processing program and information processing method
JP5784260B1 (en) Information processing program and information processing method
CN104951211B (en) A kind of information processing method and electronic equipment
KR101610952B1 (en) User gesture-based video play apparatus and operation method thereof
JP5993513B1 (en) Baseball game program, game program, and computer
EP2672374A1 (en) Detection of circular motion in a two-dimensional space
Myers Touch-Enhanced Gesture Control Scheme
WO2017159796A1 (en) Information processing method and information processing device
JP2017167792A (en) Information processing method and information processor
Hörschinger et al. Towards Self-Adaptive User Interfaces by Holding Posture Recognition for Smartphones

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150721

R150 Certificate of patent or registration of utility model

Ref document number: 5784259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250