JP2016126512A - Input processor and program - Google Patents

Input processor and program Download PDF

Info

Publication number
JP2016126512A
JP2016126512A JP2014266678A JP2014266678A JP2016126512A JP 2016126512 A JP2016126512 A JP 2016126512A JP 2014266678 A JP2014266678 A JP 2014266678A JP 2014266678 A JP2014266678 A JP 2014266678A JP 2016126512 A JP2016126512 A JP 2016126512A
Authority
JP
Japan
Prior art keywords
input
operation input
screen
slide operation
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014266678A
Other languages
Japanese (ja)
Other versions
JP6427414B2 (en
Inventor
卓 枡谷
Taku Masutani
卓 枡谷
有也 勝谷
Yuya Katsutani
有也 勝谷
啓太 飯塚
keita Iizuka
啓太 飯塚
顕 桑原
Akira Kuwabara
顕 桑原
恩田 明生
Akio Onda
明生 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2014266678A priority Critical patent/JP6427414B2/en
Publication of JP2016126512A publication Critical patent/JP2016126512A/en
Application granted granted Critical
Publication of JP6427414B2 publication Critical patent/JP6427414B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a program and a game device capable of accurately displaying an object to be displayed on a screen without depending on a reference position on the screen resulting in the improvement in the operability of a user.SOLUTION: Terminal equipment 20 is configured to detect a detection position where a first change from a non-contact state to a contact state has been detected as a reference position, and to, after the reference position is detected, and when a touch operation input when the reference position is detected is continued, and a slide operation input is performed, detect the slide operation input position as an instruction position, and to execute the movement control of an object to be displayed on a screen in accordance with a manipulated variable in the slide operation input including the detected reference position and the instruction position, and to execute correction processing for correcting the manipulated variable on the basis of the detected reference position.SELECTED DRAWING: Figure 3

Description

本発明は、入力処理装置及びプログラムなどに関する。   The present invention relates to an input processing device and a program.

近年、タブレット型情報通信端末装置又はスマートフォンなどの情報通信端末装置(以下、「通信端末装置」という)の多機能化、機能向上及びその普及に伴い、これらの携帯端末装置においてもゲームを実行する機会が増えている。そして、これらの携帯端末装置の他にもゲームを実行する携帯用端末装置も種々提供されている。   In recent years, as information communication terminal devices such as tablet-type information communication terminal devices or smartphones (hereinafter referred to as “communication terminal devices”) have become multifunctional, improved, and popularized, games are also executed on these portable terminal devices. Opportunities are increasing. In addition to these portable terminal devices, various portable terminal devices that execute games are also provided.

このような端末装置においては、キーボードやテンキーなどによるコントローラを用いて操作するものの他に、表示画面にタッチパネルを備え、実行されたゲームを視認する画面にポインティングデバイスによって又は直接ユーザがタッチすることによって操作するものも登場してきている(以下、このような操作を「タッチ操作」という。)。   In such a terminal device, in addition to what is operated using a controller such as a keyboard or a numeric keypad, the display screen is provided with a touch panel, and the user can touch the screen for viewing the executed game with a pointing device or directly by the user. Some operations have also appeared (hereinafter such operations are referred to as “touch operations”).

また、最近では、パーソナルコンピュータなどの端末装置だけでなく、種々のデバイスにおいても、表示画面へのタッチ操作を行うユーザインタフェースを有するものも多く登場してきており、ゲームを実行する装置においても、キーボードやテンキーなど従来のインターフェースを補完するだけでなく、それらに置き換わるインターフェースとして用いられるようになってきている。   Recently, not only a terminal device such as a personal computer but also various devices have appeared that have a user interface for performing a touch operation on a display screen. In addition to complementing conventional interfaces such as the keypad and the numeric keypad, it has come to be used as an interface to replace them.

一方、このようなタッチ操作によってゲームを実行するゲーム装置及びそのプログラムとしては、特許文献1に記載のものが知られている。   On the other hand, as a game apparatus and a program for executing a game by such a touch operation, the one described in Patent Document 1 is known.

例えば、特許文献1に記載のゲーム装置又はそのプログラムは、表示画面にタッチを行うと当該タッチした点を基準座標として設定し、その後に当該タッチ操作をスライドすることによって当該タッチが継続する間に、基準座標から当該操作(以下、「スライド操作入力」ともいう。)が継続されている際に操作検出されている座標(すなわち、指示座標)への方向、又は、当該基準座標から指示座標の距離に応じてゲームを制御する構成を有している。そして、このゲーム装置又はそのプログラムは、ユーザに視認させて操作性を向上させるために、基準座標の位置を画像として表示させるようになっている。   For example, when the game device described in Patent Document 1 or a program thereof touches the display screen, the touched point is set as a reference coordinate, and then the touch operation is continued by sliding the touch operation. The direction from the reference coordinates to the coordinates (that is, the designated coordinates) detected when the operation (hereinafter also referred to as “slide operation input”) is continued, or from the reference coordinates to the designated coordinates. The game is controlled according to the distance. And this game device or its program displays the position of a reference coordinate as an image in order to make a user visually recognize and improve operativity.

特許3734820号公報Japanese Patent No. 3733420

しかしながら、上記特許文献1に記載のゲーム装置にあっては、タッチパネルのどの場所でタッチされたとしても同様なスライド操作入力で操作制御されることとなるので、例えば、基準位置(起点となるタッチ操作入力位置)がタッチパネルの少なくとも一方の画面端部に近くなった場合など、スライド可能領域が十分に確保できない場合に、適切な操作を行うことができない場合がある。   However, in the game device described in Patent Literature 1, operation is controlled by the same slide operation input regardless of where the touch panel is touched. When the operation input position) is close to at least one screen edge of the touch panel or the like and a slidable area cannot be sufficiently secured, an appropriate operation may not be performed.

特に、スマートフォンなどの携帯型の端末装置においては、片手で当該端末装置を保持しつつ、保持した手の親指でタッチパネルを操作することも多く、この場合に、親指の操作範囲が当該親指の可動域の関係で画面の一方の端部に近くなる。例えば、右手で保持した場合には、画面に向かって右側への操作範囲が左側への操作範囲より狭くなり、左手で
保持した場合には、画面に向かって左側への操作範囲が右側への操作範囲より狭くなる。したがって、このような状況下においては、上記特許文献1に記載のゲーム装置にあっては、スライド操作入力を行うスライド可能領域を十分に確保できないことも多い。
In particular, a portable terminal device such as a smartphone often operates the touch panel with the thumb of the held hand while holding the terminal device with one hand. In this case, the operating range of the thumb is movable. Due to the area, it is close to one end of the screen. For example, when held with the right hand, the operation range on the right side is narrower than the operation range on the left side when facing the screen, and when held with the left hand, the operation range on the left side when facing the screen is shifted to the right side. Narrower than the operating range. Therefore, in such a situation, the game device described in Patent Document 1 often cannot sufficiently secure a slidable area for performing a slide operation input.

本発明は、上記課題を解決するためになされたものであり、その目的は、画面上の基準位置に依存することなく、画面に表示されるオブジェクトを的確に表示することができるので、ユーザの操作性を向上することが可能なプログラム及び入力処理装置などを提供することにある。   The present invention has been made to solve the above-described problems, and the object thereof is to display an object displayed on the screen accurately without depending on the reference position on the screen. An object of the present invention is to provide a program and an input processing device that can improve operability.

(1)上記課題を解決するため、本発明のプログラムは、
所与の画面が表示されるタッチパネルへのスライド操作入力を受け付けるためのプログラムであって、
前記タッチ操作入力された画面上の位置に関連付けられた所定位置を基準位置として検出する第1の検出処理を実行し、当該基準位置の検出後であって当該基準位置を検出した際のタッチ操作入力が継続されてスライド操作入力されている場合に、当該スライド操作入力の位置を指示位置として検出する第2の検出処理を行うタッチ操作入力検出処理手段、及び、
前記検出された基準位置及び指示位置を含むスライド操作入力における操作量に従って前記画面に表示されるオブジェクトの制御を行う操作制御手段、
としてコンピュータを機能させ、
前記操作制御手段が、
前記第1の検出処理によって検出された基準位置又は指示位置の画面上の位置に基づいて、前記操作量を補正する補正処理を実行する、構成を有している。
(1) In order to solve the above problems, the program of the present invention
A program for accepting a slide operation input to a touch panel on which a given screen is displayed,
Touch operation when detecting a reference position after detecting the reference position by executing a first detection process that detects a predetermined position associated with the position on the screen input by the touch operation as a reference position Touch operation input detection processing means for performing a second detection process for detecting the position of the slide operation input as an indicated position when the input is continued and the slide operation is input; and
Operation control means for controlling an object displayed on the screen in accordance with an operation amount in a slide operation input including the detected reference position and indicated position;
Function as a computer
The operation control means is
A correction process for correcting the operation amount is executed based on the reference position or the indicated position on the screen detected by the first detection process.

また、本発明は、上記各手段を有する入力処理装置に関する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体に関する。   The present invention also relates to an input processing apparatus having each of the above means. The present invention also relates to an information storage medium that is a computer-readable information storage medium that stores a program for causing a computer to function as each of the above-described units.

この構成により、本発明のプログラムは、例えば画面の右隅や左隅など画面中心ではなく、少なくともいずれか一方の画面端部に近い位置が基準位置又は指示位置の画面上の位置として検出された場合であっても、画面に表示されるオブジェクトを的確に表示することができる。   With this configuration, the program according to the present invention, for example, when the position close to at least one of the screen edges, such as the right corner or the left corner of the screen, is detected as the reference position or the indicated position on the screen. Even so, the object displayed on the screen can be accurately displayed.

すなわち、本発明のプログラムは、基準位置又は指示位置の画面上の位置が少なくとも一方の画面端部に近くなり、スライド可能な領域が狭くなっている方向にスライド操作入力を行う場合であっても、スライド可能な領域が広くなっている方向にスライド操作入力した場合と同様に、移動量又は移動速度などの操作量を制御することができる。   That is, the program of the present invention is a case where the position of the reference position or the designated position on the screen is close to at least one screen end and the slide operation input is performed in the direction in which the slidable area is narrowed. Similarly to the case where the slide operation is input in the direction in which the slidable area is wide, the operation amount such as the movement amount or the movement speed can be controlled.

例えば、本発明のプログラムは、基準位置又は指示位置の画面上の位置が少なくとも一方の画面端部に近くなり、一方のスライド可能領域が他方のスライド可能領域の半分の場合には、一方のスライド領域の方向にスライド操作入力した際の操作量を他方のスライド可能領域の方向にスライド操作入力した際の操作量を2倍にすることによって、スライド可能領域の広狭に依存することなく、同一の操作量を確保することができる。   For example, in the program of the present invention, when the position of the reference position or the designated position on the screen is close to at least one screen end and one slidable area is half of the other slidable area, one slide By doubling the amount of operation when a slide operation is input in the direction of the area to the direction of the other slidable area, the operation amount is the same without depending on the width of the slidable area. The operation amount can be secured.

したがって、本発明のプログラムは、画面上の基準位置又は指示位置の画面上の位置に依存することなく、画面に表示されるオブジェクトを的確に表示することができるので、ユーザの操作性を向上することができる。   Therefore, the program of the present invention can accurately display the object displayed on the screen without depending on the reference position on the screen or the position of the indication position on the screen, thereby improving the operability for the user. be able to.

なお、「タッチ操作入力」及び「スライド操作入力」には、
(1)ユーザの指によるタッチパネル上への直接的なタッチ操作又はスライド操作入力、(2)ポインティングデバイスなどのデバイスを介して実行される間接的なタッチパネル上へのタッチ操作又はスライド操作入力、及び、
(3)タッチパネルに直接的及び間接的にタッチ操作又はスライド操作入力することによって操作入力を検出せずに、タッチパネル上への擬似的な操作(接触及び非接触を含む)を検出することによって認識するタッチ操作又はスライド操作入力、
も含まれる。
“Touch operation input” and “Slide operation input”
(1) Direct touch operation or slide operation input on the touch panel by the user's finger, (2) Indirect touch operation or slide operation input on the touch panel executed via a device such as a pointing device, and ,
(3) Recognition by detecting a pseudo operation (including contact and non-contact) on the touch panel without detecting an operation input by directly or indirectly inputting a touch operation or a slide operation to the touch panel. Touch operation or slide operation input,
Is also included.

特に、擬似的なタッチ操作又はスライド操作入力とは、例えば、
(3A)赤外線などの光ビームをタッチパネル面と平行に当該タッチパネル面に近接した位置で照射し、当該タッチパネルの一端部に縦横方向に一定間隔に形成される複数の照射部と、各照射部と対を構成し、当該各照射部に対向するタッチパネルの他端部に設けられ、各照射された光ビームをそれぞれ受信する複数のセンサとによって、タッチパネルに接触又は近接した際に光ビームが遮断された縦横の座標を検出し、当該検出した座標に基づいて認識するタッチ操作又はスライド操作入力、及び、
(3B)タッチパネルの表示面を撮像するカメラを設け、当該カメラによってユーザがタッチパネルに接触又は近接した位置座標を検出し、当該検出した位置座標に基づいて認識するタッチ操作又はスライド操作入力、
などタッチパネルとは別形状を有する検出手段を用いて実際にタッチパネルに接触することによって又は近接させることを検出することによって認識するタッチ操作又はスライド操作入力を含む。
In particular, pseudo touch operation or slide operation input is, for example,
(3A) Irradiating a light beam such as infrared rays at a position close to the touch panel surface in parallel with the touch panel surface, and a plurality of irradiation units formed at regular intervals in the vertical and horizontal directions at one end of the touch panel; A pair of sensors is provided at the other end of the touch panel facing each irradiation unit, and a plurality of sensors that receive each irradiated light beam, and the light beam is blocked when contacting or approaching the touch panel. Touch operation or slide operation input that is detected based on the detected coordinates, and
(3B) Provided with a camera that images the display surface of the touch panel, a touch operation or a slide operation input that is recognized by the user based on the detected position coordinates, by detecting the position coordinates when the user touches or approaches the touch panel;
The touch operation or the slide operation input that is recognized by actually detecting or touching the touch panel using a detection unit having a shape different from that of the touch panel is included.

また、「タッチ操作入力画面上の位置に関連付けられた所定位置」は、例えば、画面へのタッチ操作入力されていない状態からタッチ操作入力された状態への変化を検出した際の検出位置に関連付けた所定の位置、及び、予め定められたタイミングにおいて検出した際の検出位置に関連付けた所定の位置を示すとともに、当該検出位置そのものでもよいし、検出位置から所定の距離離れた位置、当該検出位置に基づいて画面に表示される仮想コントローラが表示される位置、又は、タッチパネルの隅に形成されたエリアなど特定の位置であってもよい。   The “predetermined position associated with the position on the touch operation input screen” is associated with, for example, the detection position when a change from a state where no touch operation is input to the screen to a state where the touch operation is input is detected. The predetermined position and the predetermined position associated with the detection position at the time of detection at a predetermined timing, and the detection position itself, or a position away from the detection position by a predetermined distance, the detection position It may be a specific position such as a position where a virtual controller displayed on the screen is displayed or an area formed in a corner of the touch panel.

さらに、「操作量」には、例えば、基準位置から第2の検出処理によって検出された位置までの距離を示す移動量と、基準位置から第2の検出処理によって検出された位置まで移動速度と、スライド操作入力の操作対象が実行する実行回数を含む。   Further, the “operation amount” includes, for example, a movement amount indicating a distance from the reference position to the position detected by the second detection process, and a movement speed from the reference position to the position detected by the second detection process. , Including the number of executions performed by the operation target of the slide operation input.

(2)また、本発明のプログラムは、
前記タッチ操作入力検出処理手段が、
前記スライド操作入力中の所与のタイミングに新たな基準位置を検出し、
前記操作制御手段が、
前記スライド操作入力中に新たに検出された基準位置又は当該新たな基準位置による指示位置の画面上の位置に基づいて、前記操作量を補正する、構成を有している。
(2) The program of the present invention
The touch operation input detection processing means is
A new reference position is detected at a given timing during the slide operation input,
The operation control means is
The operation amount is corrected based on the reference position newly detected during the slide operation input or the position on the screen of the designated position based on the new reference position.

この構成により、本発明のプログラムは、スライド操作入力中に動的に操作量を補正することができるので、例えば、スライド操作入力中に操作方向を切り換えることによって、又は、長い時間継続してスライド操作入力を実行していることによって、さらにスライド操作入力を行う領域が狭くなっている場合であっても、画面に表示されるオブジェクトを的確に表示することができる。   With this configuration, the program of the present invention can dynamically correct the operation amount during the slide operation input. For example, the program can be slid by switching the operation direction during the slide operation input or continuously for a long time. By executing the operation input, the object displayed on the screen can be accurately displayed even when the area for performing the slide operation input is further narrowed.

なお、「所与のタイミング」には、スライド操作入力中に5msなど予め定められた期間毎に到来するタイミング、及び、スライド操作入力方向が10度など予め定められた角度以上に変更したときのタイミングが含まれる。   In addition, the “given timing” includes a timing that arrives every predetermined period such as 5 ms during the slide operation input, and a time when the slide operation input direction is changed to a predetermined angle or more such as 10 degrees. Timing is included.

(3)また、本発明のプログラムは、
前記所与の制御指示に基づいて、前記補正処理を実行するか否かを判定する判定手段として前記コンピュータを更に機能させ、
前記操作制御手段が、前記補正処理を実行すると判定された場合に当該補正処理を実行する、構成を有している。
(3) The program of the present invention is
Based on the given control instruction, the computer further functions as a determination unit that determines whether to execute the correction process,
The operation control means is configured to execute the correction process when it is determined to execute the correction process.

この構成により、本発明のプログラムは、ユーザの指示によって補正処理が不要の場合やオブジェクトが存在するオブジェクト空間が表示画面内に収まる場合には、補正処理によって移動量や移動速度の操作量が補正されない場合の方が、当該補正処理によって操作量が補正された場合より容易にかつ的確に操作することができるので、補正処理の実行の可否を判断する処理を有することによって、オブジェクトの種々の操作に対応することができる。   With this configuration, the program according to the present invention corrects the movement amount and the operation amount of the movement speed by the correction processing when the correction processing is unnecessary according to a user instruction or when the object space where the object exists is within the display screen. In the case where the operation amount is not corrected, the operation amount can be more easily and accurately operated than in the case where the operation amount is corrected by the correction processing. Therefore, by having a process for determining whether or not to execute the correction process, various operations of the object can be performed. It can correspond to.

(4)また、本発明のプログラムは、
前記補正処理が実行中であることを示す表示を実行させる補正処理表示制御手段として前記コンピュータを更に機能させる、構成を有している。
(4) The program of the present invention
The computer further functions as correction processing display control means for executing a display indicating that the correction processing is being executed.

この構成により、本発明のプログラムは、補正処理が実行中の場合には操作者にそのことを容易に知らしめることができるので、補正処理が実行されている場合と当該補正処理が実行されていない場合とで操作が異なることによって被る不利益を防止することができる。   With this configuration, the program of the present invention can easily notify the operator of the fact that the correction process is being executed. Therefore, when the correction process is being executed, the correction process is being executed. It is possible to prevent the disadvantage caused by the operation being different from the case where there is not.

例えば、本発明のプログラムは、補正処理が実行中である旨を画面上に表示することによって、又は、十字コントローラや矢印など画面上に操作オブジェクトを表示している場合には、その形状、色若しくは大きさを変更させることによって補正処理が実行中であることを表示することができるようになっている。   For example, the program according to the present invention displays the fact that the correction process is being executed on the screen, or if an operation object such as a cross controller or an arrow is displayed on the screen, its shape, color Alternatively, the fact that the correction process is being executed can be displayed by changing the size.

(5)また、本発明のプログラムは、
前記タッチ操作入力検出処理手段によって、同時に複数のスライド操作入力が検出されている場合には、
前記操作制御手段が、一のスライド操作入力によって定まる補正量に従って各スライド操作入力に伴う操作量を補正する補正処理を実行する、構成を有している。
(5) The program of the present invention
When a plurality of slide operation inputs are detected at the same time by the touch operation input detection processing means,
The operation control means is configured to execute a correction process for correcting an operation amount associated with each slide operation input according to a correction amount determined by one slide operation input.

この構成により、本発明のプログラムは、複数のスライド操作入力を検出した場合であっても、同一の操作感覚によってスライド操作入力を行うことができるので、ユーザの操作性を向上させることができる。   With this configuration, even when a plurality of slide operation inputs are detected, the program of the present invention can perform a slide operation input with the same operation feeling, so that the user operability can be improved.

(6)また、本発明のプログラムは、
前記操作制御手段が、
所与の条件を具備した場合には、前記補正処理の実行を中止し、前記基準位置をクリアする、構成を有している。
(6) The program of the present invention is
The operation control means is
When a given condition is satisfied, the execution of the correction process is stopped and the reference position is cleared.

この構成により、本発明のプログラムは、スライド操作入力中に画面からタッチ操作が中止された場合には、基準位置をクリアすることができるので、スライド操作入力を繰り返しても、その都度、新しい基準位置をリセットして補正処理を実行することができる。   With this configuration, the program of the present invention can clear the reference position when the touch operation is stopped from the screen during the slide operation input. Therefore, even if the slide operation input is repeated, a new reference is made each time. The correction process can be executed by resetting the position.

なお、「所与の条件」には、スライド操作入力中に、画面へのタッチ操作入力されていない状態を検出した場合、基準位置が検出されてから一定期間が経過した場合、又は、スライド操作入力におけるスライド操作入力量が一定以上になった場合が含まれる。   The “given condition” includes a state in which no touch operation is input to the screen during a slide operation input, a certain period of time has elapsed since the reference position was detected, or a slide operation This includes the case where the input amount of the slide operation in the input becomes a certain value or more.

(7)また、本発明のプログラムは、
前記操作制御手段が、
前記スライド操作入力に従って前記所与の画面内に表示されている操作対象オブジェクトの操作制御を行う、構成を有している。
(7) The program of the present invention
The operation control means is
According to the slide operation input, the operation control of the operation target object displayed in the given screen is performed.

この構成により、本発明のプログラムは、スライド操作入力によって所与の画面内に表示されている操作対象オブジェクトを制御することができるので、例えば、戦闘ゲームやシューティングゲームなど、プレーヤキャラクタやその他のキャラクタを迅速にかつ的確に操作する必要があるゲームの操作手段として用いることができる。   With this configuration, the program of the present invention can control an operation target object displayed in a given screen by a slide operation input, so that, for example, a player character or other character such as a battle game or a shooting game can be controlled. Can be used as a game operating means that requires quick and accurate operation.

(8)また、本発明のプログラムは、
オブジェクト空間に前記スライド操作入力によって操作対象となる操作対象オブジェクトを配置するオブジェクト制御手段として前記コンピュータを更に機能させ、
前記操作制御手段が、
前記第1の検出処理によって検出された基準位置又は指示位置の画面上の位置に基づいて、前記オブジェクト空間内における操作対象オブジェクトの移動速度、当該操作対象オブジェクトの移動量、及び、当該操作対象オブジェクトが所与の処理を実行する実行回数の少なくともいずれか一方を補正する前記補正処理を実行する、構成を有している。
(8) The program of the present invention
Causing the computer to further function as object control means for arranging an operation target object to be operated by the slide operation input in an object space;
The operation control means is
Based on the position on the screen of the reference position or the designated position detected by the first detection process, the movement speed of the operation target object in the object space, the movement amount of the operation target object, and the operation target object Has a configuration in which the correction process for correcting at least one of the number of executions of executing a given process is executed.

この構成により、本発明のプログラムは、補正処理として、ゲームなどにおいてオブジェクト空間内における操作対象オブジェクトの移動速度、当該操作対象オブジェクトの移動量、及び、当該操作対象オブジェクトが所与の処理を実行する実行回数の少なくともいずれか一方を補正することができる。   With this configuration, the program of the present invention executes, as correction processing, the movement speed of the operation target object in the object space, the amount of movement of the operation target object, and the given operation target object in a game or the like. At least one of the number of executions can be corrected.

なお、「操作対象オブジェクト」には、ゲームなどにおけるプレーヤキャラクタや敵キャラクタなどの重要なキャラクタやオブジェクト空間内でユーザ操作の対象となる各種のオブジェクトが含まれるとともに、所定の画像や動画における重要な表示又はキーワードなどの重要なコンテンツ及び画像を形成するための各種のオブジェクトが含まれる。   Note that the “operation target object” includes important characters such as player characters and enemy characters in games, and various objects that are targets of user operations in the object space. Various objects for forming important content such as display or keywords and images are included.

また、この「操作対象オブジェクト」には、直接的にユーザによって操作されるオブジェクトの他に、例えば、プレーヤキャラクタに装備されるアイテムなど、直接的に操作されるオブジェクトの動作に基づいて制御される間接的に操作されるオブジェクトも含まれる。   In addition to the object directly operated by the user, the “operation target object” is controlled based on the movement of the object directly operated, such as an item equipped on the player character. Indirectly manipulated objects are also included.

(9)また、本発明のプログラムは、
オブジェクト空間内で実行される所与のゲームを制御するゲーム制御手段として前記コンピュータを更に機能させ、
前記操作制御手段が、
前記所与のゲームのゲーム状況の変化に応じて前記補正処理の内容を変化させ、又は、前記補正処理を実行する基準となる前記画面上の位置を変化させる、構成を有している。
(9) The program of the present invention
Further causing the computer to function as game control means for controlling a given game executed in the object space;
The operation control means is
The content of the correction process is changed according to a change in the game situation of the given game, or the position on the screen that is a reference for executing the correction process is changed.

この構成により、本発明のプログラムは、ゲームが実行されているオブジェクト空間を形成するためのマップの形状の変化、ゲーム内のステージやレベルの変化、又は、RPGなどの操作対象となる操作対象オブジェクトのレベル変化に応じて、補正処理の内容を変化させ、又は、補正処理を実行する基準となる画面上の位置を変化させることができる。   With this configuration, the program of the present invention allows the operation target object to be an operation target such as a change in the shape of the map for forming the object space in which the game is executed, a change in the stage or level in the game, or an RPG. In accordance with the level change, the content of the correction process can be changed, or the position on the screen as a reference for executing the correction process can be changed.

なお、「補正処理の内容を変化させる」とは、例えば、オブジェクト空間内においてユーザ操作の対象となる操作対象オブジェクトの移動速度の補正処理を、当該操作対象オブジェクトの移動量、又は、当該操作対象オブジェクトが所与の処理を実行する実行回数な
どの補正処理に変更することをいい、当該補正内容に限られない。
Note that “changing the content of the correction process” means, for example, correcting the movement speed of the operation target object that is the target of the user operation in the object space, the movement amount of the operation target object, or the operation target This means changing to a correction process such as the number of execution times an object executes a given process, and is not limited to the correction content.

また、「補正処理を実行する基準となる画面上の位置を変化させる」とは、所与のゲームのゲーム状況が変化した場合には、例えば、補正処理を実行するタッチパネル上の位置が当該タッチパネルの最外縁となる端部から所定の距離離れた位置までの有効領域(外縁に環状に形成される領域)が、当該タッチパネル左半分の領域のみ有効で右半分を無効に変更すること、又は、タッチパネルの四隅を含む予め定められた矩形領域(又は円形領域など)にのみ有効でその他は無効に変更することを示し、所与のゲームのゲーム状況の変化に応じて補正処理を実行すべきタッチパネル上の位置や領域が変化することを示す。   Also, “change the position on the screen as a reference for executing the correction process” means that when the game situation of a given game changes, for example, the position on the touch panel for executing the correction process is the touch panel. The effective area (area formed in an annular shape on the outer edge) from the end that becomes the outermost edge of the touch panel to the left half of the touch panel is valid and the right half is invalid, or A touch panel that indicates that only a predetermined rectangular area (or circular area) including the four corners of the touch panel is valid and the others are changed to invalid, and correction processing should be executed in accordance with a change in the game situation of a given game Indicates that the position or area above changes.

(10)また、本発明のプログラムは、
前記補正処理が実行されたことを通知する通知手段として前記コンピュータを更に機能させる、構成を有している。
(10) The program of the present invention
The computer further functions as notification means for notifying that the correction processing has been executed.

この構成により、本発明のプログラムは、補正処理が実行されたことを操作者に容易に知らしめることができる。   With this configuration, the program of the present invention can easily inform the operator that the correction processing has been executed.

なお、「補正処理が実行されたことを通知する」とは、補正処理が実行されことを表示すること、又は、補正内容を表示することの他に、音や振動などによって補正処理が実行されたことを通知することも含まれる。   Note that “notify that the correction process has been executed” means that the correction process is executed by sound or vibration in addition to displaying that the correction process is executed or displaying the correction content. It is also included to notify that.

(11)上記課題を解決するため、本発明の入力処理装置は、
所与の画面が表示されるタッチパネルへのスライド操作入力を受け付ける入力処理装置であって、
前記タッチ操作入力された画面上の位置に関連付けられた所定位置を基準位置として検出する第1の検出処理を実行し、当該基準位置の検出後であって当該基準位置を検出した際のタッチ操作入力が継続されてスライド操作入力されている場合に、当該スライド操作入力の位置を指示位置として検出する第2の検出処理を行うタッチ操作入力検出処理手段と、
前記検出された基準位置及び指示位置を含むスライド操作入力における操作量に従って前記画面に表示されるオブジェクトの制御を行う操作制御手段と、
を備え、
前記操作制御手段が、
前記第1の検出処理によって検出された基準位置又は指示位置の画面上の位置に基づいて、前記操作量を補正する補正処理を実行する構成を有している。
(11) In order to solve the above problems, an input processing device according to the present invention provides:
An input processing device that accepts a slide operation input to a touch panel on which a given screen is displayed,
Touch operation when detecting a reference position after detecting the reference position by executing a first detection process that detects a predetermined position associated with the position on the screen input by the touch operation as a reference position Touch operation input detection processing means for performing a second detection process for detecting the position of the slide operation input as an indicated position when the input is continued and the slide operation is input;
Operation control means for controlling an object displayed on the screen according to an operation amount in a slide operation input including the detected reference position and instruction position;
With
The operation control means is
A correction process for correcting the operation amount is executed based on the reference position or the indicated position on the screen detected by the first detection process.

この構成により、本発明の入力処理装置は、例えば画面の右隅や左隅など画面中心ではなく、少なくともいずれか一方の画面端部に近い位置が基準位置又は指示位置の画面上の位置として検出された場合であっても、画面に表示されるオブジェクトを的確に表示することができる。   With this configuration, the input processing device of the present invention detects, for example, a position close to at least one of the screen edges, not the center of the screen, such as the right corner or the left corner of the screen, as the position on the screen of the reference position or the designated position. Even in such a case, the object displayed on the screen can be accurately displayed.

したがって、本発明の入力処理装置は、画面上の基準位置又は指示位置の画面上の位置に依存することなく、画面に表示されるオブジェクトを的確に表示することができるので、ユーザの操作性を向上することができる。   Therefore, the input processing device of the present invention can accurately display the object displayed on the screen without depending on the reference position on the screen or the position of the indication position on the screen. Can be improved.

一実施形態のゲームシステムの構成を示すシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure which shows the structure of the game system of one Embodiment. 一実施形態におけるサーバ装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the server apparatus in one Embodiment. 一実施形態における端末装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the terminal device in one Embodiment. 一実施形態における端末装置の外観構成を示す図の一例である。It is an example of the figure which shows the external appearance structure of the terminal device in one Embodiment. 一実施形態の仮想コントローラの表示制御について説明するための図(その1)である。It is FIG. (1) for demonstrating the display control of the virtual controller of one Embodiment. 一実施形態の仮想コントローラの表示制御について説明するための図(その2)である。It is FIG. (2) for demonstrating the display control of the virtual controller of one Embodiment. 一実施形態の端末装置によって実行されるスライド操作入力量の補正処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the correction process of the slide operation input amount performed by the terminal device of one Embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

[1]ゲームシステム
まず、図1を用いて本実施形態のゲームシステム1の概要及び概要構成について説明する。なお、図1は、本実施形態のゲームシステム1の構成を示すシステム構成の一例を示す図である。
[1] Game System First, the outline and outline configuration of the game system 1 of the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a system configuration showing the configuration of the game system 1 of the present embodiment.

本実施形態のゲームシステム1は、図1に示すように、ゲームサービスを提供するサーバ装置10と、端末装置20(例えば、端末装置20A、20B、20C)とが、インターネット(ネットワークの一例)に接続可能に構成されている。   As shown in FIG. 1, the game system 1 of the present embodiment includes a server device 10 that provides a game service and a terminal device 20 (for example, terminal devices 20A, 20B, and 20C) on the Internet (an example of a network). It is configured to be connectable.

ユーザは、端末装置20からサーバ装置10にアクセスすることにより、インターネットを介してサーバ装置10から送信されてくるゲームをプレーすることができる。さらに、ユーザは端末装置20からサーバ装置10にアクセスすることにより、他のユーザとの間でコミュニケーションを図ることができるようになっている。   The user can play a game transmitted from the server device 10 via the Internet by accessing the server device 10 from the terminal device 20. Further, the user can communicate with other users by accessing the server device 10 from the terminal device 20.

サーバ装置10は、インターネットを介して通信接続された端末装置20を用いて、ユーザにゲームをプレーさせるサービスを提供することが可能な情報処理装置である。また、サーバ装置10は、コミュニケーション型のサービスを提供するSNSサーバとして機能してもよい。ここで、SNSサーバとは、複数のユーザ間でコミュニケーションを提供することが可能なサービスを提供する情報処理装置であってもよい。   The server device 10 is an information processing device that can provide a service that allows a user to play a game using the terminal device 20 that is communicably connected via the Internet. Further, the server device 10 may function as an SNS server that provides a communication type service. Here, the SNS server may be an information processing apparatus that provides a service capable of providing communication among a plurality of users.

また、サーバ装置10は、例えば、SNSサーバとして機能する場合には、提供するSNSの動作環境(API(アプリケーションプログラミングインタフェース)、プラットフォーム等)を利用して実行されるソーシャルゲーム(Social Game)をと呼ばれるゲームを提供することができるようになっている。   In addition, when the server device 10 functions as an SNS server, for example, a social game (Social Game) that is executed using an operating environment (API (application programming interface), platform, etc.) of the provided SNS is taken. A game called can be provided.

特に、サーバ装置10は、端末装置20のWebブラウザ上で提供されるゲーム、例えばHTML、FLASH、CGI、PHP、shockwave、Java(登録商標)アプレット、JavaScript(登録商標)など様々な言語で作られたブラウザゲーム(Webブラウザで設置サイトを開くだけで起動するゲーム)を提供することができるようになっている。   In particular, the server device 10 is made in various languages such as games provided on the web browser of the terminal device 20, such as HTML, FLASH, CGI, PHP, shockwave, Java (registered trademark) applet, and JavaScript (registered trademark). Browser games (games that are activated simply by opening an installation site with a Web browser) can be provided.

なお、ソーシャルゲームとは、既存のオンラインゲームとは違い、専用のクライアントソフトウェアを必要とせず、WebブラウザとSNSのアカウントのみで利用可能なゲームが含まれる。また、サーバ装置10は、ネットワークを介して他のユーザの端末(スマートフォン、パソコン、ゲーム機など)と接続し、オンラインで同時に同じゲーム進行を共有することができるオンラインゲームを提供することが可能な構成を有している。   Note that, unlike existing online games, social games include games that do not require dedicated client software and can be used only with a Web browser and an SNS account. In addition, the server device 10 can connect to other users' terminals (smartphones, personal computers, game machines, etc.) via a network, and can provide an online game that can simultaneously share the same game progress online. It has a configuration.

一方、サーバ装置10は、1つの(装置、プロセッサ)で構成されていてもよいし、複
数の(装置、プロセッサ)で構成されていてもよい。
On the other hand, the server apparatus 10 may be configured by one (apparatus, processor) or may be configured by a plurality (apparatus, processor).

そして、サーバ装置10の記憶領域(後述する記憶部140)に記憶される課金情報、ゲーム情報等の情報を、ネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよいし、SNSサーバとして機能する場合には、記憶領域に記憶されるユーザ情報146等の情報を、ネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよい。   Then, information such as billing information and game information stored in a storage area (storage unit 140 described later) of the server device 10 is stored in a database (storage device, memory in a broad sense) connected via a network (intranet or Internet). In the case of functioning as an SNS server, information such as user information 146 stored in the storage area is stored in a database (in a broad sense) connected via a network (intranet or Internet). May be stored in a storage device or a memory.

具体的には、本実施形態のサーバ装置10は、端末装置20のユーザ(すなわち、ゲームを実行するプレーヤ)の操作に基づく入力情報を受信し、受信した入力情報に基づいてゲーム処理を行うようになっている。そして、サーバ装置10は、ゲーム処理結果を端末装置20に送信し、端末装置20は、サーバ装置10から受信したゲーム処理結果を端末装置20にユーザに閲覧可能に提供する各種の処理を行うようになっている。   Specifically, the server device 10 according to the present embodiment receives input information based on an operation of a user of the terminal device 20 (that is, a player who executes a game), and performs game processing based on the received input information. It has become. Then, the server device 10 transmits the game processing result to the terminal device 20, and the terminal device 20 performs various processes for providing the user with the game processing result received from the server device 10 so that the user can view it. It has become.

端末装置20は、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機等、画像生成装置などの情報処理装置であり、インターネット(WAN)、LANなどのネットワークを介してサーバ装置10に接続可能な装置である。なお、端末装置20とサーバ装置10との通信回線は、有線でもよいし無線でもよい。   The terminal device 20 is an information processing device such as an image generation device such as a smartphone, a mobile phone, a PHS, a computer, a game device, a PDA, or a portable game machine, and a server device via a network such as the Internet (WAN) or a LAN. 10 can be connected to the device. The communication line between the terminal device 20 and the server device 10 may be wired or wireless.

また、端末装置20は、Webページ(HTML形式のデータ)を閲覧可能なWebブラウザを備えている。すなわち、端末装置20は、サーバ装置10との通信を行うための通信制御機能、及びサーバ装置10から受信したデータ(Webデータ、HTML形式で作成されたデータなど)を用いて表示制御を行うとともに、ユーザ操作のデータをサーバ装置10に送信するWebブラウザ機能などを備え、ゲーム画面をユーザに提供する各種の処理を実行し、ユーザによってゲームを実行させるようになっている。ただし、端末装置20は、サーバ装置10から提供されたゲーム制御情報を取得して所定のゲーム処理を実行し、ゲーム処理に基づくゲームを実行してもよい。   Further, the terminal device 20 includes a web browser capable of browsing web pages (HTML format data). That is, the terminal device 20 performs display control using a communication control function for performing communication with the server device 10 and data received from the server device 10 (Web data, data created in HTML format, etc.). A web browser function for transmitting user operation data to the server device 10 is provided, and various processes for providing the game screen to the user are executed, and the game is executed by the user. However, the terminal device 20 may acquire the game control information provided from the server device 10, execute a predetermined game process, and execute a game based on the game process.

具体的には、端末装置20は、所定ゲームを行う旨の要求をサーバ装置10に対して行うと、サーバ装置10のゲームサイトに接続され、ゲームが開始される。特に、端末装置20は、必要に応じてAPIを用いることにより、SNSサーバとして機能するサーバ装置10に所定の処理を行わせ、又は、SNSサーバとして機能するサーバ装置10が管理するSNSユーザ情報146を取得させてゲームを実行する構成を有している。   Specifically, when the terminal device 20 requests the server device 10 to play a predetermined game, the terminal device 20 is connected to the game site of the server device 10 and the game is started. In particular, the terminal device 20 causes the server device 10 that functions as an SNS server to perform predetermined processing by using an API as necessary, or the SNS user information 146 managed by the server device 10 that functions as an SNS server. To obtain a game and execute the game.

[2]サーバ装置
次に、図2を用いて本実施形態のサーバ装置10について説明する。なお、図2は、本実施形態のサーバ装置10の機能ブロックを示す図である。また、本実施形態のサーバ装置10は図2の構成要素(各部)の一部を省略した構成としてもよい。
[2] Server Device Next, the server device 10 of this embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating functional blocks of the server device 10 according to the present embodiment. Moreover, the server apparatus 10 of this embodiment is good also as a structure which abbreviate | omitted a part of component (each part) of FIG.

サーバ装置10は、管理者やその他の入力に用いるための入力部120、所定の表示を行う表示部130、所定の情報が記憶された情報記憶媒体180、端末装置20その他と通信を行う通信部196、主に提供するゲームに関する処理を実行する処理部100、及び、主にゲームに用いる各種のデータを記憶する記憶部140を含む。   The server device 10 includes an input unit 120 for use by an administrator and other inputs, a display unit 130 that performs predetermined display, an information storage medium 180 that stores predetermined information, a communication unit that communicates with the terminal device 20 and others. 196. A processing unit 100 that mainly executes processing related to a game to be provided, and a storage unit 140 that stores various data mainly used for the game.

入力部120は、システム管理者等がゲームに関する設定やその他必要な設定、データの入力に用いるものである。例えば、本実施形態の入力部120は、マウスやキーボード等によって構成される。   The input unit 120 is used by a system administrator or the like for game settings, other necessary settings, and data input. For example, the input unit 120 of this embodiment is configured with a mouse, a keyboard, and the like.

表示部130は、システム管理者用の操作画面を表示するものである。例えば、本実施
形態の表示部130は、液晶ディスプレイ等によって構成される。
The display unit 130 displays an operation screen for the system administrator. For example, the display unit 130 of the present embodiment is configured by a liquid crystal display or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などによって構成される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Or a memory (ROM) or the like.

通信部196は外部(例えば、端末、他のサーバや他のネットワークシステム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどによって構成される。   The communication unit 196 performs various controls for communicating with the outside (for example, a terminal, another server, or another network system), and functions as hardware such as various processors or a communication ASIC. Or a program.

記憶部140は、処理部100や通信部196などのワーク領域となるもので、その機能は、RAM(VRAM)などによって構成される。なお、記憶部140に記憶される情報は、データベースで管理してもよい。   The storage unit 140 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function is configured by a RAM (VRAM) or the like. Note that information stored in the storage unit 140 may be managed in a database.

また、本実施形態においては、記憶部140には、提供するゲームに関する情報を示すゲーム情報144、提供するゲームに関しプレーヤとしてのユーザに関する情報を示すユーザ情報146、及び、その他のゲーム演算に必要な各種の情報が記憶される。   Further, in the present embodiment, the storage unit 140 includes game information 144 indicating information regarding a game to be provided, user information 146 indicating information regarding a user as a player regarding the provided game, and other game calculations. Various types of information are stored.

処理部100は、記憶部140内の主記憶部142をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 142 in the storage unit 140 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

例えば、処理部100(プロセッサ)は、情報記憶媒体に記憶されているプログラムに基づいて、サーバ装置10全体の制御を行うとともに、各部間におけるデータ等の受け渡しの制御などの各種の処理を行う。さらに、端末装置20からの要求に応じた各種サービスを提供する処理を行う。   For example, the processing unit 100 (processor) controls the entire server device 10 based on a program stored in the information storage medium, and performs various processes such as control of data exchange between the units. Furthermore, the process which provides the various services according to the request | requirement from the terminal device 20 is performed.

具体的には、本実施形態の処理部100は、通信制御部101、Web処理部102及びゲーム管理部104を少なくとも有している。   Specifically, the processing unit 100 of this embodiment includes at least a communication control unit 101, a Web processing unit 102, and a game management unit 104.

通信制御部101は、端末装置20とネットワークを介してデータを送受信する処理を行う。すなわち、サーバ装置10は、通信制御部101によって端末装置20等から受信した情報に基づいて各種処理を行う。   The communication control unit 101 performs processing for transmitting and receiving data to and from the terminal device 20 via the network. That is, the server device 10 performs various processes based on information received from the terminal device 20 or the like by the communication control unit 101.

特に、本実施形態の通信制御部101は、ユーザの端末装置20からの要求に基づいて、ゲーム画面を、当該ユーザの端末装置20に送信する処理を行う。   In particular, the communication control unit 101 according to the present embodiment performs a process of transmitting a game screen to the user terminal device 20 based on a request from the user terminal device 20.

Web処理部102は、Webサーバとして機能する。例えば、Web処理部102は、HTTP(Hypertext Transfer Protocol)等の通信プロトコルを通じて、端末装置20にインストールされているWebブラウザの要求に応じてデータを送信する処理、及び、端末装置20のWebブラウザによって送信されるデータを受信する処理を行う。   The web processing unit 102 functions as a web server. For example, the Web processing unit 102 transmits data in response to a request from a Web browser installed in the terminal device 20 through a communication protocol such as HTTP (Hypertext Transfer Protocol), and the Web browser of the terminal device 20 Performs processing to receive data to be transmitted.

なお、本実施形態では、サーバ装置10がSNSサーバとしての機能も備えていている
場合を例にとり説明するが、サーバ装置10を、ゲーム用のサーバと、SNS用のサーバと別々に形成してもよい。また、本実施形態のゲームの処理は、サーバ装置10が一部又は全部を行ってもよいし、端末装置20が一部を行ってもよい。
In the present embodiment, the case where the server device 10 also has a function as an SNS server will be described as an example. However, the server device 10 is formed separately from a game server and an SNS server. Also good. Moreover, the server apparatus 10 may perform a part or all of the game processing of the present embodiment, or the terminal apparatus 20 may perform a part thereof.

ゲーム管理部104は、端末装置20と連動し、当該端末装置20を介して入力されたプレーヤの操作に基づいて、各プレーヤにおいてロールプレーイングゲーム(RPG)や対戦ゲームに関するゲーム処理を実行するとともに、各ユーザのゲームの進行状況やアイテム管理などの各ユーザにおいて使用するキャラクタ及び各種のアイテムを含むユーザ情報を管理する。   The game management unit 104 is linked with the terminal device 20 and executes game processing related to a role playing game (RPG) and a battle game in each player based on the operation of the player input via the terminal device 20. The user information including characters and various items used by each user, such as the game progress status and item management of each user, is managed.

なお、ゲーム管理部104は、ユーザの操作に基づかず、ユーザが設定した各種のデータに基づいて自動的にゲームを実行するための自動演算処理を実行し、端末装置20で再生するためのデータを生成し、生成したデータを端末装置20に提供してもよい。   Note that the game management unit 104 performs automatic calculation processing for automatically executing a game based on various data set by the user, not based on the user's operation, and data for reproduction on the terminal device 20 And the generated data may be provided to the terminal device 20.

[3]端末装置
次に、図3及び図4を用いて本実施形態の端末装置20について説明する。なお、図3は、本実施形態における端末装置の構成を示す機能ブロック図の一例であり、図4は、本実施形態における端末装置の外観構成を示す図の一例である。また、本実施形態の端末装置20は図3の構成要素(各部)の一部を省略した構成としてもよい。
[3] Terminal Device Next, the terminal device 20 of the present embodiment will be described with reference to FIGS. 3 and 4. FIG. 3 is an example of a functional block diagram illustrating the configuration of the terminal device in the present embodiment, and FIG. 4 is an example of a diagram illustrating an external configuration of the terminal device in the present embodiment. Further, the terminal device 20 of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 3 are omitted.

入力部260は、プレーヤが操作データを入力するためのものであり、その機能は、タッチパネル又はタッチパネルディスプレイなどにより実現できる。すなわち、入力部260は、画像が表示される画面上における2次元の指示位置座標(x,y)を検出可能な検出部262を備えている。例えば、入力部260は、接触検出領域(タッチパネル)における、2次元の接触位置座標(x,y)を検出可能な検出部262を備えている。   The input unit 260 is for a player to input operation data, and the function can be realized by a touch panel or a touch panel display. That is, the input unit 260 includes a detection unit 262 that can detect a two-dimensional designated position coordinate (x, y) on a screen on which an image is displayed. For example, the input unit 260 includes a detection unit 262 that can detect a two-dimensional contact position coordinate (x, y) in the contact detection region (touch panel).

本実施形態において、接触位置(基準位置及び指示位置の一例)は、プレーヤの接触操作(直接的な接触及びポインティングデバイスによる間接的な接触も含む)により、接触検出領域から得られる位置情報である。   In the present embodiment, the contact position (an example of the reference position and the designated position) is position information obtained from the contact detection area by a player's contact operation (including direct contact and indirect contact with a pointing device). .

なお、本実施形態のプレーヤの接触操作には、ユーザの指によるタッチパネル12上への直接的なタッチ操作又はスライド操作入力、及び、ポインティングデバイスなどのデバイスを介して実行される間接的なタッチパネル12上へのタッチ操作又はスライド操作入力の他に、タッチパネル12に直接的及び間接的にタッチ操作又はスライド操作入力をせずに、タッチパネル12上への擬似的なタッチ操作又はスライド操作入力も含まれる。   Note that in the contact operation of the player according to the present embodiment, a direct touch operation or a slide operation input on the touch panel 12 by a user's finger and an indirect touch panel 12 that is executed via a device such as a pointing device. In addition to an upward touch operation or slide operation input, a pseudo touch operation or slide operation input on the touch panel 12 without directly or indirectly performing a touch operation or slide operation input on the touch panel 12 is also included. .

例えば、擬似的なタッチ操作又はスライド操作入力とは、
(1)赤外線などの光ビームをタッチパネル面と平行に当該タッチパネル面に近接した位置で照射し、当該タッチパネル12の一端部に縦横方向に一定間隔に形成される複数の照射部と、各照射部と対を構成し、当該各照射部に対向するタッチパネルの他端部に設けられ、各照射された光ビームをそれぞれ受信する複数のセンサとによって、タッチパネル12に接触又は近接した際に光ビームが遮断された縦横の座標を検出し、当該検出した座標に基づいて認識するタッチ操作又はスライド操作入力、及び、
(2)タッチパネル12の表示面を撮像するカメラを設け、当該カメラによってユーザがタッチパネル12に接触又は近接した位置座標を検出し、当該検出した位置座標に基づいて認識するタッチ操作又はスライド操作入力、
などタッチパネル12に実際に接触することによって又は近接させて検出することによって認識するタッチ操作又はスライド操作入力を含む。
For example, pseudo touch operation or slide operation input is
(1) Irradiate a light beam such as infrared rays at a position close to the touch panel surface in parallel with the touch panel surface, and a plurality of irradiation units formed at one end of the touch panel 12 at regular intervals in the vertical and horizontal directions; And a pair of sensors that are provided at the other end of the touch panel facing each of the irradiation units, and that receive the irradiated light beams, respectively. Touch operation or slide operation input that detects the blocked vertical and horizontal coordinates and recognizes based on the detected coordinates, and
(2) A camera that captures an image of the display surface of the touch panel 12 is provided, and a touch operation or a slide operation input that is recognized based on the detected position coordinates by detecting the position coordinates where the user touches or approaches the touch panel 12 by the camera;
Touch operation or slide operation input that is recognized by actually touching the touch panel 12 or by detecting it in proximity.

また、接触検出領域に同時に複数の接触位置が検出される場合には、いずれか1つの接
触位置(先に検出された接触位置)を用いるようにしてもよいし、複数の接触位置を同時に処理してもよい。
When a plurality of contact positions are detected simultaneously in the contact detection area, any one contact position (contact position detected earlier) may be used, or a plurality of contact positions are processed simultaneously. May be.

なお、接触検出領域に複数の判定領域が存在する場合には、各判定領域において、1つの接触位置(先に検出された接触位置)を用いるようにしてもよい。また、判定領域とは、取得した接触位置のうち、移動制御など処理部200で処理するための接触位置を予め特定する接触検出領域上の範囲である。   When there are a plurality of determination areas in the contact detection area, one contact position (contact position detected earlier) may be used in each determination area. Further, the determination area is a range on the contact detection area that specifies in advance the contact position to be processed by the processing unit 200 such as movement control among the acquired contact positions.

特に、本実施形態では、図4(A)及び(B)に示す表示画面(ディスプレイ)12が、液晶ディスプレイと、プレーヤ(操作者、ユーザ)の接触位置を検出するためのタッチパネルとが積層されたタッチパネルディスプレイとなっている。すなわち、本実施形態では、表示画面12が入力部260として機能するとともに表示部290としても機能する(以下、「タッチパネル」ともいう。)。   In particular, in the present embodiment, the display screen (display) 12 shown in FIGS. 4A and 4B is formed by laminating a liquid crystal display and a touch panel for detecting a contact position of a player (operator, user). It is a touch panel display. That is, in the present embodiment, the display screen 12 functions as the input unit 260 and also functions as the display unit 290 (hereinafter also referred to as “touch panel”).

なお、表示画面12への接触操作は、指先を用いて行うようにしてもよいし、タッチペンなどの入力機器を用いて行うようにしてもよい。   The contact operation on the display screen 12 may be performed using a fingertip, or may be performed using an input device such as a touch pen.

また、入力部260は、指示位置以外の操作情報(操作信号)を入力可能なボタンやレバー、キーボード、ステアリング、マイク、加速度センサなどを備えていてもよい。   In addition, the input unit 260 may include a button or lever that can input operation information (operation signal) other than the designated position, a keyboard, a steering, a microphone, an acceleration sensor, and the like.

記憶部270は、処理部200や通信部296などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部270は、ワーク領域として使用される主記憶部271と、最終的な表示画像等が記憶される画像バッファ272とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 270 serves as a work area for the processing unit 200, the communication unit 296, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 270 of the present embodiment includes a main storage unit 271 used as a work area, and an image buffer 272 that stores a final display image and the like. Note that some of these may be omitted.

特に、本実施形態の記憶部270には、タッチ検出処理部211において取得された基準位置及び指示位置、及び、各種のマーカの画像及び各種の判定処理において用いる条件を示す条件情報などを主記憶部271に記憶することができる。   In particular, the storage unit 270 of the present embodiment mainly stores the reference position and the designated position acquired by the touch detection processing unit 211, various marker images, and condition information indicating conditions used in various determination processes. The data can be stored in the unit 271.

情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 280 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

また、情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。なお、処理部200は、後述するように、情報記憶媒体280に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。   In addition, the information storage medium 280 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). Note that the processing unit 200 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 280, as will be described later.

表示部290は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネルディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 290 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

特に、本実施形態では表示部290は、タッチパネルディスプレイを用いることによりプレーヤがゲーム操作を行う入力部260としても機能する。ここでタッチパネルとして、例えば抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式などのタッチパネルを用いることができる。   In particular, in the present embodiment, the display unit 290 also functions as an input unit 260 that allows a player to perform a game operation by using a touch panel display. Here, as the touch panel, for example, a resistive film type (4-wire type, 5-wire type), capacitive type, electromagnetic induction type, ultrasonic surface acoustic wave type, infrared scanning type, or the like can be used.

音出力部292は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 292 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部296は、外部(例えばホスト装置や他の端末装置)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 296 performs various controls for communicating with the outside (for example, a host device or another terminal device), and functions thereof are hardware such as various processors or communication ASICs, and a program. It can be realized by.

なお、端末装置20は、サーバ装置10が有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体280や記憶部270に記憶してもよい。このようにプログラムやデータを受信して端末装置20を機能させる場合も本発明の範囲内に含めることができる。   The terminal device 20 receives a program and data for causing the computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server device 10 via the network, and the received program. Or the data may be stored in the information storage medium 280 or the storage unit 270. The case where the terminal device 20 is made to function by receiving the program or data as described above can also be included in the scope of the present invention.

処理部200(プロセッサ)は、入力部260からの入力データやプログラムなどに基づいて、サーバ装置10と連動して、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。   The processing unit 200 (processor) performs processing such as game processing, image generation processing, or sound generation processing in conjunction with the server device 10 based on input data, a program, and the like from the input unit 260.

特に、本実施形態においては、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、プレーヤオブジェクト、敵オブジェクトなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などが含まれる。   In particular, in this embodiment, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing objects such as player objects and enemy objects, and an object display. A process for calculating the game result, a process for ending the game when a game end condition is satisfied, and the like.

また、処理部200は、記憶部270をワーク領域として各種処理を行う。処理部200の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 200 performs various processes using the storage unit 270 as a work area. The functions of the processing unit 200 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、本実施形態の処理部200は、オブジェクト空間設定部210と、タッチ検出処理部211と、仮想コントローラ制御部212と、操作制御部213と、移動処理部214と、ゲーム演算部215と、仮想カメラ制御部216と、描画部220と、音処理部230とを含む。また、これらの一部を省略する構成としてもよい。   In particular, the processing unit 200 of the present embodiment includes an object space setting unit 210, a touch detection processing unit 211, a virtual controller control unit 212, an operation control unit 213, a movement processing unit 214, a game calculation unit 215, A virtual camera control unit 216, a drawing unit 220, and a sound processing unit 230 are included. A part of these may be omitted.

なお、例えば、本実施形態のオブジェクト空間設定部210は、本発明のオブジェクト制御手段を構成し、本実施形態のタッチ検出処理部211は、本発明のタッチ操作入力検出処理手段を構成する。また、例えば、本実施形態の操作制御部213は、本発明の操作制御手段、判定手段、補正処理表示制御手段及び通知手段を構成し、ゲーム演算部215は、本発明のゲーム制御手段を構成する。   For example, the object space setting unit 210 of the present embodiment constitutes an object control unit of the present invention, and the touch detection processing unit 211 of the present embodiment constitutes a touch operation input detection processing unit of the present invention. Further, for example, the operation control unit 213 of the present embodiment constitutes the operation control means, determination means, correction processing display control means, and notification means of the present invention, and the game calculation unit 215 constitutes the game control means of the present invention. To do.

オブジェクト空間設定部210は、オブジェクト(プレーヤオブジェクト、移動体、敵オブジェクト)、移動経路、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(スプライト、ビルボード、ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。具体的にはオブジェクト空間設定部210は、オブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y)或いは(X、Y、Z)にその回転角度(X、Y軸回りでの回転角度)或いは(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 210 displays various objects (sprites, billboards, polygons, objects, such as objects (player objects, moving objects, enemy objects), moving paths, buildings, trees, pillars, walls, maps (terrain), and the like. A process of arranging and setting an object (an object formed of a primitive surface such as a free-form surface or a subdivision surface) in the object space is performed. Specifically, the object space setting unit 210 determines the position and rotation angle (synonymous with orientation and direction) of the object (model object), and rotates the object to that position (X, Y) or (X, Y, Z). The object is arranged at an angle (rotational angle around the X, Y axis) or (rotational angle around the X, Y, Z axis).

ここで、オブジェクト空間とは、いわゆる仮想2次元空間、仮想3次元空間の両方を含む。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。   Here, the object space includes both a so-called virtual two-dimensional space and a virtual three-dimensional space. The two-dimensional space is a space in which an object is arranged at, for example, two-dimensional coordinates (X, Y), and the three-dimensional space is a space in which an object is arranged at, for example, three-dimensional coordinates (X, Y, Z). is there.

そしてオブジェクト空間を2次元空間とした場合には、複数のオブジェクトそれぞれについて設定された優先順位に基づいてオブジェクトを配置する。例えば、奥側にあるように見せたいオブジェクト(スプライト)から順にオブジェクトを配置し、手前側にあるように見せたいオブジェクトを重ねて配置する処理を行うことができる。   When the object space is a two-dimensional space, the objects are arranged based on the priority order set for each of the plurality of objects. For example, processing can be performed in which objects are arranged in order from the object (sprite) that the user wants to appear on the back side, and the objects that the user wants to appear on the near side are superimposed.

また、描画サイズが大きなオブジェクトを画像の下方に配置し、描画サイズが小さなオブジェクトを画像の上方に配置すれば、画面の上方に対応するオブジェクト空間が奥側にあるように見せることができ、画面の下方に対応するオブジェクト空間が手前側にあるように見せることができる。   Also, if you place an object with a large drawing size below the image and an object with a small drawing size above the image, you can make the object space corresponding to the top of the screen appear to be on the back side. It can be seen that the corresponding object space is on the near side.

また、オブジェクト空間を3次元空間とした場合には、ワールド座標系にオブジェクトを配置する。   When the object space is a three-dimensional space, the object is arranged in the world coordinate system.

タッチ検出処理部211は、プレーヤが入力部260から入力した入力情報の認識処理を行う。具体的には、本実施形態のタッチ検出処理部211は、入力部260によって入力された指示位置を取得する。   The touch detection processing unit 211 performs recognition processing of input information input from the input unit 260 by the player. Specifically, the touch detection processing unit 211 of the present embodiment acquires the designated position input by the input unit 260.

例えば、タッチ検出処理部211は、プレーヤの接触操作(以下、「タッチ操作」ともいう。)を検出する接触検出領域(タッチパネル)における接触位置(2次元の接触位置座標)を指示位置として取得する。すなわち、タッチ検出処理部211は、プレーヤが指でタッチパネル12にタッチ(以下、「タッチ操作入力」という。)し、そのまま指を移動して最後にタッチパネル12から離す操作(以下、「スライド操作入力」という。)を行う期間に相当する接触操作期間中(スライド操作入力期間中)における接触位置(指示位置)を取得する。   For example, the touch detection processing unit 211 acquires a contact position (two-dimensional contact position coordinates) in a contact detection area (touch panel) for detecting a player's contact operation (hereinafter also referred to as “touch operation”) as an instruction position. . That is, the touch detection processing unit 211 is an operation in which the player touches the touch panel 12 with a finger (hereinafter referred to as “touch operation input”), moves the finger as it is, and finally releases the touch panel 12 (hereinafter referred to as “slide operation input”). The contact position (instructed position) during the contact operation period (during the slide operation input period) corresponding to the period during which the operation is performed is acquired.

特に、タッチ検出処理部211は、
(1)画面へのタッチ操作入力されていない状態(以下、「無接触状態」という。)からタッチ操作入力された状態(以下、「接触状態」という。)への第1の変化(以下、「状態変化」という。)を検出するとともに、当該状態変化が実行された検出位置(以下、「基準位置」ともいう。)を検出する第1の検出処理、及び、
(2)第1の変化の検出後であって当該第1の変化を検出した際(すなわち、無接触状態から接触状態に状態変化した際)のタッチ操作入力が継続されて(すなわち、接触状態が継続されて)スライド操作入力による入力(以下、「スライド操作入力」という。)されている場合に、当該スライド操作入力の変化(すなわち、指示位置及び当該指示位置の変化)を第2の変化として検出する第2の検出処理、
(3)スライド操作入力中に、画面へのタッチ操作入力がされていない状態(すなわち、スライド操作入力が終了して無接触状態となった場合)を検出する第3の検出処理
を実行する。
In particular, the touch detection processing unit 211
(1) A first change (hereinafter, referred to as “contact state”) from a state where the touch operation is not input to the screen (hereinafter, referred to as “non-contact state”) to a state (hereinafter referred to as “contact state”). A first detection process for detecting a detection position (hereinafter also referred to as a “reference position”) at which the state change is executed,
(2) Touch operation input is continued after the first change is detected and the first change is detected (that is, when the state is changed from the non-contact state to the contact state) (that is, the contact state) Is changed), when the input by the slide operation input (hereinafter referred to as “slide operation input”) is performed, the change in the slide operation input (that is, the change in the indicated position and the indicated position) is changed to the second change. A second detection process to detect as,
(3) During the slide operation input, a third detection process for detecting a state where the touch operation input to the screen is not performed (that is, when the slide operation input ends and becomes a non-contact state) is executed.

また、タッチ検出処理部211は、所定の周期毎に入力された指示位置を取得する。具体的には、所定の周期とはフレーム毎、例えば、1/60秒〜1/120秒程度とすることができる。   In addition, the touch detection processing unit 211 acquires the designated position input every predetermined cycle. Specifically, the predetermined period can be set for each frame, for example, about 1/60 second to 1/120 second.

なお、本実施形態においては、「基準位置」及び「指示位置」としては、上述のようにタッチ操作入力やスライド操作入力によって検出されたタッチパネル12上の位置だけなく、検出位置から所定の距離離れた位置又はタッチパネル12の隅などの所定のエリアに形成されたエリアなどの特定のタッチパネル12上の位置に関連した所定位置も含む。   In the present embodiment, the “reference position” and the “instructed position” are not only the position on the touch panel 12 detected by the touch operation input or the slide operation input as described above, but a predetermined distance from the detection position. Or a predetermined position related to a specific position on the touch panel 12 such as an area formed in a predetermined area such as a corner of the touch panel 12.

仮想コントローラ制御部212は、タッチパネル(表示画面)上に、タッチ操作入力及びスライド操作入力をした際に、最上位層(すなわち、ゲームやその他の画像に重畳させ
てその最上位)に仮想的な操作コントローラを表示し、タッチ操作入力及びスライド操作入力のユーザへのサポートを行うとともに、当該表示された操作コントローラへの操作を検出し、検出した結果を操作制御部213などの他の部材に出力する。
When a touch operation input and a slide operation input are performed on the touch panel (display screen), the virtual controller control unit 212 is virtually placed on the uppermost layer (that is, the uppermost layer superimposed on a game or other image). The operation controller is displayed, the touch operation input and the slide operation input are supported to the user, the operation to the displayed operation controller is detected, and the detected result is output to other members such as the operation control unit 213. To do.

特に、仮想コントローラ制御部212は、
(1)スライド操作入力の起点となる基準位置に起点操作入力オブジェクトマーカ(以下、「起点マーカ」という。)を表示させる表示制御、
(2)基準位置を基準に指示位置の変化に応じてスライド操作入力中のスライド操作入力方向を視認させるためのスライド操作入力オブジェクトマーカ(以下、「スライド操作マーカ」という。)を表示させる表示制御、
(3)スライド操作入力中の指示位置に、スライド操作マーカとは異なる第2の操作入力オブジェクトマーカ(以下、「指示位置マーカ」という。)を表示させる表示制御、
(4)ユーザの指示(タッチ操作入力及びスライド操作入力)に基づいて表示画面内に配置された所定の操作コマンドを表示する表示制御、及び、
(5)スライド操作入力中に表示された起点マーカをスライド操作入力に従って追従させ、当該追従している起点マーカを表示する追従表示制御、
を実行する。
In particular, the virtual controller control unit 212
(1) Display control for displaying a starting operation input object marker (hereinafter referred to as “starting marker”) at a reference position serving as a starting point of a slide operation input;
(2) Display control for displaying a slide operation input object marker (hereinafter referred to as “slide operation marker”) for visually recognizing the slide operation input direction during the slide operation input in accordance with the change of the designated position with reference to the reference position. ,
(3) Display control for displaying a second operation input object marker (hereinafter referred to as “designated position marker”) different from the slide operation marker at the designated position during the slide operation input.
(4) Display control for displaying predetermined operation commands arranged in the display screen based on user instructions (touch operation input and slide operation input), and
(5) Follow-up display control for causing the start marker displayed during the slide operation input to follow in accordance with the slide operation input and displaying the follow-up start marker.
Execute.

また、仮想コントローラ制御部212は、起点マーカ、スライド操作マーカ及び指示位置マーカが表示されるタッチパネル12上の表示エリアと、操作オブジェクトやその他のゲームを実行する際に表示されるコンテンツ(以下、「表示コンテンツ」ともいう、)が表示される表示エリアとの干渉状況を判定する干渉状況判定処理を実行し、当該干渉状況が発生する場合には、各マーカの表示を制御して表示コンテンツの視認性を確保する非干渉処理を実行する。   In addition, the virtual controller control unit 212 displays a display area on the touch panel 12 on which a start marker, a slide operation marker, and an instruction position marker are displayed, and contents displayed when an operation object or other game is executed (hereinafter, “ Interference situation determination processing for determining an interference situation with a display area where “) is displayed” is executed, and when the interference situation occurs, the display of each marker is controlled to visually check the display contents. Execute non-interference processing to ensure safety.

操作制御部213は、タッチ操作入力及びスライド操作入力に基づいて、オブジェクト空間に配置されたプレーヤキャラクタなどの操作対象オブジェクトを制御する。特に、操作制御部213は、仮想コントローラに従って入力された操作指示に基づいて操作対象オブジェクトを制御する。   The operation control unit 213 controls an operation target object such as a player character arranged in the object space based on the touch operation input and the slide operation input. In particular, the operation control unit 213 controls the operation target object based on an operation instruction input according to the virtual controller.

具体的には、操作制御部213は、
(1)起点マーカが表示されている基準位置を基準に、スライド操作入力によって変化する指示位置に伴って所与の画面内に表示されている操作対象オブジェクト(すなわち、オブジェクト空間に配置されている操作対象オブジェクト)の操作制御、
(2)タッチ操作入力された操作コマンドに基づいて、操作対象オブジェクトやその他のオブジェクトやゲームの進行に係わる操作制御、及び、
(3)スライド操作入力における移動量や移動速度など、スライド操作入力における起点位置から指示位置までの長さを示す操作量及び指示位置に基づく入力速度又は入力ベクトルを示すスライド操作入力における単位時間当たりの変化(すなわち、スライド操作入力における操作量(以下、「スライド操作入力量」ともいう。))を補正する補正処理、
を実行する。
Specifically, the operation control unit 213
(1) The operation target object (that is, arranged in the object space) displayed in a given screen in accordance with the indicated position that is changed by the slide operation input with respect to the reference position where the starting marker is displayed. Operation control of the operation target object),
(2) Based on the operation command input by the touch operation, the operation control related to the operation target object, other objects and the progress of the game, and
(3) Per unit time in the slide operation input indicating the input amount or the input vector based on the operation amount indicating the length from the starting position to the indicated position in the slide operation input and the indicated position, such as the movement amount and moving speed in the slide operation input Correction processing for correcting the change (that is, the operation amount in the slide operation input (hereinafter also referred to as “slide operation input amount”)),
Execute.

なお、「操作対象オブジェクト」には、ゲームなどにおけるプレーヤキャラクタや敵キャラクタなどの重要なキャラクタやオブジェクト空間内でユーザ操作の対象となる各種のオブジェクトが含まれるとともに、所定の画像や動画における重要な表示又はキーワードなどの重要なコンテンツ及び画像を形成するための各種のオブジェクトが含まれる。   Note that the “operation target object” includes important characters such as player characters and enemy characters in games, and various objects that are targets of user operations in the object space. Various objects for forming important content such as display or keywords and images are included.

また、この「操作対象オブジェクト」には、直接的に操作するオブジェクトの他に、例えば、プレーヤキャラクタに装備されるアイテムなど、直接的に操作されるオブジェクトの動作に基づいて制御される間接的に操作されるオブジェクトも含まれる。   In addition to the directly operated object, the “operation target object” is indirectly controlled based on the action of the directly operated object such as an item equipped on the player character. Also includes objects that are manipulated.

さらに、上記の操作対象オブジェクト以外のオブジェクト空間に配置されるオブジェクトとしては、例えば、移動経路、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクトが含まれる。   Furthermore, the objects arranged in the object space other than the operation target object include various objects representing display objects such as a movement route, a building, a tree, a pillar, a wall, and a map (terrain).

移動処理部214は、オブジェクト空間内におけるオブジェクト(特に、キャラクタオブジェクト、移動体オブジェクト等の操作対象オブジェクト)の移動演算を行う。すなわち、移動処理部214は、操作制御部213の制御の下、仮想コントローラを含み、入力部260によりプレーヤが入力した入力データ又はプログラム(移動アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。   The movement processing unit 214 performs a movement calculation of an object (particularly, an operation target object such as a character object or a moving object) in the object space. That is, the movement processing unit 214 includes a virtual controller under the control of the operation control unit 213, and is based on input data or a program (movement algorithm) input by the player through the input unit 260, various data (motion data), and the like. A process for moving the moving object in the object space or controlling the motion (motion, animation) of the moving object is performed.

具体的には、本実施形態の移動処理部214は、オブジェクトの移動情報(移動方向、移動量、移動速度、位置、回転角度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動処理、動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは、固定としてもよいし、処理負荷に応じて可変としてもよい。   Specifically, the movement processing unit 214 according to the present embodiment is configured so that the object movement information (movement direction, movement amount, movement speed, position, rotation angle, or acceleration) and operation information (position or rotation angle of each part object). ) Is sequentially obtained for each frame. Here, the frame is a unit of time for performing object movement processing, motion processing (simulation processing), and image generation processing. In the present embodiment, the frame rate may be fixed or variable depending on the processing load.

特に、本実施形態の移動処理部214は、操作制御部213の制御の下、仮想コントローラによって入力されたスライド操作入力量(補正量も含む)、スライド操作入力によって定まるスライド操作入力の方向及び操作コマンドに基づいて、オブジェクトを移動させる処理を行う。   In particular, the movement processing unit 214 of the present embodiment, under the control of the operation control unit 213, the slide operation input amount (including the correction amount) input by the virtual controller, the direction and operation of the slide operation input determined by the slide operation input. Based on the command, the object is moved.

具体的には、移動処理部214は、
(1)スライド操作入力における操作方向に操作対象オブジェクトを移動させる処理、
(2)スライド操作入力におけるスライド操作入力量に応じて操作対象オブジェクトを移動させる処理、及び、
(3)操作コマンドに応じて操作対象オブジェクトを移動させる処理、
を実行する。
Specifically, the movement processing unit 214
(1) Processing for moving the operation target object in the operation direction in the slide operation input;
(2) a process of moving the operation target object according to the slide operation input amount in the slide operation input, and
(3) a process of moving the operation target object according to the operation command;
Execute.

なお、移動処理部214は、3次元のオブジェクト空間において入力方向に基づいてオブジェクトを移動させる処理を行ってもよい。例えば、予め、入力方向毎に移動方向を対応づけ、入力方向に対応する移動方向にオブジェクトを移動させる。   Note that the movement processing unit 214 may perform processing for moving an object based on an input direction in a three-dimensional object space. For example, the movement direction is associated with each input direction in advance, and the object is moved in the movement direction corresponding to the input direction.

ゲーム演算部215は、種々のゲーム演算処理を行う。例えば、ゲーム演算部215は、マップに基づくオブジェクト空間の形成、RPGの場合には、ユーザの操作に応じて予め設定されたシナリオに基づくゲームの進行、プレーヤオブジェクト(操作対象オブジェクト)と敵オブジェクトやその他のオブジェクト(操作非対象オブジェクト)との対戦、及び、当該対戦時のパラメータ管理などのゲームを実行する上で必要な演算処理を行う。   The game calculation unit 215 performs various game calculation processes. For example, the game calculation unit 215 forms an object space based on a map, and in the case of RPG, a game progress based on a scenario set in advance according to a user operation, a player object (operation target object), an enemy object, Arithmetic processing necessary for executing a game such as a battle against other objects (operation non-target objects) and parameter management at the time of the battle is performed.

なお、ゲーム演算部215は、サーバ装置10と連動して実行されるが、その一部又は全部がサーバ装置10に形成されていてもよい。   The game calculation unit 215 is executed in conjunction with the server device 10, but a part or all of the game calculation unit 215 may be formed in the server device 10.

仮想カメラ制御部216は、所与の視点から見える画像であって、奥行きがあるように見える画像を生成する。この場合に、仮想カメラ制御部が、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 216 generates an image that is visible from a given viewpoint and appears to have depth. In this case, the virtual camera control unit performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば、仮想カメラによりオブジェクト(例えば、キャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。   For example, when an object (for example, a character, a ball, a car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. The direction).

この場合には、移動処理部214で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。また、この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement processing unit 214. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

一方、仮想カメラ制御部216は、上述のように、起点マーカ、スライド操作マーカ及び指示位置マーカが表示されるタッチパネル12上の表示エリアと、操作オブジェクトやその他のゲームを実行する際に表示される表示コンテンツが表示される表示エリアとの干渉状況が発生する場合には、仮想カメラの位置、向き、及び、画角の少なくともいずれか一方を制御し、操作対象オブジェクトの視認性を確保するカメラ制御を実行する。   On the other hand, as described above, the virtual camera control unit 216 is displayed when a display area on the touch panel 12 on which the start point marker, the slide operation marker, and the designated position marker are displayed, and when an operation object or other game is executed. Camera control that ensures the visibility of the operation target object by controlling at least one of the position, orientation, and angle of view of the virtual camera when interference with the display area where the display content is displayed occurs Execute.

描画部220は、処理部200で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部(ディスプレイ)290に出力する。描画部220が生成する画像は、いわゆる2次元画像であってもよいし、いわゆる3次元画像であってもよい。特に、描画部220は、オブジェクト空間における仮想カメラから見える画像であって、画面上に表示する画像を生成する。   The drawing unit 220 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 200, thereby generating an image and outputting the image to the display unit (display) 290. The image generated by the drawing unit 220 may be a so-called two-dimensional image or a so-called three-dimensional image. In particular, the drawing unit 220 generates an image that is visible from a virtual camera in the object space and that is displayed on the screen.

ここで2次元画像を生成する場合には、描画部220は、設定された優先度が低いオブジェクトから順に描画して、オブジェクト同士が重なる場合には、優先度の高いオブジェクトを上書きして描画する。   Here, when generating a two-dimensional image, the drawing unit 220 draws objects in order from the set low priority object, and when the objects overlap, draws by overwriting the high priority object. .

また、3次元画像を生成する場合には、本実施形態の描画部220は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   When generating a three-dimensional image, the drawing unit 220 of the present embodiment firstly uses vertex data (vertex position coordinates, texture coordinates, color data, normal vector, or α value) of each vertex of the object (model). Etc.) is input, and vertex processing is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。   In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. The given vertex data is changed (updated or adjusted) for the vertex group to be configured. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed.

ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を画像バッファ272(フレームバッファ、ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法
線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。
In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the image buffer 272 (frame buffer, buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.

これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお、描画部220が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   It should be noted that the vertex processing and pixel processing performed by the drawing unit 220 are performed by hardware that can program polygon (primitive) drawing processing by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .

そして、描画部220は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 220 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部270に記憶する。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 270.

テクスチャマッピングでは、記憶部270のテクスチャ記憶部に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部270のテクスチャ記憶部からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   In the texture mapping, the texture (texel value) stored in the texture storage unit of the storage unit 270 is mapped to the object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit of the storage unit 270 using the texture coordinates set (given) to the vertex of the object, etc. Map textures that are to objects. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

なお、本実施形態では、オブジェクトを描画する際に、所与のテクスチャをマッピングする処理を行うようにしてもよい。この場合には、マッピングされるテクスチャの色分布(テクセルパターン)を動的に変化させることができる。   In the present embodiment, when an object is drawn, a process for mapping a given texture may be performed. In this case, the color distribution (texel pattern) of the texture to be mapped can be dynamically changed.

また、この場合において、色分布(ピクセルパターン)が異なるテクスチャを動的に生成してもよいし、複数の色分布が異なるテクスチャを予め用意しておき、使用するテクスチャを動的に切り替えるようにしてもよい。またオブジェクト単位でテクスチャの色分布を変化させてもよい。   In this case, textures having different color distributions (pixel patterns) may be dynamically generated, or a plurality of textures having different color distributions are prepared in advance, and the texture to be used is dynamically switched. May be. The texture color distribution may be changed in units of objects.

隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   In the hidden surface removal processing, hidden surface removal processing is performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value at the drawing pixel of the primitive are obtained. In comparison, if the Z value at the drawing pixel is a Z value (for example, a small Z value) that is on the near side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is updated. Update to the correct Z value.

αブレンディング(α合成)では、描画部220は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透
明度、不透明度と等価)、バンプ情報などとして使用できる。
In α blending (α synthesis), the rendering unit 220 performs a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

特に、本実施形態での描画部220は、接触検出領域に対応する表示領域に表示させる画像を生成してもよい。表示領域に表示させる画像とは、例えばオブジェクトを含む画像でもよい。   In particular, the drawing unit 220 in the present embodiment may generate an image to be displayed in a display area corresponding to the contact detection area. The image displayed in the display area may be an image including an object, for example.

音処理部230は、処理部200で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部292に出力する。   The sound processing unit 230 performs sound processing based on the results of various processes performed by the processing unit 200, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 292.

なお、本実施形態の端末装置は、1人のプレーヤのみがプレーできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレーできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the terminal device of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また、複数のプレーヤがプレーする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末装置20を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末装置20又はサーバ装置10を用いて分散処理により生成してもよい。   Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal device 20, a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminal devices 20 or server devices 10 connected by.

[4]本実施形態の手法
[4.1]概要
次に、図5及び図6を用いて本実施形態の手法(仮想コントローラの表示制御)の概要について説明する。なお、図5及び図6は、本実施形態の仮想コントローラの表示制御について説明するための図である。
[4] Technique [4.1] Outline of the Present Embodiment Next, an outline of the technique (virtual controller display control) of the present embodiment will be described with reference to FIGS. 5 and 6. 5 and 6 are diagrams for explaining display control of the virtual controller according to the present embodiment.

本実施形態の端末装置20は、所与の画面が表示されるタッチパネル12へのスライド操作入力を受け付け、受け付けたスライド操作入力を視覚的にユーザに伝達し、操作を的確に行う際に必要なタッチ操作マーカやスライド操作マーカを含む仮想コントローラ(すなわち、操作入力オブジェクト)を画面(タッチパネル12)上に表示し、ユーザの操作性を向上させることができるようになっている。   The terminal device 20 of the present embodiment receives a slide operation input to the touch panel 12 on which a given screen is displayed, visually transmits the received slide operation input to the user, and is necessary when performing the operation accurately. A virtual controller (that is, an operation input object) including a touch operation marker and a slide operation marker is displayed on the screen (touch panel 12), so that user operability can be improved.

特に、端末装置20は、スライド操作入力を行う際にタッチ操作入力したタッチパネル12上の位置に基づいて、当該スライド操作入力における操作量(具体的には、移動量や移動速度)を補正する構成を有している。   In particular, the terminal device 20 is configured to correct an operation amount (specifically, a movement amount or a movement speed) in the slide operation input based on a position on the touch panel 12 that is input by the touch operation when performing the slide operation input. have.

例えば、タッチパネル12の画面の右隅や左隅など画面中心ではなく、少なくともいずれか一方の画面端部に近い位置が基準位置として検出された場合には、画面端部に近い方は物理的にスライド操作入力を行う際の操作量(すなわち、スライド量)を十分に確保できない場合あり、その方向にスライド操作入力すると、適切なスライド操作入力を行うことができない場合がある。   For example, when a position close to at least one of the screen edges, such as the right and left corners of the screen of the touch panel 12, is detected as the reference position, the one closer to the screen edge physically slides. There may be cases where a sufficient amount of operation (ie, a slide amount) cannot be secured when performing an operation input, and when a slide operation input is performed in that direction, an appropriate slide operation input may not be performed.

すなわち、図5(A)に示すように、画面の左隅(紙面に向かって右隅)を基準(基準位置)としてスライド操作入力を行う場合であって、プレーヤオブジェクトを右(具体的には右斜め上)に移動させるため、又は、右方向(具体的には右斜め上)に移動させる際の速度や加速度を増加させるために、さらに紙面に向かって右へのスライド操作入力における操作量(すなわち、スライド操作入力量)が必要な場合に、スライド操作入力可能なスライド可能領域を十分に確保することができず、当該スライド可能領域以上の操作量が必要な場合には、ユーザが希望するプレーヤキャラクタの右方向への移動や当該右方向への移動速度の増加を制御することができない。   That is, as shown in FIG. 5A, when a slide operation input is performed with the left corner of the screen (right corner toward the paper surface) as a reference (reference position), the player object is moved to the right (specifically, the right In order to increase the speed and acceleration when moving in the right direction (specifically diagonally upward in the right direction), the amount of operation in the slide operation input to the right toward the paper ( That is, when a slide operation input amount) is necessary, a sufficient slidable area where the slide operation can be input cannot be secured, and the user desires an operation amount larger than the slidable area. It is impossible to control the movement of the player character in the right direction and the increase in the movement speed in the right direction.

また、最近では、スマートフォンなどの端末装置20を片手で保持しつつ、保持した手
の親指で操作することも増えており、このような場合に、上記のように、親指側への操作可能領域を確保することが難しくなっている。
Recently, the terminal device 20 such as a smartphone is being operated with the thumb of the held hand while holding the terminal device 20 with one hand, and in such a case, as described above, an area that can be operated on the thumb side. It has become difficult to ensure.

そこで、本実施形態の端末装置20は、図5(B)に示すように、無接触状態から接触状態への状態変化を検出した際の検出位置(すなわち、基準位置)がタッチパネル12の画面端部に近い場合には、同一のスライド操作入力量であっても、スライド可能領域が狭い方向へのスライド操作入力量が、スライド可能領域が広い方向へのスライド操作入力量よりも大きくなるように、スライド操作入力量を補正するようになっている。   Therefore, in the terminal device 20 of the present embodiment, as shown in FIG. 5B, the detection position (that is, the reference position) when detecting the state change from the non-contact state to the contact state is the screen edge of the touch panel 12. If the input is the same, the amount of slide operation input in the direction in which the slidable area is narrower is larger than the amount of slide operation input in the direction in which the slidable area is wide. The slide operation input amount is corrected.

なお、図5(B)は、画面左隅(紙面に向かった右隅)が基準位置として検出された場合に、操作量が補正される場合のイメージを示しており、複数の楕円(補正領域円)のラインは補正後のスライド操作入力量が同一となることを示している。すなわち、操作方向を無視すれば、同一の補正領域円の周縁部においては、基準位置からの物理的な距離が異なっていても、同一の操作量となることを示し、図5(B)においては、操作方向を無視すれば、物理的な距離が異なっていても、補正後においては、ポイントPとポイントQが同一のスライド量となる。   FIG. 5B shows an image when the operation amount is corrected when the left corner of the screen (the right corner facing the paper surface) is detected as the reference position, and a plurality of ellipses (correction area circles) are shown. The line) shows that the corrected slide operation input amount is the same. That is, if the operation direction is ignored, the peripheral portion of the same correction area circle has the same operation amount even if the physical distance from the reference position is different. In FIG. If the operation direction is ignored, even if the physical distance is different, the point P and the point Q have the same slide amount after correction.

また、図6(A)〜(D)は、図5(B)と基準位置が異なる場合の補正領域円の例を示ししている。例えば、図5(B)は、端末装置20が右手で保持された場合に右手親指で操作する際に適しており、図6(A)は、端末装置20が左手で保持された場合に左手親指で操作する際に適している。   6A to 6D show examples of correction region circles when the reference position is different from that in FIG. 5B. For example, FIG. 5B is suitable for operation with the right thumb when the terminal device 20 is held with the right hand, and FIG. 6A is a left hand when the terminal device 20 is held with the left hand. Suitable for operation with thumb.

さらに、図5(B)及び図6(A)〜(D)に示す補正領域及び補正領域の外縁は、本実施形態を説明するために便宜上図示しているだけで有り、通常はタッチパネル12には表示されるものでなく、また、補正領域及び補正領域外縁を設けずに、タッチパネル12全体において補正を行うようになっていてもよい。   Further, the correction area and the outer edge of the correction area shown in FIG. 5B and FIGS. 6A to 6D are only illustrated for convenience of explanation of the present embodiment, and are usually provided on the touch panel 12. Is not displayed, and correction may be performed on the entire touch panel 12 without providing the correction area and the outer edge of the correction area.

特に、端末装置20は、
(1)無接触状態から接触状態への第1の変化を検出した検出位置を基準位置(又は、それに関連付けられた所定位置)として検出するとともに、当該基準位置の検出後であって当該基準位置を検出した際のタッチ操作入力が継続されてスライド操作入力されている場合に、当該スライド操作入力位置を指示位置として検出し、
(2)検出した基準位置及び指示位置を含むスライド操作入力における操作量に従って画面に表示されるオブジェクトの移動制御を実行し、
(3)検出した基準位置に基づいて、操作量を補正する補正処理を実行する
構成を有している。
In particular, the terminal device 20
(1) The detection position at which the first change from the non-contact state to the contact state is detected as a reference position (or a predetermined position associated therewith), and after the detection of the reference position, the reference position When the touch operation input at the time of detecting is continued and the slide operation is input, the slide operation input position is detected as the indicated position,
(2) executing movement control of the object displayed on the screen according to the operation amount in the slide operation input including the detected reference position and designated position;
(3) It has the structure which performs the correction process which correct | amends the operation amount based on the detected reference | standard position.

また、この構成により、端末装置20は、画面上の基準位置に依存することなく、画面に表示されるオブジェクトを的確に表示することができるので、ユーザの操作性を向上することができるようになっている。   Also, with this configuration, the terminal device 20 can accurately display the object displayed on the screen without depending on the reference position on the screen, so that the operability for the user can be improved. It has become.

なお、本実施形態においては、起点マーカやスライド操作マーカを表示する際に、無接触状態を検出した際の位置である基準位置を用いているが、当該基準位置に代えて当該基準位置に関連付けられた所定位置、例えば、検出位置から所定の距離離れた位置又はタッチパネルの隅などの所定のエリアに形成されたエリアなど特定の表示位置を基準位置として用いてもよい。   In the present embodiment, when displaying the starting point marker and the slide operation marker, the reference position that is the position when the non-contact state is detected is used, but the reference position is associated with the reference position instead of the reference position. A specific display position such as a predetermined position, for example, a position away from the detection position by a predetermined distance or an area formed in a predetermined area such as a corner of the touch panel may be used as the reference position.

[4.2]補正処理
次、本実施形態において実行される補正処理の詳細について説明する。
[4.2] Correction Processing Next, details of the correction processing executed in the present embodiment will be described.

(基本的な補正処理)
操作制御部213は、タッチ検出処理部211によって検出された基準位置と、スライド操作入力中に当該タッチ検出処理部211によって随時検出された指示位置と、に基づいて、当該スライド操作入力において入力されたスライド操作入力の移動量及びその移動速度を含むスライド操作入力量を補正する。
(Basic correction processing)
The operation control unit 213 is input in the slide operation input based on the reference position detected by the touch detection processing unit 211 and the indication position detected by the touch detection processing unit 211 as needed during the slide operation input. The slide operation input amount including the movement amount of the slide operation input and the moving speed thereof is corrected.

具体的には、操作制御部213は、
(1)スライド操作入力において最初に検出された基準位置のタッチパネル12上の位置座標と最近接するタッチパネル12の端部との距離(以下、「補正基準距離」という。)及び方向(以下、「補正基準方向」という。)を算出し、
(2)算出した補正基準距離及び補正基準方向と実際にスライド操作入力によって入力された操作方向とスライド操作入力量(絶対値)とに基づいて、スライド操作入力量を補正する。
Specifically, the operation control unit 213
(1) The distance (hereinafter referred to as “correction reference distance”) and the direction (hereinafter referred to as “correction”) between the position coordinate on the touch panel 12 of the reference position first detected in the slide operation input and the end of the touch panel 12 that is closest. "Reference direction")
(2) The slide operation input amount is corrected based on the calculated correction reference distance and correction reference direction, the operation direction actually input by the slide operation input, and the slide operation input amount (absolute value).

特に、操作制御部213は、(2)の処理においては、予め補正基準距離によって定まる補正割合とスライド操作入力方向と補正基準方向とのずれ(角度差)によって生ずる調整量とを有し、補正割合をスライド操作入力方向と補正基準方向とのずれ(角度差)によって調整量を用いて調整し、当該調整した補正割合を乗算することによってスライド操作入力量を補正する。   In particular, in the process (2), the operation control unit 213 has a correction ratio determined in advance by a correction reference distance and an adjustment amount caused by a deviation (angle difference) between the slide operation input direction and the correction reference direction. The ratio is adjusted using the adjustment amount according to the deviation (angle difference) between the slide operation input direction and the correction reference direction, and the slide operation input amount is corrected by multiplying the adjusted correction ratio.

例えば、操作制御部213は、補正基準距離と補正割合を予め定めたテーブル又は所定の演算式を用いて、補正基準距離が20mmで補正割合が30%増であることを得た場合に、補正基準方向とスライド操作入力方向であれば、当該スライド操作入力方向におけるスライド操作入力量を30%増加させて補正量を得る。   For example, the operation control unit 213 corrects the correction reference distance and the correction ratio when a correction reference distance is 20 mm and the correction ratio is increased by 30% using a predetermined calculation formula or a predetermined arithmetic expression. In the case of the reference direction and the slide operation input direction, the amount of correction is obtained by increasing the slide operation input amount in the slide operation input direction by 30%.

その一方、同様に、補正基準距離が20mmで補正割合が30%増である場合であっても、補正基準方向とスライド操作入力方向の角度差が10度であれば、基準位置からタッチパネル12の最近接の端部までの距離は多少長くなるので、その分を調整量(例えば、マイナス5%)によって調整する必要がある。   On the other hand, similarly, even when the correction reference distance is 20 mm and the correction ratio is increased by 30%, if the angle difference between the correction reference direction and the slide operation input direction is 10 degrees, the touch panel 12 is moved from the reference position. Since the distance to the closest edge is somewhat longer, it is necessary to adjust the amount by an adjustment amount (for example, minus 5%).

そこで、この場合には、操作制御部213は、最終的には、当該スライド操作入力方向におけるスライド操作入力量を25%増加させて補正量を得るようになっている。また、操作制御部213は、得た補正量に基づいてプレーヤオブジェクトなどの操作対象オブジェクトのオブジェクト空間内における移動量又は移動速度を制御する。   Therefore, in this case, the operation control unit 213 finally increases the slide operation input amount in the slide operation input direction by 25% to obtain the correction amount. Further, the operation control unit 213 controls the movement amount or movement speed of the operation target object such as the player object in the object space based on the obtained correction amount.

なお、このような場合に、補正基準距離が20mmで補正基準方向とスライド操作入力方向の角度差が180度(すなわち、近接する端部とは反対方向)であれば、例えば、調整量は補正割合のマイナスの2倍、すなわち、60%と設定することによって、操作制御部213は、最終的には、当該スライド操作入力方向におけるスライド操作入力量を30%減少させて補正量を得ることになる。   In such a case, if the correction reference distance is 20 mm and the angle difference between the correction reference direction and the slide operation input direction is 180 degrees (that is, the direction opposite to the adjacent end portion), for example, the adjustment amount is corrected. By setting twice the ratio minus, that is, 60%, the operation control unit 213 finally reduces the slide operation input amount in the slide operation input direction by 30% to obtain a correction amount. Become.

また、本実施形態においては、タッチパネル12上の画面を予め複数の領域に分けて、当該領域毎に補正割合が設定されていてもよい。ただし、この場合も、上述のように角度差によって補正割合を調整する必要がある。   In the present embodiment, the screen on the touch panel 12 may be divided into a plurality of areas in advance, and a correction ratio may be set for each area. However, also in this case, it is necessary to adjust the correction ratio by the angle difference as described above.

さらに、本実施形態においては、基準位置と最近接するタッチパネル12上の端部との補正基準距離と補正基準方向に基づいて補正量を定めているが、補正基準距離のみによって補正量を定めてもよいし、基準位置と2以上のタッチパネル12上の端部とのそれぞれの補正基準距離によって補正量を定めてもよい。   Further, in the present embodiment, the correction amount is determined based on the correction reference distance and the correction reference direction between the reference position and the edge on the touch panel 12 that is closest to the reference position, but the correction amount may be determined only by the correction reference distance. Alternatively, the correction amount may be determined based on the respective correction reference distances between the reference position and two or more end portions on the touch panel 12.

特に、前者の場合には、例えば、操作制御部213は、補正基準距離に応じて4分割、8分割又は16分割の操作方向に対する補正割合が予め定まっており、補正基準距離とスライド操作入力方向に基づいて補正割合を検出し、検出した補正割合によって補正量を算出する。   In particular, in the former case, for example, the operation control unit 213 has a correction ratio for the operation direction of 4, 8, or 16 divided in advance according to the correction reference distance, and the correction reference distance and the slide operation input direction. The correction ratio is detected based on the above, and the correction amount is calculated based on the detected correction ratio.

また、後者の場合には、例えば、操作制御部213は、2以上の補正基準距離に応じて補正割合が予め定まっており、当該補正割合と上述のような調整量又は予め定まる操作方向に対する補正割合を取得し、取得した補正割合によって補正量を算出する。   In the latter case, for example, the operation control unit 213 determines a correction ratio in advance according to two or more correction reference distances, and corrects the correction ratio and the adjustment amount as described above or a predetermined operation direction. The ratio is acquired, and the correction amount is calculated based on the acquired correction ratio.

(2)具体的な補正処理
操作制御部213は、スライド操作入力によって検出された基準位置又は指示位置のタッチパネル12上の位置(画面の座標位置)に基づいて、
(A)オブジェクト空間内における操作対象オブジェクトの移動速度、
(B)当該操作対象オブジェクトの移動量、及び、
(C)当該操作対象オブジェクトが所与の処理を実行する実行回数
の少なくともいずれか一方を補正する補正処理を実行する。
(2) Specific Correction Processing The operation control unit 213 is based on the position (coordinate position of the screen) on the touch panel 12 of the reference position or the designated position detected by the slide operation input.
(A) The movement speed of the operation target object in the object space,
(B) the movement amount of the operation target object, and
(C) A correction process that corrects at least one of the number of execution times that the operation target object executes a given process is executed.

特に、操作制御部213は、操作対象オブジェクトが所与の処理を実行する実行回数としては、
(C1)プレーヤキャラクタなどの操作対象オブジェクトの戦闘時の弾やその他の発射回数、
(C2)当該戦闘時の攻撃(特別な攻撃を含む。)の回数が増減するなどの行動回数、
(C3)特定の動作を行う際の表示期間、当該特定の動作を表示するフレーム数や表示するための動作アニメーションの数(アニメーションのカット割りの数や副画面を用いて表示する場合の当該副画面の数等)
を補正する補正処理を実行する。
In particular, the operation control unit 213 performs the number of execution times that the operation target object executes a given process as follows:
(C1) The number of shots and other shots during battle of the operation target object such as a player character,
(C2) The number of actions such as the number of attacks (including special attacks) during the battle increase or decrease,
(C3) Display period when performing a specific operation, the number of frames for displaying the specific operation, the number of motion animations for display (the number of animation cuts and the sub-screen when displaying using a sub-screen) Number of screens)
A correction process for correcting the above is executed.

また、操作制御部213は、ゲームが実行されているオブジェクト空間を形成するためのマップの形状の変化、ゲーム内のステージやレベルの変化、又は、RPGなどの操作対象となる操作対象オブジェクトのレベル変化など、ゲーム状況の変化に応じて補正処理の内容を変化させ、又は、補正処理を実行する基準となる画面上の位置を変化させる。   Further, the operation control unit 213 changes the shape of the map for forming the object space in which the game is executed, changes in the stage and level in the game, or the level of the operation target object to be operated such as RPG. The content of the correction process is changed according to a change in the game situation, such as a change, or the position on the screen that is a reference for executing the correction process is changed.

具体的には、操作制御部213は、補正処理の内容を変化させる場合としては、オブジェクト空間内においてユーザ操作の対象となる操作対象オブジェクトの移動速度の補正処理を、当該操作対象オブジェクトの移動量、又は、当該操作対象オブジェクトが所与の処理を実行する実行回数などの補正処理に変更し、当該変更した補正処理を実行する。   Specifically, when changing the content of the correction process, the operation control unit 213 performs the correction process of the movement speed of the operation target object that is the target of the user operation in the object space, and the movement amount of the operation target object. Alternatively, the operation target object is changed to a correction process such as the number of executions for which a given process is executed, and the changed correction process is executed.

また、操作制御部213は、補正処理を実行する基準となる画面上の位置を変化させる場合としては、ゲーム状況が変化すると、補正処理を実行すべきタッチパネル12上の位置や領域が変化する。例えば、操作制御部213は、ゲーム状況が変化すると、補正処理を実行する領域を、当該タッチパネル12の最外縁となる端部から所定の距離離れた位置までの領域(外縁に環状に形成される領域)から、当該タッチパネル左半分の領域(すなわち、右半分は無効に設定)、又は、タッチパネルの四隅を含む予め定められた矩形領域や円形領域(当該四隅の矩形領域以外は無効)に変更する。   In addition, when the operation control unit 213 changes the position on the screen, which is a reference for executing the correction process, when the game situation changes, the position or area on the touch panel 12 on which the correction process should be executed changes. For example, when the game situation changes, the operation control unit 213 forms an area for executing the correction process in an area (a ring shape on the outer edge) up to a position a predetermined distance away from the end that is the outermost edge of the touch panel 12. Area) is changed to the left half area of the touch panel (that is, the right half is disabled), or a predetermined rectangular area or circular area including the four corners of the touch panel (except for the rectangular area at the four corners). .

(3)基準位置の動的変化に基づく補正処理
タッチ検出処理部211は、例えば、スライド操作入力中の5ms毎など予め定められた期間毎に到来するタイミング、又は、スライド操作入力方向が10度など予め定められた角度以上に変更したときのタイミングにおいて当該タイミングにおけるスライド操作入力の位置(当該タイミング時のタッチパネル12上の指示位置)を新たな基準位置として
検出する。
(3) Correction processing based on dynamic change of reference position The touch detection processing unit 211 has, for example, a timing that comes every predetermined period such as every 5 ms during a slide operation input, or a slide operation input direction of 10 degrees. The position of the slide operation input at the timing (instructed position on the touch panel 12 at the timing) is detected as a new reference position at the timing when the angle is changed to a predetermined angle or more.

この場合には、操作制御部213は、当該スライド操作入力中に新たに検出された基準位置に基づいて、操作量を補正する。   In this case, the operation control unit 213 corrects the operation amount based on the reference position newly detected during the slide operation input.

なお、スライド操作入力は、その入力が継続されることによってタッチパネル12上の種々のエリアに移動することになるが、上述のように、タッチパネル12上のエリアが変われば、その補正量も変えないと、適切にスライド量を補正することができない。   Note that the slide operation input moves to various areas on the touch panel 12 as the input continues, but as described above, if the area on the touch panel 12 changes, the correction amount does not change. Therefore, the slide amount cannot be corrected appropriately.

そこで、操作制御部213は、上述のように、新たな基準位置が検出されると、当該新たな基準位置に基づいて上述の補正処理を実行し、スライド操作入力中にスライド操作入力を行う領域が狭くなっている領域に移動した場合であっても、画面に表示されるオブジェクトを的確に表示することができるようになっている。   Therefore, as described above, when a new reference position is detected, the operation control unit 213 performs the above-described correction processing based on the new reference position, and performs a slide operation input during the slide operation input. The object displayed on the screen can be accurately displayed even when the object moves to a region where is narrowed.

(4)補正処理の実行判定
操作制御部213は、例えば、ユーザの指示、又は、ゲームの進行上の指示など所与の制御指示に基づいて、補正処理を実行するか否かを判定し、当該補正処理を実行すると判定された場合に、上述のように補正処理を実行する。
(4) Execution determination of correction processing The operation control unit 213 determines whether to execute correction processing based on a given control instruction such as a user instruction or an instruction on the progress of a game, for example, When it is determined that the correction process is to be executed, the correction process is executed as described above.

例えば、ユーザの指示によって補正処理が不要と判断された場合やオブジェクトが存在するオブジェクト空間がタッチパネル12の表示画面内に収まる場合(マップによる移動がない場合)には、補正処理によって移動量や移動速度の操作量が補正されない場合の方が、当該補正処理によって操作量が補正された場合より容易にかつ的確に操作することができる。   For example, when it is determined that a correction process is unnecessary according to a user instruction, or when an object space in which an object exists fits within the display screen of the touch panel 12 (when there is no movement by a map), the amount of movement or movement is corrected by the correction process. When the operation amount of the speed is not corrected, the operation can be performed more easily and accurately than when the operation amount is corrected by the correction process.

そこで、操作制御部213は、ユーザの指示、又は、ゲームの進行上の指示など所与の制御指示に基づいて、補正処理の実行の可否を判断する処理を有することによって、オブジェクトの種々の操作に対応することができるようになっている。   Therefore, the operation control unit 213 has a process of determining whether or not to execute the correction process based on a given control instruction such as a user instruction or an instruction on the progress of the game, thereby performing various operations on the object. It can be adapted to.

(5)補正処理の実行中である旨の表示
操作制御部213は、描画部220と連動し、補正処理が実行中であることを示す表示(ガイド表示)を実行させてもよい。
(5) Display to the effect that correction processing is being performed The operation control unit 213 may perform display (guide display) indicating that correction processing is being performed in conjunction with the drawing unit 220.

例えば、操作制御部213は、補正処理が実行中である旨をタッチパネル12の画面上に表示することによって、又は、仮想コントローラを当該画面上に表示している場合には、その形状、色若しくは大きさを変更させることによって補正処理が実行中であることを表示する。   For example, the operation control unit 213 displays that the correction process is being executed on the screen of the touch panel 12 or when the virtual controller is displayed on the screen, the shape, color, or The fact that the correction process is being executed is displayed by changing the size.

このような構成により、操作制御部213は、補正処理が実行中の場合には操作者にそのことを容易に知らしめることができるので、補正処理が実行されている場合と当該補正処理が実行されていない場合とで操作が異なることによって被る不利益を防止することができるようになっている。   With such a configuration, the operation control unit 213 can easily inform the operator of the fact that the correction process is being executed, so that when the correction process is being executed, the correction process is executed. It is possible to prevent the disadvantage caused by the operation being different from the case where it is not done.

なお、操作制御部213は、当該補正処理が実行されたことを通知する構成を有していてもよい。例えば、操作制御部213は、補正処理が実行されことを画面上に表示すること、又は、その補正内容を画面上に表示することの他に、音や振動などによって補正処理が実行されたことを通知する。   Note that the operation control unit 213 may have a configuration for notifying that the correction process has been executed. For example, the operation control unit 213 displays that the correction process is executed on the screen, or displays the correction content on the screen, and that the correction process is executed by sound or vibration. To be notified.

(6)複数のスライド操作入力がある場合の処理
操作制御部213は、タッチ検出処理部211によって同時に複数のスライド操作入力
が検出されている場合には、
(A)一のスライド操作入力によって定まる補正量に従って各スライド操作入力に伴うスライド操作入力量を補正してもよいし、
(B)スライド操作入力毎に、それぞれのスライド操作入力によって定まる補正量に従って各スライド操作入力に伴うスライド操作入力量を補正してもよい。
(6) Processing in the case where there are a plurality of slide operation inputs The operation control unit 213, when a plurality of slide operation inputs are detected simultaneously by the touch detection processing unit 211,
(A) A slide operation input amount associated with each slide operation input may be corrected according to a correction amount determined by one slide operation input,
(B) For each slide operation input, the slide operation input amount accompanying each slide operation input may be corrected according to the correction amount determined by each slide operation input.

特に、操作制御部213は、(A)の場合には、複数のスライド操作入力のうち、操作量の補正が最大のスライド操作入力、最小のスライド操作入力、中間となるスライド操作入力、又は、補正量の平均若しくはそれに一番近いスライド操作入力を用いる。   In particular, in the case of (A), the operation control unit 213, among the plurality of slide operation inputs, the slide operation input with the maximum operation amount correction, the minimum slide operation input, the intermediate slide operation input, or The average of the correction amount or the slide operation input closest thereto is used.

このような構成により、複数のスライド操作入力を検出した場合であっても、同一の操作感覚によってスライド操作入力を行うこと、又は、それぞれ個別に対応することができるので、ユーザの操作性を向上させることができるようになっている。   With such a configuration, even when a plurality of slide operation inputs are detected, the slide operation inputs can be performed with the same operation feeling, or each can be handled individually, improving the user operability. It can be made to.

(7)スライド操作入力の解除
操作制御部213は、タッチ検出処理部211によって、所与の条件を具備した場合には、スライド操作入力量の補正処理の実行を中止し、主記憶部271に記憶されている基準位置をクリアする。
(7) Release of slide operation input When the touch detection processing unit 211 satisfies a given condition, the operation control unit 213 stops the slide operation input amount correction processing and stores it in the main storage unit 271. Clear the stored reference position.

例えば、操作制御部213は、スライド操作入力中に、所与の条件として、画面へのタッチ操作入力されていない状態を検出した場合、基準位置が検出されてから一定期間が経過した場合、又は、スライド操作入力におけるスライド操作入力量が一定以上になった場合が含まれる。   For example, when the operation control unit 213 detects a state in which no touch operation is input to the screen as a given condition during the slide operation input, or when a certain period of time has elapsed since the reference position is detected, or Included is a case where the amount of slide operation input in the slide operation input exceeds a certain level.

(8)その他
本実施形態においては、タッチ操作入力によって検出された位置(無接触状態において検出した位置)を基準位置として用いてスライド操作入力量の補正を行っているが、当該検出された位置に代えて当該検出された位置に関連付けられた所定位置、例えば、検出位置から所定の距離離れた位置又はタッチパネルの隅などの所定のエリアに形成されたエリアなど特定の表示位置を基準位置として用いてもよい。
(8) Others In the present embodiment, the slide operation input amount is corrected using the position detected by the touch operation input (position detected in the non-contact state) as the reference position. Instead, a specific display position such as a predetermined position associated with the detected position, for example, a position away from the detection position by a predetermined distance or a predetermined area such as a corner of the touch panel is used as the reference position. May be.

また、タッチ操作入力によって検出された位置(無接触状態において検出した位置)に代えて、当該検出位置に基づいて仮想コントローラが配置された位置(その基準点、中心点又は重心点)を基準位置として用いてもよい。特に、仮想コントローラとしては、起点マーカ及びスライド操作マーカから形成される物の他に、単一の操作コマンド又は十字キーなどが含まれる。   Instead of the position detected by touch operation input (the position detected in the non-contact state), the position (its reference point, center point or barycentric point) where the virtual controller is arranged based on the detected position is used as the reference position. It may be used as In particular, the virtual controller includes a single operation command or a cross key in addition to an object formed from a starting point marker and a slide operation marker.

[5]本実施形態における動作
次に、図7を用いて本実施形態の端末装置20によって実行されるスライド操作入力量の補正処理の動作について説明する。なお、図7は、本実施形態の端末装置20によって実行されるスライド操作入力量の補正処理の動作を示すフローチャートである。
[5] Operation in the present embodiment Next, the operation of the slide operation input amount correction process executed by the terminal device 20 of the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart showing the operation of the slide operation input amount correction process executed by the terminal device 20 of the present embodiment.

本動作は、サーバ装置10と連動してRPGなどのゲームが実行されており、順次ユーザのタッチ操作入力及びスライド操作入力が行われているものとし、スライド操作入力に基づく起点マーカの追従の処理は発生しないものとする。   In this operation, it is assumed that a game such as RPG is executed in conjunction with the server device 10, and the user's touch operation input and slide operation input are sequentially performed. Shall not occur.

まず、タッチ検出処理部211は、入力部260を介してタッチ操作入力を検出すると(ステップS101)、当該タッチ操作入力が検出されたタッチパネル12上の位置座標(基準位置の位置座標)を検出して主記憶部271に記憶する(ステップS102)。   First, when the touch detection processing unit 211 detects a touch operation input via the input unit 260 (step S101), the touch detection processing unit 211 detects a position coordinate (position coordinate of a reference position) on the touch panel 12 where the touch operation input is detected. And stored in the main storage unit 271 (step S102).

次いで、操作制御部213は、主記憶部271に記憶された基準位置から最近接するタッチパネル12の端部までの補正基準距離を算出し、指示位置の検出を待機する(ステップS104)。   Next, the operation control unit 213 calculates a correction reference distance from the reference position stored in the main storage unit 271 to the end of the touch panel 12 that is closest to the operation control unit 271 and waits for detection of the designated position (step S104).

次いで、タッチ検出処理部211は、スライド操作入力における指示位置を検出すると(ステップS105)、操作制御部213は、検出した指示位置に基づいてスライド操作入力におけるスライド操作入力方向とスライド操作入力量を算出する(ステップS106)。   Next, when the touch detection processing unit 211 detects an instruction position in the slide operation input (step S105), the operation control unit 213 calculates the slide operation input direction and the slide operation input amount in the slide operation input based on the detected instruction position. Calculate (step S106).

次いで、操作制御部213は、補正基準方向とスライド操作入力方向とのずれを算出するとともに、テーブルデータなどから補正基準距離に対応する補正割合及び調整量を取得する(ステップS107)。   Next, the operation control unit 213 calculates a deviation between the correction reference direction and the slide operation input direction, and acquires a correction ratio and an adjustment amount corresponding to the correction reference distance from table data or the like (step S107).

次いで、操作制御部213は、補正基準距離に対応する補正割合及び調整量に基づいてスライド操作入力量を補正し(ステップS108)、当該補正した操作量に基づいて操作対象オブジェクトを制御する(ステップS109)。   Next, the operation control unit 213 corrects the slide operation input amount based on the correction ratio and the adjustment amount corresponding to the correction reference distance (step S108), and controls the operation target object based on the corrected operation amount (step S108). S109).

次いで、操作制御部213は、タッチ検出処理部211によって新たな基準位置を検出したしか否か(ステップS110)、及び、無接触状態になった否かを判定し(ステップS111)、新たな基準位置を検出した場合には、ステップS102の処理に移行し、新たな基準位置を検出せずに、無接触状態になったことを検出した場合には、本動作を終了させる。   Next, the operation control unit 213 determines whether or not a new reference position has been detected by the touch detection processing unit 211 (step S110), and whether or not a non-contact state has been reached (step S111). When the position is detected, the process proceeds to step S102, and when it is detected that a non-contact state is reached without detecting a new reference position, this operation is terminated.

[6]その他
本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
本実施形態では、RPGのゲームの操作入力として説明しているが、対戦型ゲーム又はシミュレーションゲームなどの他のゲームにおいても用いることがきる。
[6] Others The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.
Although this embodiment has been described as an operation input of an RPG game, it can also be used in other games such as a battle game or a simulation game.

また、ゲームに限らず、ユーザインタフェースとしてタッチ操作入力及びスライド操作入力を用いるものであれば適用可能である。   Further, the present invention is not limited to a game and can be applied as long as a touch operation input and a slide operation input are used as a user interface.

また、本実施形態は、一のサーバ装置10によって各ゲームを端末装置20に提供してもよいし、複数のサーバ装置10を連動させてサーバシステムを構築し、各ゲームを端末装置に提供してもよい。   Further, in the present embodiment, each game may be provided to the terminal device 20 by one server device 10, or a server system is constructed by linking a plurality of server devices 10, and each game is provided to the terminal device. May be.

本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. In addition, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

上記のように、本発明の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。   As described above, the embodiments of the present invention have been described in detail. However, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. . Accordingly, all such modifications are intended to be included in the scope of the present invention.

10 … サーバ装置
20 … 端末装置
200 … 処理部
101 … 通信制御部
102 … Web処理部
103 …ゲーム演算実行部
104 …ゲーム管理部
120 … 入力部
130 … 表示部
140 … 記憶部
142 … 主記憶部
144 … ゲーム情報
146 … ユーザ情報
148 … 自動演算情報
180 … 情報記憶媒体、
196 … 通信部
200 … 処理部
210 … オブジェクト空間設定部
211 … タッチ検出処理部
212 … 仮想コントローラ制御部
213 … 操作制御部
214 … 移動処理部
215 … ゲーム演算部
216 … 仮想カメラ制御部
220 … 描画部
230 … 音処理部
270 … 記憶部
271 … 主記憶部
272 … 画像バッファ
260 … 入力部
262 … 検出部
280 … 情報記憶媒体
290 … 表示部
291 … 音出力部、
DESCRIPTION OF SYMBOLS 10 ... Server apparatus 20 ... Terminal apparatus 200 ... Processing part 101 ... Communication control part 102 ... Web processing part 103 ... Game calculation execution part 104 ... Game management part 120 ... Input part 130 ... Display part 140 ... Storage part 142 ... Main memory part 144 ... Game information 146 ... User information 148 ... Automatic calculation information 180 ... Information storage medium,
196: Communication unit 200 ... Processing unit 210 ... Object space setting unit 211 ... Touch detection processing unit 212 ... Virtual controller control unit 213 ... Operation control unit 214 ... Movement processing unit 215 ... Game calculation unit 216 ... Virtual camera control unit 220 ... Drawing Unit 230 ... sound processing unit 270 ... storage unit 271 ... main storage unit 272 ... image buffer 260 ... input unit 262 ... detection unit 280 ... information storage medium 290 ... display unit 291 ... sound output unit,

Claims (11)

所与の画面が表示されるタッチパネルへのスライド操作入力を受け付けるためのプログラムであって、
前記タッチ操作入力された画面上の位置に関連付けられた所定位置を基準位置として検出する第1の検出処理を実行し、当該基準位置の検出後であって当該基準位置を検出した際のタッチ操作入力が継続されてスライド操作入力されている場合に、当該スライド操作入力の位置を指示位置として検出する第2の検出処理を行うタッチ操作入力検出処理手段、及び、
前記検出された基準位置及び指示位置を含むスライド操作入力における操作量に従って前記画面に表示されるオブジェクトの制御を行う操作制御手段、
としてコンピュータを機能させ、
前記操作制御手段が、
前記第1の検出処理によって検出された基準位置又は指示位置の画面上の位置に基づいて、前記操作量を補正する補正処理を実行することを特徴とするプログラム。
A program for accepting a slide operation input to a touch panel on which a given screen is displayed,
Touch operation when detecting a reference position after detecting the reference position by executing a first detection process that detects a predetermined position associated with the position on the screen input by the touch operation as a reference position Touch operation input detection processing means for performing a second detection process for detecting the position of the slide operation input as an indicated position when the input is continued and the slide operation is input; and
Operation control means for controlling an object displayed on the screen in accordance with an operation amount in a slide operation input including the detected reference position and indicated position;
Function as a computer
The operation control means is
A program for executing a correction process for correcting the operation amount based on a position on the screen of a reference position or an indicated position detected by the first detection process.
請求項1に記載のプログラムにおいて、
前記タッチ操作入力検出処理手段が、
前記スライド操作入力中の所与のタイミングに新たな基準位置を検出し、
前記操作制御手段が、
前記スライド操作入力中に新たに検出された基準位置又は当該新たな基準位置による指示位置の画面上の位置に基づいて、前記操作量を補正する、プログラム。
The program according to claim 1,
The touch operation input detection processing means is
A new reference position is detected at a given timing during the slide operation input,
The operation control means is
The program which correct | amends the said operation amount based on the position on the screen of the reference position newly detected during the said slide operation input, or the indication position by the said new reference position.
請求項1又は2に記載のプログラムにおいて、
前記所与の制御指示に基づいて、前記補正処理を実行するか否かを判定する判定手段として前記コンピュータを更に機能させ、
前記操作制御手段が、前記補正処理を実行すると判定された場合に当該補正処理を実行する、プログラム。
In the program according to claim 1 or 2,
Based on the given control instruction, the computer further functions as a determination unit that determines whether to execute the correction process,
The program which performs the said correction process, when the said operation control means determines with performing the said correction process.
請求項1〜3のいずれか1項に記載のプログラムにおいて、
前記補正処理が実行中であることを示す表示を実行させる補正処理表示制御手段として前記コンピュータを更に機能させる、プログラム。
In the program according to any one of claims 1 to 3,
A program for causing the computer to further function as correction processing display control means for executing a display indicating that the correction processing is being executed.
請求項1〜4のいずれか1項に記載のプログラムにおいて、
前記タッチ操作入力検出処理手段によって、同時に複数のスライド操作入力が検出されている場合には、
前記操作制御手段が、一のスライド操作入力によって定まる補正量に従って各スライ操作入力に伴う操作量を補正する補正処理を実行する、プログラム。
In the program according to any one of claims 1 to 4,
When a plurality of slide operation inputs are detected at the same time by the touch operation input detection processing means,
A program in which the operation control means executes a correction process for correcting an operation amount associated with each sly operation input according to a correction amount determined by one slide operation input.
請求項1〜5のいずれか1項に記載のプログラムおいて、
前記操作制御手段が、
所与の条件を具備した場合には、前記補正処理の実行を中止し、前記基準位置をクリアする、プログラム。
In the program according to any one of claims 1 to 5,
The operation control means is
A program for stopping execution of the correction process and clearing the reference position when a given condition is satisfied.
請求項1〜6のいずれか1項に記載のプログラムおいて、
前記操作制御手段が、
前記スライド操作入力に従って前記所与の画面内に表示されている操作対象オブジェクトの操作制御を行う、プログラム。
In the program according to any one of claims 1 to 6,
The operation control means is
A program for performing operation control of an operation target object displayed in the given screen in accordance with the slide operation input.
請求項1〜7のいずれか1項に記載のプログラムおいて、
オブジェクト空間に前記スライド操作入力によって操作対象となる操作対象オブジェクトを配置するオブジェクト制御手段として前記コンピュータを更に機能させ、
前記操作制御手段が、
前記第1の検出処理によって検出された基準位置又は指示位置の画面上の位置に基づいて、前記オブジェクト空間内における操作対象オブジェクトの移動速度、当該操作対象オブジェクトの移動量、及び、当該操作対象オブジェクトが所与の処理を実行する実行回数の少なくともいずれか一方を補正する前記補正処理を実行する、プログラム。
In the program according to any one of claims 1 to 7,
Causing the computer to further function as object control means for arranging an operation target object to be operated by the slide operation input in an object space;
The operation control means is
Based on the position on the screen of the reference position or the designated position detected by the first detection process, the movement speed of the operation target object in the object space, the movement amount of the operation target object, and the operation target object A program that executes the correction process for correcting at least one of the number of executions of executing a given process.
請求項1〜8のいずれか1項に記載のプログラムおいて、
オブジェクト空間内で実行される所与のゲームを制御するゲーム制御手段として前記コンピュータを更に機能させ、
前記操作制御手段が、
前記所与のゲームのゲーム状況の変化に応じて前記補正処理の内容を変化させ、又は、前記補正処理を実行する基準となる前記画面上の位置を変化させる、プログラム。
In the program according to any one of claims 1 to 8,
Further causing the computer to function as game control means for controlling a given game executed in the object space;
The operation control means is
A program that changes the content of the correction process according to a change in the game situation of the given game, or changes the position on the screen that is a reference for executing the correction process.
請求項1〜9のいずれか1項に記載のプログラムおいて、
前記補正処理が実行されたことを通知する通知手段として前記コンピュータを更に機能させる、プログラム。
In the program according to any one of claims 1 to 9,
A program that further causes the computer to function as notification means for notifying that the correction processing has been executed.
所与の画面が表示されるタッチパネルへのスライド操作入力を受け付ける入力処理装置であって、
前記タッチ操作入力された画面上の位置に関連付けられた所定位置を基準位置として検出する第1の検出処理を実行し、当該基準位置の検出後であって当該基準位置を検出した際のタッチ操作入力が継続されてスライド操作入力されている場合に、当該スライド操作入力の位置を指示位置として検出する第2の検出処理を行うタッチ操作入力検出処理手段と、
前記検出された基準位置及び指示位置を含むスライド操作入力における操作量に従って前記画面に表示されるオブジェクトの制御を行う操作制御手段と、
を備え、
前記操作制御手段が、
前記第1の検出処理によって検出された基準位置又は指示位置の画面上の位置に基づいて、前記操作量を補正する補正処理を実行することを特徴とする入力処理装置。
An input processing device that accepts a slide operation input to a touch panel on which a given screen is displayed,
Touch operation when detecting a reference position after detecting the reference position by executing a first detection process that detects a predetermined position associated with the position on the screen input by the touch operation as a reference position Touch operation input detection processing means for performing a second detection process for detecting the position of the slide operation input as an indicated position when the input is continued and the slide operation is input;
Operation control means for controlling an object displayed on the screen according to an operation amount in a slide operation input including the detected reference position and instruction position;
With
The operation control means is
An input processing apparatus that executes a correction process for correcting the operation amount based on a position on the screen of the reference position or the designated position detected by the first detection process.
JP2014266678A 2014-12-26 2014-12-26 Input processing device and program Active JP6427414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014266678A JP6427414B2 (en) 2014-12-26 2014-12-26 Input processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014266678A JP6427414B2 (en) 2014-12-26 2014-12-26 Input processing device and program

Publications (2)

Publication Number Publication Date
JP2016126512A true JP2016126512A (en) 2016-07-11
JP6427414B2 JP6427414B2 (en) 2018-11-21

Family

ID=56359391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014266678A Active JP6427414B2 (en) 2014-12-26 2014-12-26 Input processing device and program

Country Status (1)

Country Link
JP (1) JP6427414B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041354A (en) * 2016-09-09 2018-03-15 アイシン・エィ・ダブリュ株式会社 Pointer control system and pointer control program
EP3400993A1 (en) * 2017-05-11 2018-11-14 Alvion Inc. Program and information processing apparatus
WO2019116769A1 (en) * 2017-12-12 2019-06-20 株式会社デンソー Input device
CN110678238A (en) * 2017-05-22 2020-01-10 任天堂株式会社 Game program, information processing device, information processing system, and game processing method
JP2020052620A (en) * 2018-09-26 2020-04-02 株式会社Cygames Program, processing device and processing method
JP2021023667A (en) * 2019-08-07 2021-02-22 任天堂株式会社 Game program, game system, game device, and game process controlling method
US11759702B2 (en) 2018-12-28 2023-09-19 Bandai Namco Entertainment Inc. Game system, processing method, and information storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006141722A (en) * 2004-11-19 2006-06-08 Nintendo Co Ltd Game program and game device
JP2011028498A (en) * 2009-07-24 2011-02-10 Fujitsu Ltd Program, apparatus and method for processing information
JP2012043266A (en) * 2010-08-20 2012-03-01 Sony Corp Information processor, program and display control method
JP2012123562A (en) * 2010-12-07 2012-06-28 Nintendo Co Ltd Information processing program, information processor, information processing system and information processing method
JP2012230437A (en) * 2011-04-22 2012-11-22 Sony Corp Information processing apparatus, information processing method, and program
JP2013008278A (en) * 2011-06-27 2013-01-10 Clarion Co Ltd Operation device and operation method
JP2014044697A (en) * 2012-08-03 2014-03-13 Konami Digital Entertainment Co Ltd Operation terminal, operation control method, and operation control program
WO2014203582A1 (en) * 2013-06-21 2014-12-24 Necソリューションイノベータ株式会社 Electronic device, method for receiving input, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006141722A (en) * 2004-11-19 2006-06-08 Nintendo Co Ltd Game program and game device
JP2011028498A (en) * 2009-07-24 2011-02-10 Fujitsu Ltd Program, apparatus and method for processing information
JP2012043266A (en) * 2010-08-20 2012-03-01 Sony Corp Information processor, program and display control method
JP2012123562A (en) * 2010-12-07 2012-06-28 Nintendo Co Ltd Information processing program, information processor, information processing system and information processing method
JP2012230437A (en) * 2011-04-22 2012-11-22 Sony Corp Information processing apparatus, information processing method, and program
JP2013008278A (en) * 2011-06-27 2013-01-10 Clarion Co Ltd Operation device and operation method
JP2014044697A (en) * 2012-08-03 2014-03-13 Konami Digital Entertainment Co Ltd Operation terminal, operation control method, and operation control program
WO2014203582A1 (en) * 2013-06-21 2014-12-24 Necソリューションイノベータ株式会社 Electronic device, method for receiving input, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041354A (en) * 2016-09-09 2018-03-15 アイシン・エィ・ダブリュ株式会社 Pointer control system and pointer control program
EP3400993A1 (en) * 2017-05-11 2018-11-14 Alvion Inc. Program and information processing apparatus
US10642487B2 (en) 2017-05-11 2020-05-05 Alvion Inc. Non-transitory memory medium storing information processing program, and information processing apparatus
CN110678238A (en) * 2017-05-22 2020-01-10 任天堂株式会社 Game program, information processing device, information processing system, and game processing method
WO2019116769A1 (en) * 2017-12-12 2019-06-20 株式会社デンソー Input device
JP2019105968A (en) * 2017-12-12 2019-06-27 株式会社デンソー Input device
JP2020052620A (en) * 2018-09-26 2020-04-02 株式会社Cygames Program, processing device and processing method
WO2020067133A1 (en) * 2018-09-26 2020-04-02 株式会社Cygames Program, processing device, and processing method
US11759702B2 (en) 2018-12-28 2023-09-19 Bandai Namco Entertainment Inc. Game system, processing method, and information storage medium
JP2021023667A (en) * 2019-08-07 2021-02-22 任天堂株式会社 Game program, game system, game device, and game process controlling method

Also Published As

Publication number Publication date
JP6427414B2 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
JP6643776B2 (en) Terminal device and program
JP6605225B2 (en) Terminal device and program
JP6427414B2 (en) Input processing device and program
EP2466445B1 (en) Input direction determination terminal, method and computer program product
JP6616072B2 (en) Input processing apparatus and program
JP2013127683A (en) Program, information storage medium, terminal, server, and network system
JP6872401B2 (en) Game system and programs
JP6449647B2 (en) Input processing apparatus and program
JP6623008B2 (en) GAME DEVICE AND PROGRAM
JP7245605B2 (en) Game system, game providing method and program
JP6387299B2 (en) Input processing apparatus and program
JP6637662B2 (en) Game device and program
JP2017144158A (en) Program and game device
JP6385272B2 (en) Input processing apparatus and program
JP2019166218A (en) Program and game device
JP6738604B2 (en) Program and game device
JP6928060B2 (en) Input processing device and program
JP6900208B2 (en) Game system and programs
JP2019097698A (en) Game system and program
JP2019063178A (en) Game system and program
JP6543488B2 (en) Game device and program
JP6956209B2 (en) Terminal devices and programs
JP2019097699A (en) Game system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6427414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250