JP5238676B2 - Input receiving device, input determination method, and program - Google Patents

Input receiving device, input determination method, and program Download PDF

Info

Publication number
JP5238676B2
JP5238676B2 JP2009266005A JP2009266005A JP5238676B2 JP 5238676 B2 JP5238676 B2 JP 5238676B2 JP 2009266005 A JP2009266005 A JP 2009266005A JP 2009266005 A JP2009266005 A JP 2009266005A JP 5238676 B2 JP5238676 B2 JP 5238676B2
Authority
JP
Japan
Prior art keywords
input
unit
reference time
enemy
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009266005A
Other languages
Japanese (ja)
Other versions
JP2011113107A (en
Inventor
将史 竹廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2009266005A priority Critical patent/JP5238676B2/en
Publication of JP2011113107A publication Critical patent/JP2011113107A/en
Application granted granted Critical
Publication of JP5238676B2 publication Critical patent/JP5238676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることのできる入力受付装置、入力判定方法、および、プログラムに関する。   The present invention relates to an input reception device, an input determination method, and a program that allow an input operation on an object arranged in a virtual space without causing a player to feel uncomfortable.

近年、ユーザからの入力を受け付けるデバイスとして、タッチパネルが広く用いられている。このタッチパネルは、例えば、表示部(ディスプレイ等)の前面に配置され、タッチペンやユーザの指等による入力操作(タッチ操作)を検出し、その入力座標を取得する。
そのため、タッチパネルを用いた場合では、従来のようなキーやボタン等の入力と異なり、表示部に表示されている所望のシンボル(ボタン画像等)を、ユーザが直接触れることで入力が行える。このため、ユーザにとって、より容易で、直感的な入力操作が可能となっている。
In recent years, touch panels have been widely used as devices for receiving input from users. This touch panel is disposed, for example, in front of a display unit (display or the like), detects an input operation (touch operation) with a touch pen, a user's finger, or the like, and acquires its input coordinates.
Therefore, when a touch panel is used, unlike a conventional key or button input, a user can directly input a desired symbol (button image or the like) displayed on the display unit. For this reason, it is easier for the user to perform intuitive input operations.

最近では、携帯型のゲーム装置等にも、このようなタッチパネルが用いられるようになっている。そして、プレイヤは、ゲーム画面に表示される各種のオブジェクトを目で追いながら、所望のオブジェクトに対する入力を行っている。例えば、攻撃したい敵キャラクタの指示、開けたい扉の指示、または、拾いたいアイテムの指示といったゲーム中における各種オブジェクトへの入力を、タッチ操作により容易に行うことができる。   Recently, such touch panels are also used in portable game devices and the like. Then, the player makes an input to a desired object while following the various objects displayed on the game screen. For example, it is possible to easily input various objects such as an instruction of an enemy character to be attacked, an instruction of a door to be opened, or an instruction of an item to be picked up by a touch operation.

このようなタッチパネルを用いたゲーム装置において、入力操作時のチャタリングの発生を適切に防止できる技術も開示されている(たとえば、特許文献1参照)。   In a game apparatus using such a touch panel, a technique that can appropriately prevent chattering during an input operation is also disclosed (for example, see Patent Document 1).

特開2006−133887号公報 (第5−10頁、第5図)JP 2006-133887 A (Page 5-10, FIG. 5)

上述したように、タッチパネルを用いたゲーム装置では、ゲーム画面に表示されるオブジェクトに対して、入力操作が容易に行えるようになっている。
しかしながら、このような入力操作を行う際に、表示されているゲーム画面から得ている感覚に対して、違和感を覚えてしまうプレイヤも多かった。
As described above, in a game device using a touch panel, an input operation can be easily performed on an object displayed on a game screen.
However, when performing such an input operation, many players feel uncomfortable with the feeling obtained from the displayed game screen.

例えば、三次元の仮想空間を表現するゲーム装置では、その仮想空間内に配置される各種オブジェクトを、遠近感や立体感を感じさせる画像として表示している。つまり、ゲームに登場する各種オブジェクトについて、それらの仮想空間内の位置と視点(仮想カメラの位置)との関係に応じて、遠近感等を表現したゲーム画面を表示することになる。
そのようなゲーム画面において、例えば、攻撃目標となる敵キャラクタの指定を行う場合に、プレイヤは、タッチパネルから、目的の敵キャラクタの表示位置にタッチ操作を行うことになる。そのようなタッチ操作は、敵キャラクタの仮想空間内の位置等に拘わらず、一様に、画面上の表示位置に触れるだけで済んでしまう。つまり、遠くに表示されている敵キャラクタであっても、近くに表示されている敵キャラクタであっても、全く変更なく、タッチパネルへの表面的なタッチ操作(一様なタッチ操作)により、その敵キャラクタへの入力(指定等)が行えてしまうことになる。
For example, in a game device that expresses a three-dimensional virtual space, various objects arranged in the virtual space are displayed as images that give a sense of perspective and stereoscopic effect. That is, for various objects appearing in the game, a game screen expressing perspective or the like is displayed according to the relationship between the position in the virtual space and the viewpoint (the position of the virtual camera).
In such a game screen, for example, when an enemy character to be an attack target is designated, the player performs a touch operation on the display position of the target enemy character from the touch panel. Such a touch operation is only required to touch the display position on the screen uniformly regardless of the position of the enemy character in the virtual space. In other words, whether it is an enemy character that is displayed far away or an enemy character that is displayed nearby, its surface touch operation (uniform touch operation) on the touch panel is not changed at all. Input (designation, etc.) to the enemy character can be performed.

そのため、ゲーム画面から仮想空間の広がりを感じていたプレイヤは、このような一様なタッチ操作によりオブジェクトへの入力が行えてしまうことで、その仮想空間が急に平面的なものに思えてしまう等の違和感を感じる場合があった。つまり、三次元の仮想空間内のオブジェクトに対して表面的な入力操作が行えてしまうことにより、仮想空間の広がりが感じられなくなってしまうプレイヤも多かった。   For this reason, a player who has felt the expanse of the virtual space from the game screen can make the virtual space suddenly seem to be flat because the input to the object can be performed by such a uniform touch operation. There was a case of feeling uncomfortable. That is, there are many players who can not feel the expanse of the virtual space by performing superficial input operations on objects in the three-dimensional virtual space.

このようなことから、仮想空間内のオブジェクトに対する入力時に、このような違和感をプレイヤに感じさせることのないように、入力操作を適切に判定することのできるゲーム装置(入力受付装置)の開発が求められていた。   For this reason, there has been a development of a game device (input reception device) that can appropriately determine an input operation so that the player does not feel such a sense of incongruity when inputting an object in the virtual space. It was sought after.

本発明は、上記実状に鑑みてなされたもので、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることのできる入力受付装置、入力判定方法、および、プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an input reception device, an input determination method, and an input determination method capable of causing an input operation on an object arranged in a virtual space without causing the player to feel uncomfortable. The purpose is to provide a program.

本発明の第1の観点に係る入力受付装置は、表示画面への入力を受け付ける入力受付装置であって、表示制御部、オブジェクト特定部、及び、入力判定部を備えて構成される。   An input reception device according to a first aspect of the present invention is an input reception device that receives an input to a display screen, and includes a display control unit, an object specification unit, and an input determination unit.

まず、表示制御部は、仮想空間内に配置されるオブジェクト(例えば、キャラクタやアイテム等)を含んだ画像を生成し、表示画面に表示する。また、オブジェクト特定部は、この表示画面への入力に応答し、入力位置に表示されているオブジェクトを特定する。そして、入力判定部は、特定された当該オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、この基準時間と入力が継続された時間との関係に基づいて、当該オブジェクトへの入力の有効無効を判定する。例えば、入力判定部は、特定されたオブジェクトの奥行き方向の距離に応じて定まる基準時間を算定し、この基準時間よりも長い間、入力が続けられた場合に限り、その入力を有効と判定する。   First, a display control part produces | generates the image containing the object (for example, character, item, etc.) arrange | positioned in virtual space, and displays it on a display screen. The object specifying unit specifies an object displayed at the input position in response to an input on the display screen. Then, the input determination unit obtains a reference time determined according to the distance in the virtual space with respect to the viewpoint for the identified object, and based on the relationship between the reference time and the time when the input is continued, Validity / invalidity of input to the object is determined. For example, the input determination unit calculates a reference time determined according to the distance in the depth direction of the specified object, and determines that the input is valid only when the input is continued for longer than the reference time. .

すなわち、近くに表示されるオブジェクトには、短い(短時間の)タッチ操作を行うことが要請され、逆に、遠くに表示されるオブジェクトには、長い(長時間の)タッチ操作を行うことが要請される。このような継続時間が長短異なるタッチ操作は、表示されるオブジェクトの遠近感等に沿ったものであり、プレイヤは、ゲーム画面から感じている仮想空間の広がりを損なうことなく、敵キャラクタへの入力を行うことができる。
この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
That is, it is required to perform a short (short time) touch operation on an object displayed in the vicinity, and conversely, a long (long time) touch operation may be performed on an object displayed in the distance. Requested. Such touch operations with different durations are in line with the perspective of the displayed object, and the player can input to the enemy character without impairing the expanse of the virtual space felt from the game screen. It can be performed.
As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.

本発明の第2の観点に係る入力受付装置は、表示画面に重畳されたタッチパネルを介して入力を受け付ける入力受付装置であって、位置情報管理部、表示制御部、入力検出部、オブジェクト特定部、基準時間算定部、継続時間計時部、及び、入力判定部を備えて構成される。   An input reception device according to a second aspect of the present invention is an input reception device that receives an input via a touch panel superimposed on a display screen, and includes a position information management unit, a display control unit, an input detection unit, and an object specification unit. , A reference time calculating unit, a continuous time measuring unit, and an input determining unit.

まず、位置情報管理部は、三次元の仮想空間内に配置されるオブジェクト(例えば、キャラクタやアイテム等)の位置情報を管理する。また、表示制御部は、視点となる仮想カメラから当該オブジェクトを含む仮想空間を撮影し、所定のスクリーン平面に投影した画像を生成して表示画面に表示する。入力検出部は、タッチパネルへの入力に応答し、この表示画面における入力位置を検出する。オブジェクト特定部は、検出された入力位置に表示されているオブジェクトを、管理される位置情報に基づいて特定する。基準時間算定部は、特定された当該オブジェクトについて、仮想空間内における視点を基準とした奥行き方向の距離に応じて定まる基準時間を算定する。継続時間計時部は、タッチパネルへの入力が継続されている間の継続時間を計時する。そして、入力判定部は、算出された基準時間と計時された継続時間との関係に基づいて、当該オブジェクトへの入力の有効無効を判定する。例えば、入力判定部は、算定された基準時間よりも長い間、継続時間が計時された場合に限り、その入力を有効と判定する。   First, the position information management unit manages position information of objects (for example, characters and items) arranged in a three-dimensional virtual space. The display control unit captures a virtual space including the object from a virtual camera serving as a viewpoint, generates an image projected on a predetermined screen plane, and displays the image on the display screen. The input detection unit responds to an input on the touch panel and detects an input position on the display screen. The object specifying unit specifies the object displayed at the detected input position based on the managed position information. The reference time calculation unit calculates a reference time determined according to the distance in the depth direction with respect to the identified object in the virtual space. The continuation time counter measures the continuation time while the input to the touch panel is continued. The input determination unit determines whether the input to the object is valid or invalid based on the relationship between the calculated reference time and the measured duration. For example, the input determination unit determines that the input is valid only when the duration is counted for a longer time than the calculated reference time.

すなわち、近くに表示されるオブジェクトには、短いタッチ操作を行うことが要請され、逆に、遠くに表示されるオブジェクトには、長いタッチ操作を行うことが要請される。このような継続時間が長短異なるタッチ操作は、表示されるオブジェクトの遠近感等に沿ったものであり、プレイヤは、ゲーム画面から感じている仮想空間の広がりを損なうことなく、敵キャラクタへの入力を行うことができる。
この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
That is, an object displayed near is required to perform a short touch operation, and conversely, an object displayed far away is required to perform a long touch operation. Such touch operations with different durations are in line with the perspective of the displayed object, and the player can input to the enemy character without impairing the expanse of the virtual space felt from the game screen. It can be performed.
As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.

オブジェクト特定部は、入力位置に複数のオブジェクトが重なって表示されている場合に、当該各オブジェクトのZ値を比較して最も視点に近いオブジェクトを特定し、
基準時間算定部は、特定されたオブジェクトの当該Z値に所定の係数を乗じて基準時間を算定してもよい。
この場合、オブジェクトを適切に特定でき、また、基準時間も適切に算定することができる。
The object specifying unit specifies the object closest to the viewpoint by comparing the Z value of each object when a plurality of objects are displayed overlapping the input position,
The reference time calculation unit may calculate the reference time by multiplying the Z value of the identified object by a predetermined coefficient.
In this case, the object can be specified appropriately, and the reference time can also be calculated appropriately.

入力検出部は、タッチパネルへの入力が継続している間において、入力位置を順次検出し、
オブジェクト特定部は、順次検出される当該入力位置に表示されるオブジェクトの有無を、位置情報管理部に管理される現在の位置情報に基づいて順次特定し、
継続時間計時部は、オブジェクト特定部によりオブジェクトが特定された際に継続時間の計時を開始し、オブジェクト特定部により当該オブジェクトが特定されなくなった際、若しくは、タッチパネルへの入力がなくなった際に、継続時間の計時を停止してもよい。
この場合、タッチ操作が続いている間に、タッチペン等の位置がずれたり、また、表示側のオブジェクトの位置が変化する場合に対応して、タッチ操作の有効性をより厳格に判定することができる。
The input detection unit sequentially detects the input position while the input to the touch panel continues.
The object specifying unit sequentially specifies the presence or absence of an object displayed at the input position that is sequentially detected based on the current position information managed by the position information management unit,
The duration timer starts counting the duration when the object is specified by the object specifying unit, and when the object is not specified by the object specifying unit or when there is no input to the touch panel, You may stop timing the duration.
In this case, it is possible to determine the effectiveness of the touch operation more strictly in response to a case where the position of the touch pen or the like is shifted while the touch operation is continued or the position of the object on the display side is changed. it can.

本発明の第3の観点に係る入力判定方法は、表示画面への入力を受け付ける入力受付装置が実行する入力判定方法であって、表示制御ステップ、オブジェクト特定ステップ、及び、入力判定ステップを備えて構成される。   An input determination method according to a third aspect of the present invention is an input determination method executed by an input receiving device that receives an input to a display screen, and includes a display control step, an object specifying step, and an input determination step. Composed.

まず、表示制御ステップでは、仮想空間内に配置されるオブジェクト(例えば、キャラクタやアイテム等)を含んだ画像を生成し、表示画面に表示する。また、オブジェクト特定ステップでは、表示画面への入力に応答し、入力位置に表示されているオブジェクトを特定する。そして、入力判定ステップでは、特定された当該オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、この基準時間と入力が持続された時間との関係に基づいて、当該オブジェクトへの入力の有効無効を判定する。例えば、入力判定ステップでは、特定されたオブジェクトの奥行き方向の距離に応じて定まる基準時間を算定し、この基準時間よりも長い間、入力が続けられた場合に限り、その入力を有効と判定する。   First, in the display control step, an image including an object (for example, a character or an item) arranged in the virtual space is generated and displayed on the display screen. In the object specifying step, the object displayed at the input position is specified in response to the input on the display screen. Then, in the input determination step, for the identified object, a reference time determined according to the distance in the virtual space with reference to the viewpoint is obtained, and based on the relationship between the reference time and the time during which the input is continued, Validity / invalidity of input to the object is determined. For example, in the input determination step, a reference time determined according to the distance in the depth direction of the specified object is calculated, and the input is determined to be valid only when the input is continued for a longer time than the reference time. .

すなわち、近くに表示されるオブジェクトには、短いタッチ操作を行うことが要請され、逆に、遠くに表示されるオブジェクトには、長いタッチ操作を行うことが要請される。このような継続時間が長短異なるタッチ操作は、表示されるオブジェクトの遠近感等に沿ったものであり、プレイヤは、ゲーム画面から感じている仮想空間の広がりを損なうことなく、敵キャラクタへの入力を行うことができる。
この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
That is, an object displayed near is required to perform a short touch operation, and conversely, an object displayed far away is required to perform a long touch operation. Such touch operations with different durations are in line with the perspective of the displayed object, and the player can input to the enemy character without impairing the expanse of the virtual space felt from the game screen. It can be performed.
As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.

本発明の第4の観点に係るプログラムは、表示画面への入力を受け付けるコンピュータ(電子機器を含む。)を、上記の入力受付装置として機能させるように構成する。   A program according to a fourth aspect of the present invention is configured to cause a computer (including an electronic device) that receives an input to a display screen to function as the input receiving device.

このプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。   This program can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。   The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。   According to the present invention, an input operation on an object arranged in a virtual space can be performed without causing the player to feel uncomfortable.

本実施形態に係る入力受付装置が実現される典型的なゲーム装置の外観を示す模式図である。It is a schematic diagram which shows the external appearance of the typical game device with which the input reception apparatus which concerns on this embodiment is implement | achieved. 典型的なゲーム装置の概要構成を示すブロック図である。It is a block diagram which shows schematic structure of a typical game device. 本実施形態に係る入力受付装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the input reception apparatus which concerns on this embodiment. (a),(b)共に、仮想カメラとオブジェクトとの関係を説明するための模式図である。(A), (b) is a schematic diagram for demonstrating the relationship between a virtual camera and an object. (a)〜(c)全て、オブジェクトの特定について説明するための模式図である。(A)-(c) is a schematic diagram for demonstrating identification of an object. (a),(b)共に、オブジェクトを特定する他の手法を説明するための模式図である。(A), (b) is a schematic diagram for demonstrating the other method of specifying an object. (a),(b)共に、Z値と基準時間との関係を説明するための模式図である。(A), (b) is a schematic diagram for demonstrating the relationship between Z value and reference | standard time. 本実施形態に係る入力判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the input determination process which concerns on this embodiment. (a)〜(d)全て、具体的なゲーム画像等を説明するための模式図である。(A)-(d) is a schematic diagram for demonstrating a specific game image etc. all.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、携帯型ゲーム機(ゲーム装置)に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA、携帯電話などの情報処理装置においても同様に本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is applied to a portable game machine (game device) will be described. However, the present invention is similarly applied to information processing devices such as various computers, PDAs, and mobile phones. The invention can be applied. In other words, the embodiments described below are for illustrative purposes and do not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、本発明の実施の形態に係る入力受付装置が実現される典型的なゲーム装置の外観を示す模式図である。このゲーム装置1は、一例として、携帯型のゲーム機器であり、図示するように、操作キー17と、第1の表示部18と、第2の表示部19とを有している。第1及び第2の表示部18,19には、所定の画像が表示可能となっている。なお、第2の表示部19の前面にはタッチパネル20が配置されている。つまり、操作キー17からの入力だけでなく、タッチパネル20からの入力も可能となっている。   FIG. 1 is a schematic diagram showing an appearance of a typical game device in which the input receiving device according to the embodiment of the present invention is realized. As an example, the game apparatus 1 is a portable game machine, and includes an operation key 17, a first display unit 18, and a second display unit 19 as illustrated. A predetermined image can be displayed on the first and second display units 18 and 19. A touch panel 20 is disposed on the front surface of the second display unit 19. That is, not only input from the operation key 17 but also input from the touch panel 20 is possible.

図2は、このゲーム装置1の概要構成を示すブロック図である。以下、本図を参照してゲーム装置1について説明する。   FIG. 2 is a block diagram showing a schematic configuration of the game apparatus 1. Hereinafter, the game apparatus 1 will be described with reference to FIG.

ゲーム装置1は、処理制御部10と、コネクタ11と、カートリッジ12と、無線通信部13と、通信コントローラ14と、サウンドアンプ15と、スピーカ16と、操作キー17と、第1の表示部18と、第2の表示部19と、タッチパネル20と、を備える。   The game apparatus 1 includes a processing control unit 10, a connector 11, a cartridge 12, a wireless communication unit 13, a communication controller 14, a sound amplifier 15, a speaker 16, an operation key 17, and a first display unit 18. And a second display unit 19 and a touch panel 20.

処理制御部10は、CPU(Central Processing Unit)コア10aと、画像処理部10bと、クロック回路10cと、VRAM(Video Random Access Memory)10dと、WRAM(Work RAM)10eと、LCD(Liquid Crystal Display)コントローラ10fと、タッチパネルコントローラ10gと、を備える。   The processing control unit 10 includes a CPU (Central Processing Unit) core 10a, an image processing unit 10b, a clock circuit 10c, a VRAM (Video Random Access Memory) 10d, a WRAM (Work RAM) 10e, and an LCD (Liquid Crystal Display). ) A controller 10f and a touch panel controller 10g are provided.

CPUコア10aは、ゲーム装置1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory)12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。   The CPU core 10a controls the overall operation of the game apparatus 1 and is connected to each component to exchange control signals and data. Specifically, a program and data stored in a ROM (Read Only Memory) 12a in the cartridge 12 are read out with the cartridge 12 mounted in the connector 11, and predetermined processing is executed.

画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10dに格納する。   The image processing unit 10b processes the data read from the ROM 12a in the cartridge 12 and the data processed by the CPU core 10a, and stores the processed data in the VRAM 10d.

クロック回路10cは、種々の時間(時刻)を計時するための回路であり、ゲーム装置1に設定された現在時刻や、ゲーム中に必要となる経過時間(後述する継続時間等)を計時する。   The clock circuit 10c is a circuit for measuring various times (time), and measures the current time set in the game apparatus 1 and the elapsed time (such as duration described later) required during the game.

VRAM 10dは、表示用の情報を記憶するメモリであり、画像処理部10b等により加工された画像情報を記憶する。
WRAM 10eは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。
The VRAM 10d is a memory for storing information for display, and stores image information processed by the image processing unit 10b and the like.
The WRAM 10e stores work data and the like necessary when the CPU core 10a executes various processes according to the program.

LCDコントローラ10fは、第1の表示部18および、第2の表示部19を制御し、所定の表示用画像を表示させる。例えば、LCDコントローラ10fは、VRAM 10dに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、第1の表示部18に出力する。また、LCDコントローラ10fは、同様に、第2の表示部19に所定の表示用画像を表示する。   The LCD controller 10f controls the first display unit 18 and the second display unit 19 to display a predetermined display image. For example, the LCD controller 10 f converts the image information stored in the VRAM 10 d into a display signal at a predetermined synchronization timing, and outputs it to the first display unit 18. Similarly, the LCD controller 10 f displays a predetermined display image on the second display unit 19.

タッチパネルコントローラ10gは、タッチペンやプレイヤの指によって、タッチパネル20が押下されると、その座標(入力座標)を取得する。   When the touch panel 20 is pressed with a touch pen or a player's finger, the touch panel controller 10g acquires the coordinates (input coordinates).

コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。   The connector 11 is a terminal that can be detachably connected to the cartridge 12, and transmits / receives predetermined data to / from the cartridge 12 when the cartridge 12 is connected.

カートリッジ12は、ROM 12aと、RAM(Random Access Memory)12bと、を備える。
ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
The cartridge 12 includes a ROM 12a and a RAM (Random Access Memory) 12b.
The ROM 12a stores a program for realizing the game and image data, sound data, and the like accompanying the game.
The RAM 12b stores various data indicating the progress of the game.

無線通信部13は、他のゲーム装置1の無線通信部13との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。
なお、無線通信部13は、所定の無線アクセスポイントとの間で、無線通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。
The wireless communication unit 13 is a unit that performs wireless communication with the wireless communication unit 13 of another game apparatus 1 and transmits / receives predetermined data via an antenna (not shown) (built-in antenna or the like).
The wireless communication unit 13 can also perform wireless communication with a predetermined wireless access point. The wireless communication unit 13 is assigned a unique MAC (Media Access Control) address.

通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他のゲーム装置1の処理制御部10との間で行われる無線通信の仲立ちをする。
また、ゲーム装置1が、近傍の無線アクセスポイント等を介してインターネットに接続する際には、無線LANに準拠したプロトコルに沿って、処理制御部10と無線アクセスポイント等との間で行われる無線通信の仲立ちをする。
The communication controller 14 controls the wireless communication unit 13 and mediates wireless communication performed between the process control unit 10 and the process control unit 10 of another game device 1 in accordance with a predetermined protocol.
Further, when the game apparatus 1 connects to the Internet via a nearby wireless access point or the like, wireless communication performed between the processing control unit 10 and the wireless access point or the like is performed according to a protocol compliant with the wireless LAN. Intermediary communication.

サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。
スピーカ16は、例えば、ステレオスピーカ等からなり、サウンドアンプ15にて増幅された音声信号に従って、所定の楽曲音や効果音等を出力する。
The sound amplifier 15 amplifies the audio signal generated by the processing control unit 10 and supplies it to the speaker 16.
The speaker 16 is composed of, for example, a stereo speaker, and outputs predetermined music sound, sound effect, and the like according to the audio signal amplified by the sound amplifier 15.

操作キー17は、ゲーム装置1に適宜配置された複数のキースイッチ等からなり、ユーザの操作に従って、所定の指示入力を受け付ける。   The operation key 17 includes a plurality of key switches and the like appropriately arranged on the game apparatus 1 and receives a predetermined instruction input according to a user operation.

第1の表示部18および、第2の表示部19は、LCD等からなり、LCDコントローラ10fに制御され、ゲーム画像等を適宜表示する。
例えば、第2の表示部19は、タッチパネル20への入力(押下)の目標となる所定のオブジェクト(例えば、キャラクタやアイテム等)を含むゲーム画像を表示する。
The 1st display part 18 and the 2nd display part 19 consist of LCD etc., are controlled by LCD controller 10f, and display a game image etc. suitably.
For example, the second display unit 19 displays a game image including a predetermined object (for example, a character or an item) that is a target for input (pressing) to the touch panel 20.

タッチパネル20は、第2の表示部19の前面に重畳して配置され、タッチペンやプレイヤの指による入力を検出する。
例えば、タッチパネル20は、抵抗膜方式のタッチセンサパネル等からなり、タッチペン等による押圧(押下)を検知し、その座標に応じた情報(信号等)を出力する。
The touch panel 20 is arranged so as to be superimposed on the front surface of the second display unit 19 and detects an input by a touch pen or a player's finger.
For example, the touch panel 20 includes a resistive film type touch sensor panel and the like, detects a press (pressing) with a touch pen or the like, and outputs information (signal or the like) according to the coordinates.

(入力受付装置の概要)
図3は、本実施の形態に係る入力受付装置100の概要構成を示すブロック図である。なお、入力受付装置100は、三次元の仮想空間内に配置された各種オブジェクトを含むゲーム画像を表示した状態で、プレイヤにより行われる任意のオブジェクトに向けた入力操作(タッチ操作)を受け付ける装置である。以下、本図を参照して入力受付装置100について説明する。
(Outline of the input receiving device)
FIG. 3 is a block diagram showing a schematic configuration of the input receiving apparatus 100 according to the present embodiment. The input receiving device 100 is a device that receives an input operation (touch operation) directed to an arbitrary object performed by the player in a state where a game image including various objects arranged in a three-dimensional virtual space is displayed. is there. Hereinafter, the input receiving apparatus 100 will be described with reference to FIG.

図示するように、入力受付装置100は、オブジェクト記憶部110と、位置情報管理部120と、表示制御部130と、入力検出部140と、キー操作受付部150と、処理制御部160とを備える。   As illustrated, the input reception device 100 includes an object storage unit 110, a position information management unit 120, a display control unit 130, an input detection unit 140, a key operation reception unit 150, and a processing control unit 160. .

まず、オブジェクト記憶部110は、仮想空間内に配置される各種オブジェクトの情報を記憶する。例えば、キャラクタ(プレイヤキャラクタや敵キャラクタ等)、アイテム(宝箱や壺等)、及び、建物(扉や壁、床や天井等)といった各オブジェクトの情報を記憶する。各オブジェクトの情報には、3次元モデルやテクスチャ等の画像情報が含まれており、表示制御部130がゲーム画像を生成する際に使用される。
なお、上述したカートリッジ12内のROM 12a等が、このようなオブジェクト記憶部110として機能しうる。
First, the object storage unit 110 stores information on various objects arranged in the virtual space. For example, information of each object such as a character (player character, enemy character, etc.), item (treasure box, bag, etc.) and building (door, wall, floor, ceiling, etc.) is stored. The information of each object includes image information such as a three-dimensional model and texture, and is used when the display control unit 130 generates a game image.
The ROM 12a in the cartridge 12 described above can function as such an object storage unit 110.

位置情報管理部120は、プレイヤキャラクタや敵キャラクタといった仮想空間内で位置が変化するオブジェクトの位置情報(現在位置や向き等)を管理する。例えば、プレイヤキャラクタは、キー操作受付部150によって受け付けたキー操作(一例として、移動方向指示等)に従って、仮想空間内の位置や向きが変化するため、位置情報管理部120にてその位置情報が管理される。また、敵キャラクタも所定のロジックに従って適宜移動し、仮想空間内の位置等が変化するため、同様に位置情報が管理される。
更に、位置情報管理部120は、仮想空間を撮影するための仮想カメラの位置情報も管理する。つまり、視点となる仮想カメラの位置やその向き(視線方向)等を管理する。一例として、ゲームの表示が、第三者視点モード(プレイヤキャラクタを俯瞰する視点)に設定されている場合では、プレイヤキャラクタの後方(背後)の斜め上方に、仮想カメラの位置(視点位置)が設定され、また、そこからプレイヤキャラクタを見下ろすように視線の方向が設定される。つまり、プレイヤキャラクタが移動すると、それに追随するように、仮想カメラの位置(視点の位置)が適宜変更されるため、仮想カメラの位置情報も管理される。
この他にも、位置情報管理部120は、建物等のような仮想空間内の位置が変わらない(動かない)オブジェクトについても、その位置情報を管理してもよい。
なお、上述した処理制御部10のCPUコア10aやWRAM 10e等が、このような位置情報管理部120として機能しうる。
The position information management unit 120 manages position information (current position, orientation, etc.) of an object whose position changes in the virtual space, such as a player character or an enemy character. For example, a player character changes its position and orientation in the virtual space in accordance with a key operation received by the key operation receiving unit 150 (for example, a moving direction instruction). Managed. Further, since the enemy character also moves appropriately according to a predetermined logic and the position in the virtual space changes, the position information is similarly managed.
Further, the position information management unit 120 also manages position information of the virtual camera for photographing the virtual space. In other words, the position of the virtual camera serving as the viewpoint and the direction (line-of-sight direction) are managed. As an example, when the display of the game is set to the third-party viewpoint mode (viewing point over the player character), the position (viewing point position) of the virtual camera is obliquely above and behind (behind) the player character. The direction of the line of sight is set so that the player character is looked down from there. In other words, when the player character moves, the position of the virtual camera (the position of the viewpoint) is appropriately changed so as to follow the player character, so that the position information of the virtual camera is also managed.
In addition, the position information management unit 120 may manage the position information of an object whose position in the virtual space such as a building does not change (does not move).
Note that the CPU core 10a, the WRAM 10e, and the like of the processing control unit 10 described above can function as such a position information management unit 120.

表示制御部130は、各オブジェクトが配置される仮想空間を、視点から眺望するゲーム画像を生成し、生成したゲーム画像を表示部(例えば、上述した第2の表示部19等)に表示する。つまり、キャラクタ(プレイヤキャラクタや敵キャラクタ等)、建物(扉や壁等)、アイテム(宝箱や壺等)といった各オブジェクトを、位置情報管理部120にて管理される位置情報に従って仮想空間内に配置し、これらを仮想カメラ(現在の視点位置)から撮影した画像を生成する。つまり、図4(a)に示すように、各オブジェクトOJが配置された三次元の仮想空間を、視点VPの仮想カメラから撮影した画像を生成する。なお、より詳細には、表示制御部130は、図4(b)に示すように、視点VPに基づいた視界領域VFに含まれるオブジェクトOJを、スクリーン平面SCに投影変換した二次元の画像を生成する。そして、表示制御部130は、この二次元の画像を上述した第2の表示部19等に表示する。
なお、上述した画像処理部10bが、このような表示制御部130として機能しうる。
The display control unit 130 generates a game image for viewing the virtual space where each object is arranged from the viewpoint, and displays the generated game image on the display unit (for example, the second display unit 19 described above). That is, each object such as a character (player character, enemy character, etc.), building (door, wall, etc.), item (treasure box, bag, etc.) is arranged in the virtual space according to the location information managed by the location information management unit 120. Then, an image obtained by photographing these from a virtual camera (current viewpoint position) is generated. That is, as shown in FIG. 4A, an image obtained by photographing a three-dimensional virtual space in which each object OJ is arranged from a virtual camera at the viewpoint VP is generated. In more detail, as shown in FIG. 4B, the display control unit 130 projects a two-dimensional image obtained by projecting and transforming the object OJ included in the field of view VF based on the viewpoint VP onto the screen plane SC. Generate. Then, the display control unit 130 displays the two-dimensional image on the second display unit 19 described above.
The image processing unit 10b described above can function as such a display control unit 130.

入力検出部140は、タッチパネル20から得られる情報に基づいて、タッチペンや指等による入力(タッチ操作)を検出し、その入力位置(入力座標)を取得する。
例えば、入力検出部140は、タッチパネル20から供給されるX軸方向(水平方向)及び、Y軸方向(垂直方向)の各電圧(電圧の変化等)からタッチ操作を検出すると共に、その各方向の電圧値に基づいて入力位置を取得する。
なお、入力検出部140は、タッチ操作(タッチパネル20への押下)が続いている状態や、その間の入力位置の変化等についても逐次検出する。
なお、上述したタッチパネルコントローラ10gが、このような入力検出部140として機能しうる。
The input detection unit 140 detects an input (touch operation) with a touch pen, a finger, or the like based on information obtained from the touch panel 20, and acquires the input position (input coordinates).
For example, the input detection unit 140 detects a touch operation from each voltage (voltage change or the like) in the X-axis direction (horizontal direction) and the Y-axis direction (vertical direction) supplied from the touch panel 20, and each direction. The input position is acquired based on the voltage value of.
Note that the input detection unit 140 sequentially detects a state in which a touch operation (pressing on the touch panel 20) continues, a change in an input position during the time, and the like.
The touch panel controller 10g described above can function as such an input detection unit 140.

キー操作受付部150は、プレイヤによってなされる各キーへの操作を受け付ける。
例えば、キー操作受付部150は、上述した操作キー17における方向キーがプレイヤにより操作されると、プレイヤキャラクタの移動指示を受け付ける。また、キー操作受付部150は、操作キー17における他のキー(一例として、Aボタン,Bボタン,Xボタン,Yボタン等)がプレイヤにより操作されると、それらに対応付けられたプレイヤキャラクタへの動作指示(一例として、武器等を使う、アイテムを拾う、しゃがむ、伏せる等)を受け付ける。
なお、上述した操作キー17が、このようなキー操作受付部150として機能しうる。
The key operation accepting unit 150 accepts an operation on each key performed by the player.
For example, the key operation accepting unit 150 accepts a movement instruction of the player character when the direction key in the operation key 17 described above is operated by the player. Further, when other keys (for example, an A button, a B button, an X button, a Y button, etc.) in the operation keys 17 are operated by the player, the key operation accepting unit 150 moves to the player character associated with them. (For example, using weapons, picking up items, squatting, lying down, etc.) are accepted.
The operation key 17 described above can function as such a key operation receiving unit 150.

処理制御部160は、入力受付装置100全体を制御する。例えば、処理制御部160は、タッチパネル20へのタッチペン等によるタッチ操作が入力検出部140により検出されると、対象のオブジェクトを特定し、そのオブジェクトの仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。そして、その基準時間を超えるまでタッチ操作が維持された(タッチペン等により押下され続けた)場合に、そのオブジェクトへの入力を有効と判別する。
また、処理制御部160は、キー操作受付部150が、例えば、プレイヤキャラクタへの移動指示等を受け付けると、その操作内容に応じて、位置情報管理部120を制御して、プレイヤキャラクタや視点(仮想カメラ)の位置情報を適宜更新する。
The process control unit 160 controls the entire input receiving device 100. For example, when a touch operation on the touch panel 20 with a touch pen or the like is detected by the input detection unit 140, the processing control unit 160 identifies a target object and is determined according to the depth direction distance of the object in the virtual space. Calculate the reference time. When the touch operation is maintained until the reference time is exceeded (when the touch operation is continued to be pressed with a touch pen or the like), it is determined that the input to the object is valid.
Further, when the key operation accepting unit 150 accepts, for example, a movement instruction to the player character, the processing control unit 160 controls the position information managing unit 120 according to the operation content, so that the player character and the viewpoint ( The position information of the (virtual camera) is updated as appropriate.

このような制御を行う処理制御部160は、一例として、オブジェクト特定部161、基準時間算定部162、継続時間計時部163、及び、入力判定部164を含んで構成される。以下、各構成について説明する。   As an example, the processing control unit 160 that performs such control includes an object specifying unit 161, a reference time calculation unit 162, a duration measuring unit 163, and an input determination unit 164. Each configuration will be described below.

オブジェクト特定部161は、入力検出部140によって検出された入力位置に表示されているオブジェクトを特定する。
すなわち、オブジェクト特定部161は、入力位置に対応する表示位置を求め、その表示位置に表示されているオブジェクトを、位置情報管理部120の位置情報に基づいて特定する。例えば、オブジェクト特定部161は、図5(a)に示すように、画面SC上の表示位置P(入力位置に対応する表示位置)から奥行き方向であるZ軸方向に沿って直線SLを延ばし、この直線SLと交差するオブジェクトOJを特定する。この際、バウンディングボックスを用いてオブジェクトOJを特定してもよい。つまり、図5(b)に示すようなバウンディングボックスBBの情報を、位置情報管理部120にて管理している場合には、直線SLと交差するバウンディングボックスBBから、対応するオブジェクトOJを特定してもよい。
また、図5(c)に示すように、直線SLが複数のオブジェクトOJと交差する場合には、オブジェクト特定部161は、各オブジェクトのZ値を比較して最も視点(画面SC側)に近いオブジェクトOJを特定する。また、図5(a)〜(c)では、直線SLを細線にて示しているが、これは説明のための一例であり、直線SLに所定の幅(太さ)を持たせて、オブジェクトOJと交差しやすくしてもよい。なお、このような直線SLが何れのオブジェクトOJとも交差しない場合には、オブジェクト特定部161は、何れのオブジェクトOJも特定しない(つまり、入力位置Pには何れのオブジェクトOJも表示されていないと判別する)。
The object specifying unit 161 specifies an object displayed at the input position detected by the input detecting unit 140.
That is, the object specifying unit 161 obtains a display position corresponding to the input position, and specifies the object displayed at the display position based on the position information of the position information management unit 120. For example, as illustrated in FIG. 5A, the object specifying unit 161 extends a straight line SL along the Z-axis direction that is the depth direction from the display position P (display position corresponding to the input position) on the screen SC. An object OJ that intersects with the straight line SL is specified. At this time, the object OJ may be specified using a bounding box. That is, when the information on the bounding box BB as shown in FIG. 5B is managed by the position information management unit 120, the corresponding object OJ is specified from the bounding box BB intersecting the straight line SL. May be.
Further, as shown in FIG. 5C, when the straight line SL intersects with a plurality of objects OJ, the object specifying unit 161 compares the Z values of the objects and is closest to the viewpoint (screen SC side). The object OJ is specified. Further, in FIGS. 5A to 5C, the straight line SL is shown by a thin line, but this is an example for explanation, and the straight line SL is given a predetermined width (thickness) to create an object. It may be easy to cross OJ. Note that when such a straight line SL does not intersect any object OJ, the object specifying unit 161 does not specify any object OJ (that is, no object OJ is displayed at the input position P). To determine).

なお、このようなオブジェクトの特定手法は、一例であり、他の手法によりオブジェクトを特定してもよい。例えば、投影変換した後の二次元画像を基にして、オブジェクトを特定してもよい。具体的には、図6(a)に示すように、画面SCに表示される二次元画像における各オブジェクトOJの領域情報を、位置管理情報部120にて管理している場合には、表示位置Pと重なる(表示位置Pが含まれる)オブジェクトOJを特定する。なお、この際にも、図6(b)に示すようなバウンディングボックスBBの情報を、位置情報管理部120にて管理している場合には、表示位置Pと重なるバウンディングボックスBBから、オブジェクトOJを特定してもよい。
なお、上述したCPUコア10aやWRAM 10e等が、このようなオブジェクト特定部161として機能しうる。
Note that such an object specifying method is an example, and the object may be specified by another method. For example, an object may be specified based on a two-dimensional image after projection conversion. Specifically, as shown in FIG. 6A, when the area information of each object OJ in the two-dimensional image displayed on the screen SC is managed by the position management information unit 120, the display position An object OJ that overlaps P (including the display position P) is specified. Also in this case, when the information of the bounding box BB as shown in FIG. 6B is managed by the position information management unit 120, the object OJ is detected from the bounding box BB overlapping the display position P. May be specified.
Note that the CPU core 10a, the WRAM 10e, and the like described above can function as such an object specifying unit 161.

図3に戻って、基準時間算定部162は、オブジェクト特定部161によって特定されたオブジェクトについて、視点(スクリーン平面)を基準とした仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。例えば、基準時間算定部162は、特定されたオブジェクトのZ値に基づいて基準時間を算定する。より具体的には、Z値が大きくなるに伴って基準時間が長くなるように、一例として、図7(a)に示すような、Z値と基準時間とが比例関係となる係数を、オブジェクトのZ値に乗じる等によって基準時間を算定する。
なお、基準時間を求めるための係数は、このような比例関係となるものに限られず任意である。例えば、図7(b)に示すようなZ値の値が小さい範囲で基準時間がより大きく増加する係数を乗じる等によって、基準時間を算定してもよい。
なお、上述したCPUコア10aやWRAM 10e等が、このような基準時間算定部162として機能しうる。
Returning to FIG. 3, the reference time calculation unit 162 calculates a reference time determined according to the distance in the depth direction in the virtual space with respect to the viewpoint (screen plane) for the object specified by the object specifying unit 161. . For example, the reference time calculation unit 162 calculates the reference time based on the Z value of the identified object. More specifically, as an example, a coefficient in which the Z value and the reference time are proportional to each other as shown in FIG. 7A is used so that the reference time becomes longer as the Z value increases. The reference time is calculated by multiplying the Z value of.
The coefficient for obtaining the reference time is not limited to such a proportional relationship and is arbitrary. For example, the reference time may be calculated by multiplying a coefficient that increases the reference time more greatly in a range where the Z value is small as shown in FIG.
The CPU core 10a, the WRAM 10e, and the like described above can function as such a reference time calculation unit 162.

図3に戻って、継続時間計時部163は、タッチパネル20への入力が続いている(維持されている)間の継続時間を計時する。すなわち、入力検出部140によりタッチ操作が検出されてから、タッチパネル20からタッチペン等が離されることなく押下(タッチ操作)され続けている時間を計時する。
例えば、継続時間計時部163は、タッチ操作に応じて、初期値(例えば、0)のタイマ値からカウントアップ(計時)を開始する。このカウントアップは、タッチ操作が終わるまで(タッチパネル20からタッチペン等が離されるまで)、若しくは、基準時間を超えるまで続けられる。
なお、上述したクロック回路10cが、このような継続時間計時部163として機能しうる。
Returning to FIG. 3, the continuous time measuring unit 163 measures the continuous time while the input to the touch panel 20 is continued (maintained). That is, after the touch operation is detected by the input detection unit 140, the time during which the touch pen or the like is continuously pressed (touch operation) without being released from the touch panel 20 is counted.
For example, the continuation time counting unit 163 starts counting up (clocking) from an initial value (for example, 0) timer value in response to the touch operation. This count-up is continued until the touch operation ends (until the touch pen is released from the touch panel 20) or until the reference time is exceeded.
Note that the above-described clock circuit 10c can function as such a duration measuring unit 163.

入力判定部164は、算出された基準時間と、計時された継続時間との関係に基づいて、オブジェクトへの入力の有効無効を判定する。つまり、基準時間算定部162にて算出された基準時間よりも、継続時間計時部163にて計時された継続時間の方が大きい場合に、入力判定部164は、そのオブジェクトへの入力が有効であると判定する。
例えば、継続時間計時部163が計時中の継続時間(タイマ値)が基準時間を超えた時点で、入力判定部164は、オブジェクトへの入力が有効であると判定する。一方、計時された継続時間が、算出された基準時間を超えることなくタッチ操作が終わると、入力判定部164は、そのオブジェクトへの入力が無効であると判定する。
つまり、入力判定部164は、オブジェクトの奥行き方向の距離に応じた基準時間を超えるまでタッチ操作が続けられた場合に限り、そのオブジェクトへの入力が有効であると判定する。
なお、上述したCPUコア10aやWRAM 10e等が、このような入力判定部164として機能しうる。
The input determination unit 164 determines whether the input to the object is valid or invalid based on the relationship between the calculated reference time and the measured duration. That is, when the duration time measured by the duration time counting unit 163 is larger than the reference time calculated by the reference time calculation unit 162, the input determination unit 164 is effective for input to the object. Judge that there is.
For example, the input determination unit 164 determines that the input to the object is valid when the continuation time (timer value) being measured by the duration time measurement unit 163 exceeds the reference time. On the other hand, when the touch operation is completed without the measured duration exceeding the calculated reference time, the input determination unit 164 determines that the input to the object is invalid.
That is, the input determination unit 164 determines that the input to the object is valid only when the touch operation is continued until the reference time corresponding to the distance in the depth direction of the object is exceeded.
The above-described CPU core 10a, WRAM 10e, and the like can function as such an input determination unit 164.

このような構成の処理制御部160は、プレイヤによるタッチパネル20へのタッチ操作に応じて、仮想空間内における対象のオブジェクトを特定し、そのオブジェクトの奥行き方向の距離に応じた基準時間を超えるまでそのタッチ操作が持続されると、そのオブジェクトへの入力を有効と判別する。これにより、視点から近いオブジェクトには、短くタッチ操作を行うだけでそのオブジェクトへの入力が行えるが、視点から遠いオブジェクトには、その分長くタッチ操作を行わないと、そのオブジェクトへの入力が行えないことになる。このため、プレイヤは、三次元の仮想空間を表現したゲーム画面を見ながら、その中の任意のオブジェクトに対して、感じている遠近感に沿った自然な(違和感のない)入力操作が行えることになる。   The processing control unit 160 configured as described above identifies a target object in the virtual space in response to a touch operation on the touch panel 20 by the player, and until the reference time corresponding to the distance in the depth direction of the object is exceeded. When the touch operation is continued, it is determined that the input to the object is valid. As a result, an object close to the viewpoint can be input to the object by performing a short touch operation, but an object far from the viewpoint can be input to the object if the touch operation is not performed for that long. There will be no. For this reason, the player can perform a natural (no sense of incongruity) input operation according to the sense of perspective to any object in the game screen while representing the game screen representing the three-dimensional virtual space. become.

(入力受付装置の動作の概要)
以下、このような構成の入力受付装置100の動作について図面を参照して説明する。図8は、入力受付装置100において実行される入力判定処理の流れを示すフローチャートである。以下、本図を参照して説明する。なお、この入力判定処理は、一例として、攻撃対象となる敵キャラクタを、プレイヤがタッチ操作により指示するアクションゲームにおいて実行されるものとする。
(Overview of the operation of the input reception device)
Hereinafter, the operation of the input receiving apparatus 100 having such a configuration will be described with reference to the drawings. FIG. 8 is a flowchart showing a flow of input determination processing executed in the input receiving apparatus 100. Hereinafter, a description will be given with reference to FIG. Note that this input determination processing is executed as an example in an action game in which a player instructs an enemy character to be attacked by a touch operation.

まず、入力受付装置100は、敵キャラクタ等の位置情報に基づいたゲーム画像を表示する(ステップS201)。すなわち、表示制御部130は、キャラクタや建物等を含む各オブジェクトを、位置情報管理部120にて管理される位置情報に従って仮想空間内に配置し、これらを視点位置の仮想カメラから撮影した画像を生成する。
一例として、表示制御部130は、図9(a)に示すような、プレイヤキャラクタPC、及び、敵キャラクタEC1,EC2を含むゲーム画像を生成し、上述した第2の表示部19に表示する。
First, the input reception device 100 displays a game image based on position information such as enemy characters (step S201). That is, the display control unit 130 arranges each object including a character, a building, and the like in the virtual space according to the position information managed by the position information management unit 120, and captures an image obtained by shooting these from the virtual camera at the viewpoint position. Generate.
As an example, the display control unit 130 generates a game image including the player character PC and the enemy characters EC1 and EC2 as shown in FIG. 9A and displays the game image on the second display unit 19 described above.

入力受付装置100は、タッチ操作を検出したか否かを判別する(ステップS202)。すなわち、入力検出部140は、タッチパネル20から得られる情報に基づいて、タッチペン等によるタッチパネル20への入力を検出したかどうかを判別する。
入力受付装置100は、タッチ操作を検出していないと判別した場合(ステップS202;No)に、入力受付装置100は、上述したステップS201に処理を戻す。
The input receiving apparatus 100 determines whether or not a touch operation has been detected (step S202). That is, the input detection unit 140 determines whether an input to the touch panel 20 by a touch pen or the like is detected based on information obtained from the touch panel 20.
When it is determined that the touch operation is not detected (step S202; No), the input reception device 100 returns the process to step S201 described above.

一方、入力受付装置100は、タッチ操作を検出したと判別した場合(ステップS202;Yes)に、検出された入力位置に表示されている敵キャラクタを特定する(ステップS203)。
すなわち、処理制御部160は、例えば、図9(b)に示すように、タッチペンTPにて入力位置Pがタッチ操作された場合、その入力位置P(より詳細には、対応する表示位置)に表示されている敵キャラクタEC1を、位置情報管理部120の位置情報に基づいて特定する。つまり、オブジェクト特定部161は、上述した図5(a)に示すように、画面SC上の表示位置P(入力位置に対応する表示位置)から奥行き方向であるZ軸方向に沿って直線SLを延ばし、この直線SLと交差するオブジェクトOJ(図9(b)の場合に、敵キャラクタEC1)を特定する。
なお、入力位置Pに何れの敵キャラクタ等も表示されていない場合には、入力受付装置100は以降の処理を行わずに、上述したステップS201に処理を戻すものとする。
On the other hand, when it is determined that the touch operation has been detected (step S202; Yes), the input reception device 100 identifies the enemy character displayed at the detected input position (step S203).
That is, for example, as illustrated in FIG. 9B, when the input position P is touched with the touch pen TP, the processing control unit 160 sets the input position P (more specifically, the corresponding display position). The displayed enemy character EC1 is specified based on the position information of the position information management unit 120. That is, as shown in FIG. 5A described above, the object specifying unit 161 draws a straight line SL from the display position P (display position corresponding to the input position) on the screen SC along the Z-axis direction that is the depth direction. The object OJ that extends and intersects the straight line SL (the enemy character EC1 in the case of FIG. 9B) is specified.
When no enemy character or the like is displayed at the input position P, the input receiving apparatus 100 returns the process to step S201 described above without performing the subsequent processes.

入力受付装置100は、特定した敵キャラクタについて、奥行き方向の距離に応じて定まる基準時間を算定する(ステップS204)。
すなわち、処理制御部160は、ステップS203にて特定した例えば、図9(b)の敵キャラクタEC1について、視点を基準とした仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。つまり、基準時間算定部162は、特定した敵キャラクタEC1のZ値に基づいて基準時間を算定する。
一例として、基準時間算定部162は、Z値が大きくなるに伴って基準時間が長くなるように、上述した図7(a)や図7(b)に示すような、Z値と基準時間とが比例関係となる係数を、オブジェクトのZ値に乗じる等によって基準時間を算定する。
The input receiving apparatus 100 calculates a reference time determined according to the distance in the depth direction for the identified enemy character (step S204).
That is, the process control unit 160 calculates the reference time determined according to the distance in the depth direction in the virtual space with respect to the viewpoint, for example, for the enemy character EC1 of FIG. 9B specified in step S203. That is, the reference time calculation unit 162 calculates the reference time based on the Z value of the identified enemy character EC1.
As an example, the reference time calculation unit 162 determines the Z value and the reference time as shown in FIGS. 7A and 7B described above so that the reference time becomes longer as the Z value increases. The reference time is calculated by, for example, multiplying the Z value of the object by a coefficient having a proportional relationship.

入力受付装置100は、タッチ操作についての継続時間の計時を開始する(ステップS205)。
すなわち、処理制御部160は、タッチパネル20へのタッチ操作が継続している時間を示す継続時間の計時を開始する。つまり、継続時間計時部163は、タッチ操作に応じて、初期値(例えば、0)のタイマ値からのカウントアップを開始する。
The input reception device 100 starts measuring the duration time for the touch operation (step S205).
That is, the process control unit 160 starts measuring the duration time indicating the time during which the touch operation on the touch panel 20 is continued. That is, the continuous time measuring unit 163 starts counting up from an initial value (for example, 0) timer value in response to the touch operation.

入力受付装置100は、タッチ操作が維持されているか否かを判別する(ステップS206)。
すなわち、処理制御部160は、タッチパネル20からタッチペン等が離されることなく、タッチ操作が続いているかどうかを判別する。ここで、タッチ操作が維持されていないと判別すると(ステップS206;No)、入力受付装置100は、上述したステップS201に処理を戻す。
The input receiving apparatus 100 determines whether or not the touch operation is maintained (step S206).
That is, the process control unit 160 determines whether or not the touch operation is continued without releasing the touch pen from the touch panel 20. If it is determined that the touch operation is not maintained (step S206; No), the input reception device 100 returns the process to step S201 described above.

一方、タッチ操作が維持されていると判別した場合(ステップS206;Yes)に、入力受付装置100は、継続時間が基準時間を超えたか否かを判別する(ステップS207)。
すなわち、処理制御部160は、継続時間計時部163により計時されている継続時間が、基準時間算定部162にて算定された基準時間よりも大きくなったかどうかを判別する。ここで継続時間がまだ基準時間を超えていないと判別すると(ステップS207;No)、入力受付装置100は、上述したステップS206に処理を戻す。
On the other hand, when it is determined that the touch operation is maintained (step S206; Yes), the input reception device 100 determines whether or not the duration has exceeded the reference time (step S207).
That is, the process control unit 160 determines whether or not the duration time counted by the duration time counting unit 163 is longer than the reference time calculated by the reference time calculation unit 162. If it is determined that the duration time has not yet exceeded the reference time (step S207; No), the input receiving apparatus 100 returns the process to step S206 described above.

また、継続時間が基準時間を超えたと判別した場合(ステップS207;Yes)に、入力受付装置100は、敵キャラクタへの入力が有効であると判別する(ステップS208)。
すなわち、処理制御部160は、例えば、上述した図9(b)の例では、敵キャラクタEC1の奥行き方向の距離に応じて算出された基準時間よりも長くタッチ操作が継続された場合に、その敵キャラクタEC1への入力が有効であると判定する。つまり、入力判定部164は、その敵キャラクタEC1の奥行き方向の距離に応じて定まる基準時間よりも、継続時間計時部163により計時された継続時間の方が大きくなったため、その敵キャラクタEC1への入力が有効であると判定する。
なお、有効が判定された場合に、処理制御部160は、プレイヤキャラクタPCからその敵キャラクタEC1を狙って銃撃する等の攻撃処理を適宜行うものとする。
If it is determined that the duration time exceeds the reference time (step S207; Yes), the input receiving apparatus 100 determines that the input to the enemy character is valid (step S208).
That is, for example, in the example of FIG. 9B described above, the processing control unit 160, when the touch operation is continued longer than the reference time calculated according to the distance in the depth direction of the enemy character EC1, It is determined that the input to the enemy character EC1 is valid. In other words, the input determination unit 164 determines that the duration time counted by the duration time counting unit 163 is longer than the reference time determined according to the distance in the depth direction of the enemy character EC1, and thus the enemy character EC1 It is determined that the input is valid.
When the validity is determined, the process control unit 160 appropriately performs attack processing such as shooting at the enemy character EC1 from the player character PC.

このような、入力判定処理において、敵キャラクタ(オブジェクト)の奥行き方向の距離に応じて定まる基準時間よりも長くタッチ操作が行われた場合に、その敵キャラクタへの入力が有効となる。つまり、図9(c)に示すように、奥行き方向の距離が小さい(近い)敵キャラクタEC1に対しては、比較的短い基準時間T1を超えてタッチ操作が続けられると、その入力が有効となる。一方、図9(d)に示すように、奥行き方向の距離が大きい(遠い)敵キャラクタEC2に対しては、比較的長い基準時間T2を超えてタッチ操作が続けられると、その入力が有効となる。
すなわち、プレイヤは、これら図9(c),(d)のような遠近感等を表現するゲーム画面において、敵キャラクタEC1,EC2に対する入力を行う際に、近くの敵キャラクタEC1には、短いタッチ操作を行うことが要請され、逆に、遠くの敵キャラクタEC2には、長いタッチ操作が要求されることになる。このような継続時間が長短異なるタッチ操作は、表示される遠近感(つまり、奥行き方向の距離)に沿ったものであり、ゲーム画面から感じている仮想空間の広がりを損なうことなく(違和感を感じることなく)、敵キャラクタへの入力を行うことができる。
In such an input determination process, when a touch operation is performed longer than a reference time determined according to the distance in the depth direction of the enemy character (object), the input to the enemy character is valid. That is, as shown in FIG. 9C, when the touch operation is continued for a relatively short reference time T1 with respect to the enemy character EC1 whose distance in the depth direction is small (near), the input is valid. Become. On the other hand, as shown in FIG. 9 (d), when the touch operation is continued for a relatively long reference time T2 with respect to the enemy character EC2 whose distance in the depth direction is large (far), the input is valid. Become.
That is, when the player makes an input to the enemy characters EC1 and EC2 on the game screen expressing the perspective as shown in FIGS. 9C and 9D, a short touch is applied to the nearby enemy character EC1. On the contrary, a long touch operation is required for the far enemy character EC2. Such touch operations with different durations are in line with the displayed perspective (that is, the distance in the depth direction), and do not impair the expanse of the virtual space that is felt from the game screen. Without any) input to the enemy character.

この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。   As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.

(他の実施形態)
上記の実施形態では、継続時間計時部163が、タッチ操作が続いている間に、無条件に継続時間を計時する(カウントアップする)場合について説明したが、タッチ操作が続いている間に、タッチペン等の位置がずれたり、また、表示側のオブジェクトの位置が変化する(移動する)場合も考えられる。
そのため、オブジェクト特定部162は、タッチ操作中において、現在の入力位置に応じたオブジェクトの有無を、位置情報管理部120に管理される現在の位置情報に基づいて順次特定するようにする。そして、継続時間計時部163は、タッチ操作が維持されていたとしても、オブジェクトが特定されなくなった場合には、継続時間の計時を停止してもよい。
この場合、タッチ操作の有効性をより厳格に判定することができる。
(Other embodiments)
In the above embodiment, the case has been described in which the duration measuring unit 163 counts the duration unconditionally while the touch operation continues (counts up). However, while the touch operation continues, It is conceivable that the position of the touch pen or the like is shifted, or the position of the object on the display side changes (moves).
Therefore, the object specifying unit 162 sequentially specifies the presence / absence of an object corresponding to the current input position based on the current position information managed by the position information management unit 120 during the touch operation. Then, even if the touch operation is maintained, the duration measuring unit 163 may stop measuring the duration when the object is no longer specified.
In this case, the effectiveness of the touch operation can be determined more strictly.

上記の実施形態では、特定したオブジェクトについて、視点(スクリーン平面)を基準として奥行き方向の距離を求め、この距離に応じた基準時間を算定する場合について説明したが、このような奥行き方向の距離だけでなく、他の距離に応じて基準時間を算定するようにしてもよい。
例えば、2次元の仮想空間を表現するゲーム(2Dゲーム等)の場合では、プレイヤキャラクタから水平方向又は垂直方向に離れて敵キャラクタが配置される場合も多い(一例として、横スクロールや縦スクロールの2Dゲーム等)。そのため、そのような2Dゲーム等の場合では、タッチ位置のオブジェクト(敵キャラクタ等)を特定すると、プレイヤキャラクタからそのオブジェクトまでの水平方向又は垂直方向の距離を求める様にする。そして、この距離に応じた基準時間を算定してもよい。
このように、水平方向や垂直方向の距離に応じて基準時間を算定し、この基準時間よりも長い時間タッチ操作が維持された場合に、そのオブジェクトへの入力を有効と判定することも適宜可能である。
In the above embodiment, a case has been described in which the distance in the depth direction is obtained with respect to the identified object with reference to the viewpoint (screen plane), and the reference time according to this distance is calculated. Instead, the reference time may be calculated according to another distance.
For example, in the case of a game expressing a two-dimensional virtual space (such as a 2D game), enemy characters are often arranged away from the player character in the horizontal or vertical direction (for example, horizontal scrolling or vertical scrolling). 2D games, etc.). Therefore, in such a 2D game or the like, when an object (such as an enemy character) at a touch position is specified, a horizontal or vertical distance from the player character to the object is obtained. And you may calculate the reference time according to this distance.
In this way, the reference time is calculated according to the distance in the horizontal direction or the vertical direction, and when the touch operation is maintained for a time longer than the reference time, it is possible to appropriately determine that the input to the object is valid. It is.

上記の実施形態では、タッチパネル20を介して、入力を行う場合について説明したが、入力デバイスは、このようなタッチパネル20に限られず、他の入力デバイスを用いる場合にも適宜適用可能である。例えば、マウス等により、画面上の任意の位置を指定して、クリック(一例として、左クリック等)による入力を行う場合では、以下のように行うことができる。   In the above-described embodiment, the case where input is performed via the touch panel 20 has been described. However, the input device is not limited to such a touch panel 20 and can be appropriately applied to the case where other input devices are used. For example, when an arbitrary position on the screen is designated with a mouse or the like and input is performed by clicking (for example, left clicking), the following can be performed.

まず、入力検出部140は、マウスのクリック操作と、その際のマウスカーソルの位置を検出する。オブジェクト特定部161は、クリック操作時のマウスカーソルの表示位置に表示されているオブジェクトを特定する。
また、基準時間算定部162は、特定されたオブジェクトについて、仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。継続時間計時部163は、クリック操作(クリックボタンの押下)が続いている間の継続時間を計時する。そして、入力判定部164は、計時されている継続時間が基準時間を超えた時点で、そのオブジェクトへの入力が有効であると判定する。
この場合も、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
First, the input detection unit 140 detects a mouse click operation and the position of the mouse cursor at that time. The object specifying unit 161 specifies the object displayed at the display position of the mouse cursor at the time of the click operation.
In addition, the reference time calculation unit 162 calculates a reference time that is determined according to the distance in the depth direction in the virtual space for the identified object. The duration measuring unit 163 measures the duration while the click operation (pressing the click button) continues. Then, the input determination unit 164 determines that the input to the object is valid when the measured duration exceeds the reference time.
Also in this case, the input operation for the object arranged in the virtual space can be performed without causing the player to feel uncomfortable.

以上説明したように、本発明によれば、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることのできる入力受付装置、入力判定方法、および、プログラムを提供することができる。   As described above, according to the present invention, an input reception device, an input determination method, and a program that can cause an input operation on an object arranged in a virtual space without causing the player to feel uncomfortable. Can be provided.

1 ゲーム装置
10 処理制御部
11 コネクタ
12 カートリッジ
13 無線通信部
14 通信コントローラ
15 サウンドアンプ
16 スピーカ
17 操作キー
18 第1の表示部
19 第2の表示部
20 タッチパネル
100 入力受付装置
110 オブジェクト記憶部
120 位置情報管理部
130 表示制御部
140 入力検出部
150 キー操作受付部
160 処理制御部
DESCRIPTION OF SYMBOLS 1 Game device 10 Processing control part 11 Connector 12 Cartridge 13 Wireless communication part 14 Communication controller 15 Sound amplifier 16 Speaker 17 Operation key 18 1st display part 19 2nd display part 20 Touch panel 100 Input reception apparatus 110 Object storage part 120 Position Information management unit 130 Display control unit 140 Input detection unit 150 Key operation reception unit 160 Processing control unit

Claims (6)

所定のゲーム画像を表示する表示画面への入力を受け付ける入力受付装置であって、
想空間内に配置される敵オブジェクトを含んだゲーム画像を生成し、前記表示画面に表示する表示制御部と、
前記表示画面への入力に応答し、入力位置に表示されている敵オブジェクトを特定するオブジェクト特定部と、
特定された当該敵オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、当該基準時間と入力が継続された時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定部と、を備える、
ことを特徴とする入力受付装置。
An input receiving device that receives an input to a display screen that displays a predetermined game image,
A display control unit that generates a game image including a virtual enemy objects that are placed in the space, is displayed on the display screen,
In response to an input to the display screen, an object specifying unit that specifies an enemy object displayed at the input position;
For the identified enemy object, a reference time determined according to the distance in the virtual space with respect to the viewpoint is obtained, and input to the enemy object is performed based on the relationship between the reference time and the time during which the input is continued. An input determination unit for determining whether the
An input receiving device characterized by that.
所定のゲーム画像を表示する表示画面に重畳されたタッチパネルを介して入力を受け付ける入力受付装置であって、
次元の仮想空間内に配置される敵オブジェクトの位置情報を管理する位置情報管理部と、
視点となる仮想カメラから当該敵オブジェクトを含む仮想空間を撮影し、所定のスクリーン平面に投影したゲーム画像を生成して前記表示画面に表示する表示制御部と、
前記タッチパネルへの入力に応答し、前記表示画面における入力位置を検出する入力検出部と、
検出された当該入力位置に表示されている敵オブジェクトを、管理される当該位置情報に基づいて特定するオブジェクト特定部と、
特定された当該敵オブジェクトについて、仮想空間内における視点を基準とした奥行き方向の距離に応じて定まる基準時間を算定する基準時間算定部と、
前記タッチパネルへの入力が継続されている間の継続時間を計時する継続時間計時部と、
算出された当該基準時間と計時された当該継続時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定部と、を備える、
ことを特徴とする入力受付装置。
An input receiving device that receives an input via a touch panel superimposed on a display screen that displays a predetermined game image,
A location information managing unit for managing the location information of the enemy objects that are placed in a three-dimensional virtual space,
A display control unit that shoots a virtual space including the enemy object from a virtual camera as a viewpoint , generates a game image projected on a predetermined screen plane, and displays the game image on the display screen;
An input detection unit that detects an input position on the display screen in response to an input to the touch panel;
An object identifying unit that identifies an enemy object displayed at the detected input position based on the managed position information;
A reference time calculation unit that calculates a reference time determined according to the distance in the depth direction with respect to the viewpoint in the virtual space for the identified enemy object;
A duration timer for measuring the duration while the input to the touch panel is continued;
An input determination unit that determines whether the input to the enemy object is valid or invalid based on the relationship between the calculated reference time and the measured duration.
An input receiving device characterized by that.
請求項2に記載の入力受付装置であって、
前記オブジェクト特定部は、当該入力位置に複数の敵オブジェクトが重なって表示されている場合に、当該各敵オブジェクトのZ値を比較して最も視点に近い敵オブジェクトを特定し、
前記基準時間算定部は、特定された敵オブジェクトの当該Z値に所定の係数を乗じて基準時間を算定する、
ことを特徴とする入力受付装置。
The input receiving device according to claim 2,
The object specifying unit specifies the enemy object closest to the viewpoint by comparing the Z values of the enemy objects when a plurality of enemy objects are displayed overlapping the input position.
The reference time calculation unit calculates a reference time by multiplying the Z value of the identified enemy object by a predetermined coefficient.
An input receiving device characterized by that.
請求項2又は3に記載の入力受付装置であって、
前記入力検出部は、前記タッチパネルへの入力が継続している間において、入力位置を順次検出し、
前記オブジェクト特定部は、順次検出される当該入力位置に表示される敵オブジェクトの有無を、前記位置情報管理部に管理される現在の位置情報に基づいて順次特定し、
前記継続時間計時部は、前記オブジェクト特定部により敵オブジェクトが特定された際に継続時間の計時を開始し、前記オブジェクト特定部により当該敵オブジェクトが特定されなくなった際、若しくは、前記タッチパネルへの入力がなくなった際に、継続時間の計時を停止する、
ことを特徴とする入力受付装置。
The input receiving device according to claim 2 or 3,
The input detection unit sequentially detects the input position while the input to the touch panel continues.
The object specifying unit sequentially specifies the presence or absence of enemy objects displayed at the input positions that are sequentially detected based on the current position information managed by the position information management unit,
The duration measuring unit starts measuring the duration when an enemy object is specified by the object specifying unit, and when the enemy specifying unit is no longer specified by the object specifying unit, or input to the touch panel When the time runs out, stop timing the duration,
An input receiving device characterized by that.
表示制御部、オブジェクト特定部、及び、入力判定部を有し、所定のゲーム画像を表示する表示画面への入力を受け付ける入力受付装置が実行する入力判定方法であって、
前記表示制御部が、仮想空間内に配置される敵オブジェクトを含んだゲーム画像を生成し、前記表示画面に表示する表示制御ステップと、
前記オブジェクト特定部が、前記表示画面への入力に応答し、入力位置に表示されている敵オブジェクトを特定するオブジェクト特定ステップと、
前記入力判定部が、特定された当該敵オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、当該基準時間と入力が持続された時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定ステップと、を備える、
ことを特徴とする入力判定方法。
An input determination method executed by an input receiving apparatus that includes a display control unit, an object specifying unit, and an input determination unit and receives an input to a display screen that displays a predetermined game image,
Wherein the display control unit, and a display control step of generating a game image including enemy objects that are arranged in virtual space, displayed on said display screen,
An object specifying step in which the object specifying unit specifies an enemy object displayed at the input position in response to an input to the display screen;
For the identified enemy object, the input determination unit obtains a reference time that is determined according to the distance in the virtual space with reference to the viewpoint, and based on the relationship between the reference time and the time during which the input is continued, An input determination step of determining whether the input to the enemy object is valid or invalid,
An input determination method characterized by the above.
所定のゲーム画像を表示する表示画面への入力を受け付けるコンピュータを、
想空間内に配置される敵オブジェクトを含んだゲーム画像を生成し、前記表示画面に表示する表示制御部、
前記表示画面への入力に応答し、入力位置に表示されている敵オブジェクトを特定するオブジェクト特定部、
特定された当該敵オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、当該基準時間と入力が継続された時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定部、
として機能させることを特徴とするプログラム。
A computer that accepts input to a display screen that displays a predetermined game image,
Display control unit for generating a game image including a virtual enemy objects that are placed in the space, is displayed on the display screen,
In response to an input to the display screen, an object specifying unit that specifies an enemy object displayed at the input position,
For the identified enemy object, a reference time determined according to the distance in the virtual space with respect to the viewpoint is obtained, and input to the enemy object is performed based on the relationship between the reference time and the time during which the input is continued. An input determination unit for determining validity / invalidity of
A program characterized by functioning as
JP2009266005A 2009-11-24 2009-11-24 Input receiving device, input determination method, and program Active JP5238676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009266005A JP5238676B2 (en) 2009-11-24 2009-11-24 Input receiving device, input determination method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009266005A JP5238676B2 (en) 2009-11-24 2009-11-24 Input receiving device, input determination method, and program

Publications (2)

Publication Number Publication Date
JP2011113107A JP2011113107A (en) 2011-06-09
JP5238676B2 true JP5238676B2 (en) 2013-07-17

Family

ID=44235424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009266005A Active JP5238676B2 (en) 2009-11-24 2009-11-24 Input receiving device, input determination method, and program

Country Status (1)

Country Link
JP (1) JP5238676B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102102309B1 (en) * 2019-03-12 2020-04-21 주식회사 피앤씨솔루션 Object recognition method for 3d virtual space of head mounted display apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3237436B2 (en) * 1995-02-15 2001-12-10 日本電気株式会社 Touch panel coordinate operation method and information processing apparatus using the method
JP3939709B2 (en) * 2004-04-30 2007-07-04 日本電信電話株式会社 Information input method and information input / output device
CN101308441B (en) * 2004-10-12 2010-09-22 日本电信电话株式会社 3d display control method and 3d display control device

Also Published As

Publication number Publication date
JP2011113107A (en) 2011-06-09

Similar Documents

Publication Publication Date Title
JP5146389B2 (en) Information processing apparatus and estimation method
EP2635955B1 (en) Control of virtual object using device touch interface functionality
JP6438198B2 (en) Program and game device
CN109313502A (en) Utilize the percussion state event location of selection device
TWI469815B (en) Simulation of natural objects to explore the game method, computer program products and systems
US20140104207A1 (en) Method of providing touch effect and electronic device therefor
CN109697002B (en) Method, related equipment and system for editing object in virtual reality
CN102981743A (en) Method for controlling operation object and electronic device
WO2008062586A1 (en) Display, display method, display program, and recording medium
CN104850339B (en) A kind of information processing method and electronic equipment
JP2013073479A (en) Item selection device, item selection method, and program
JP2019519856A (en) Multimodal haptic effect
CN113826060A (en) Creating and using virtual assets on tangible objects in Augmented Reality (AR) and Virtual Reality (VR)
JP5783982B2 (en) Presentation device, program, and system
CN110430450A (en) A kind of method, apparatus and electronic equipment of video location
US20120026196A1 (en) Apparatus including a sensor arrangement and methods of operating the same
TW201030673A (en) Display device, display method, information recording medium, and program
JP5842422B2 (en) Touch panel operating device, touch panel operating device control method, and program
JP5238676B2 (en) Input receiving device, input determination method, and program
WO2014142104A1 (en) Game device
JP5081957B2 (en) Input reception device, item selection method, and program
CN104951211B (en) A kind of information processing method and electronic equipment
CN113260426A (en) Game system, processing method, and information storage medium
TWI536249B (en) Hand-held touch device and its single-hand manipulation of the full touch range method
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5238676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250