JP5238676B2 - Input receiving device, input determination method, and program - Google Patents
Input receiving device, input determination method, and program Download PDFInfo
- Publication number
- JP5238676B2 JP5238676B2 JP2009266005A JP2009266005A JP5238676B2 JP 5238676 B2 JP5238676 B2 JP 5238676B2 JP 2009266005 A JP2009266005 A JP 2009266005A JP 2009266005 A JP2009266005 A JP 2009266005A JP 5238676 B2 JP5238676 B2 JP 5238676B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- unit
- reference time
- enemy
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000001514 detection method Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000004886 process control Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 244000145845 chattering Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることのできる入力受付装置、入力判定方法、および、プログラムに関する。 The present invention relates to an input reception device, an input determination method, and a program that allow an input operation on an object arranged in a virtual space without causing a player to feel uncomfortable.
近年、ユーザからの入力を受け付けるデバイスとして、タッチパネルが広く用いられている。このタッチパネルは、例えば、表示部(ディスプレイ等)の前面に配置され、タッチペンやユーザの指等による入力操作(タッチ操作)を検出し、その入力座標を取得する。
そのため、タッチパネルを用いた場合では、従来のようなキーやボタン等の入力と異なり、表示部に表示されている所望のシンボル(ボタン画像等)を、ユーザが直接触れることで入力が行える。このため、ユーザにとって、より容易で、直感的な入力操作が可能となっている。
In recent years, touch panels have been widely used as devices for receiving input from users. This touch panel is disposed, for example, in front of a display unit (display or the like), detects an input operation (touch operation) with a touch pen, a user's finger, or the like, and acquires its input coordinates.
Therefore, when a touch panel is used, unlike a conventional key or button input, a user can directly input a desired symbol (button image or the like) displayed on the display unit. For this reason, it is easier for the user to perform intuitive input operations.
最近では、携帯型のゲーム装置等にも、このようなタッチパネルが用いられるようになっている。そして、プレイヤは、ゲーム画面に表示される各種のオブジェクトを目で追いながら、所望のオブジェクトに対する入力を行っている。例えば、攻撃したい敵キャラクタの指示、開けたい扉の指示、または、拾いたいアイテムの指示といったゲーム中における各種オブジェクトへの入力を、タッチ操作により容易に行うことができる。 Recently, such touch panels are also used in portable game devices and the like. Then, the player makes an input to a desired object while following the various objects displayed on the game screen. For example, it is possible to easily input various objects such as an instruction of an enemy character to be attacked, an instruction of a door to be opened, or an instruction of an item to be picked up by a touch operation.
このようなタッチパネルを用いたゲーム装置において、入力操作時のチャタリングの発生を適切に防止できる技術も開示されている(たとえば、特許文献1参照)。 In a game apparatus using such a touch panel, a technique that can appropriately prevent chattering during an input operation is also disclosed (for example, see Patent Document 1).
上述したように、タッチパネルを用いたゲーム装置では、ゲーム画面に表示されるオブジェクトに対して、入力操作が容易に行えるようになっている。
しかしながら、このような入力操作を行う際に、表示されているゲーム画面から得ている感覚に対して、違和感を覚えてしまうプレイヤも多かった。
As described above, in a game device using a touch panel, an input operation can be easily performed on an object displayed on a game screen.
However, when performing such an input operation, many players feel uncomfortable with the feeling obtained from the displayed game screen.
例えば、三次元の仮想空間を表現するゲーム装置では、その仮想空間内に配置される各種オブジェクトを、遠近感や立体感を感じさせる画像として表示している。つまり、ゲームに登場する各種オブジェクトについて、それらの仮想空間内の位置と視点(仮想カメラの位置)との関係に応じて、遠近感等を表現したゲーム画面を表示することになる。
そのようなゲーム画面において、例えば、攻撃目標となる敵キャラクタの指定を行う場合に、プレイヤは、タッチパネルから、目的の敵キャラクタの表示位置にタッチ操作を行うことになる。そのようなタッチ操作は、敵キャラクタの仮想空間内の位置等に拘わらず、一様に、画面上の表示位置に触れるだけで済んでしまう。つまり、遠くに表示されている敵キャラクタであっても、近くに表示されている敵キャラクタであっても、全く変更なく、タッチパネルへの表面的なタッチ操作(一様なタッチ操作)により、その敵キャラクタへの入力(指定等)が行えてしまうことになる。
For example, in a game device that expresses a three-dimensional virtual space, various objects arranged in the virtual space are displayed as images that give a sense of perspective and stereoscopic effect. That is, for various objects appearing in the game, a game screen expressing perspective or the like is displayed according to the relationship between the position in the virtual space and the viewpoint (the position of the virtual camera).
In such a game screen, for example, when an enemy character to be an attack target is designated, the player performs a touch operation on the display position of the target enemy character from the touch panel. Such a touch operation is only required to touch the display position on the screen uniformly regardless of the position of the enemy character in the virtual space. In other words, whether it is an enemy character that is displayed far away or an enemy character that is displayed nearby, its surface touch operation (uniform touch operation) on the touch panel is not changed at all. Input (designation, etc.) to the enemy character can be performed.
そのため、ゲーム画面から仮想空間の広がりを感じていたプレイヤは、このような一様なタッチ操作によりオブジェクトへの入力が行えてしまうことで、その仮想空間が急に平面的なものに思えてしまう等の違和感を感じる場合があった。つまり、三次元の仮想空間内のオブジェクトに対して表面的な入力操作が行えてしまうことにより、仮想空間の広がりが感じられなくなってしまうプレイヤも多かった。 For this reason, a player who has felt the expanse of the virtual space from the game screen can make the virtual space suddenly seem to be flat because the input to the object can be performed by such a uniform touch operation. There was a case of feeling uncomfortable. That is, there are many players who can not feel the expanse of the virtual space by performing superficial input operations on objects in the three-dimensional virtual space.
このようなことから、仮想空間内のオブジェクトに対する入力時に、このような違和感をプレイヤに感じさせることのないように、入力操作を適切に判定することのできるゲーム装置(入力受付装置)の開発が求められていた。 For this reason, there has been a development of a game device (input reception device) that can appropriately determine an input operation so that the player does not feel such a sense of incongruity when inputting an object in the virtual space. It was sought after.
本発明は、上記実状に鑑みてなされたもので、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることのできる入力受付装置、入力判定方法、および、プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an input reception device, an input determination method, and an input determination method capable of causing an input operation on an object arranged in a virtual space without causing the player to feel uncomfortable. The purpose is to provide a program.
本発明の第1の観点に係る入力受付装置は、表示画面への入力を受け付ける入力受付装置であって、表示制御部、オブジェクト特定部、及び、入力判定部を備えて構成される。 An input reception device according to a first aspect of the present invention is an input reception device that receives an input to a display screen, and includes a display control unit, an object specification unit, and an input determination unit.
まず、表示制御部は、仮想空間内に配置されるオブジェクト(例えば、キャラクタやアイテム等)を含んだ画像を生成し、表示画面に表示する。また、オブジェクト特定部は、この表示画面への入力に応答し、入力位置に表示されているオブジェクトを特定する。そして、入力判定部は、特定された当該オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、この基準時間と入力が継続された時間との関係に基づいて、当該オブジェクトへの入力の有効無効を判定する。例えば、入力判定部は、特定されたオブジェクトの奥行き方向の距離に応じて定まる基準時間を算定し、この基準時間よりも長い間、入力が続けられた場合に限り、その入力を有効と判定する。 First, a display control part produces | generates the image containing the object (for example, character, item, etc.) arrange | positioned in virtual space, and displays it on a display screen. The object specifying unit specifies an object displayed at the input position in response to an input on the display screen. Then, the input determination unit obtains a reference time determined according to the distance in the virtual space with respect to the viewpoint for the identified object, and based on the relationship between the reference time and the time when the input is continued, Validity / invalidity of input to the object is determined. For example, the input determination unit calculates a reference time determined according to the distance in the depth direction of the specified object, and determines that the input is valid only when the input is continued for longer than the reference time. .
すなわち、近くに表示されるオブジェクトには、短い(短時間の)タッチ操作を行うことが要請され、逆に、遠くに表示されるオブジェクトには、長い(長時間の)タッチ操作を行うことが要請される。このような継続時間が長短異なるタッチ操作は、表示されるオブジェクトの遠近感等に沿ったものであり、プレイヤは、ゲーム画面から感じている仮想空間の広がりを損なうことなく、敵キャラクタへの入力を行うことができる。
この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
That is, it is required to perform a short (short time) touch operation on an object displayed in the vicinity, and conversely, a long (long time) touch operation may be performed on an object displayed in the distance. Requested. Such touch operations with different durations are in line with the perspective of the displayed object, and the player can input to the enemy character without impairing the expanse of the virtual space felt from the game screen. It can be performed.
As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.
本発明の第2の観点に係る入力受付装置は、表示画面に重畳されたタッチパネルを介して入力を受け付ける入力受付装置であって、位置情報管理部、表示制御部、入力検出部、オブジェクト特定部、基準時間算定部、継続時間計時部、及び、入力判定部を備えて構成される。 An input reception device according to a second aspect of the present invention is an input reception device that receives an input via a touch panel superimposed on a display screen, and includes a position information management unit, a display control unit, an input detection unit, and an object specification unit. , A reference time calculating unit, a continuous time measuring unit, and an input determining unit.
まず、位置情報管理部は、三次元の仮想空間内に配置されるオブジェクト(例えば、キャラクタやアイテム等)の位置情報を管理する。また、表示制御部は、視点となる仮想カメラから当該オブジェクトを含む仮想空間を撮影し、所定のスクリーン平面に投影した画像を生成して表示画面に表示する。入力検出部は、タッチパネルへの入力に応答し、この表示画面における入力位置を検出する。オブジェクト特定部は、検出された入力位置に表示されているオブジェクトを、管理される位置情報に基づいて特定する。基準時間算定部は、特定された当該オブジェクトについて、仮想空間内における視点を基準とした奥行き方向の距離に応じて定まる基準時間を算定する。継続時間計時部は、タッチパネルへの入力が継続されている間の継続時間を計時する。そして、入力判定部は、算出された基準時間と計時された継続時間との関係に基づいて、当該オブジェクトへの入力の有効無効を判定する。例えば、入力判定部は、算定された基準時間よりも長い間、継続時間が計時された場合に限り、その入力を有効と判定する。 First, the position information management unit manages position information of objects (for example, characters and items) arranged in a three-dimensional virtual space. The display control unit captures a virtual space including the object from a virtual camera serving as a viewpoint, generates an image projected on a predetermined screen plane, and displays the image on the display screen. The input detection unit responds to an input on the touch panel and detects an input position on the display screen. The object specifying unit specifies the object displayed at the detected input position based on the managed position information. The reference time calculation unit calculates a reference time determined according to the distance in the depth direction with respect to the identified object in the virtual space. The continuation time counter measures the continuation time while the input to the touch panel is continued. The input determination unit determines whether the input to the object is valid or invalid based on the relationship between the calculated reference time and the measured duration. For example, the input determination unit determines that the input is valid only when the duration is counted for a longer time than the calculated reference time.
すなわち、近くに表示されるオブジェクトには、短いタッチ操作を行うことが要請され、逆に、遠くに表示されるオブジェクトには、長いタッチ操作を行うことが要請される。このような継続時間が長短異なるタッチ操作は、表示されるオブジェクトの遠近感等に沿ったものであり、プレイヤは、ゲーム画面から感じている仮想空間の広がりを損なうことなく、敵キャラクタへの入力を行うことができる。
この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
That is, an object displayed near is required to perform a short touch operation, and conversely, an object displayed far away is required to perform a long touch operation. Such touch operations with different durations are in line with the perspective of the displayed object, and the player can input to the enemy character without impairing the expanse of the virtual space felt from the game screen. It can be performed.
As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.
オブジェクト特定部は、入力位置に複数のオブジェクトが重なって表示されている場合に、当該各オブジェクトのZ値を比較して最も視点に近いオブジェクトを特定し、
基準時間算定部は、特定されたオブジェクトの当該Z値に所定の係数を乗じて基準時間を算定してもよい。
この場合、オブジェクトを適切に特定でき、また、基準時間も適切に算定することができる。
The object specifying unit specifies the object closest to the viewpoint by comparing the Z value of each object when a plurality of objects are displayed overlapping the input position,
The reference time calculation unit may calculate the reference time by multiplying the Z value of the identified object by a predetermined coefficient.
In this case, the object can be specified appropriately, and the reference time can also be calculated appropriately.
入力検出部は、タッチパネルへの入力が継続している間において、入力位置を順次検出し、
オブジェクト特定部は、順次検出される当該入力位置に表示されるオブジェクトの有無を、位置情報管理部に管理される現在の位置情報に基づいて順次特定し、
継続時間計時部は、オブジェクト特定部によりオブジェクトが特定された際に継続時間の計時を開始し、オブジェクト特定部により当該オブジェクトが特定されなくなった際、若しくは、タッチパネルへの入力がなくなった際に、継続時間の計時を停止してもよい。
この場合、タッチ操作が続いている間に、タッチペン等の位置がずれたり、また、表示側のオブジェクトの位置が変化する場合に対応して、タッチ操作の有効性をより厳格に判定することができる。
The input detection unit sequentially detects the input position while the input to the touch panel continues.
The object specifying unit sequentially specifies the presence or absence of an object displayed at the input position that is sequentially detected based on the current position information managed by the position information management unit,
The duration timer starts counting the duration when the object is specified by the object specifying unit, and when the object is not specified by the object specifying unit or when there is no input to the touch panel, You may stop timing the duration.
In this case, it is possible to determine the effectiveness of the touch operation more strictly in response to a case where the position of the touch pen or the like is shifted while the touch operation is continued or the position of the object on the display side is changed. it can.
本発明の第3の観点に係る入力判定方法は、表示画面への入力を受け付ける入力受付装置が実行する入力判定方法であって、表示制御ステップ、オブジェクト特定ステップ、及び、入力判定ステップを備えて構成される。 An input determination method according to a third aspect of the present invention is an input determination method executed by an input receiving device that receives an input to a display screen, and includes a display control step, an object specifying step, and an input determination step. Composed.
まず、表示制御ステップでは、仮想空間内に配置されるオブジェクト(例えば、キャラクタやアイテム等)を含んだ画像を生成し、表示画面に表示する。また、オブジェクト特定ステップでは、表示画面への入力に応答し、入力位置に表示されているオブジェクトを特定する。そして、入力判定ステップでは、特定された当該オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、この基準時間と入力が持続された時間との関係に基づいて、当該オブジェクトへの入力の有効無効を判定する。例えば、入力判定ステップでは、特定されたオブジェクトの奥行き方向の距離に応じて定まる基準時間を算定し、この基準時間よりも長い間、入力が続けられた場合に限り、その入力を有効と判定する。 First, in the display control step, an image including an object (for example, a character or an item) arranged in the virtual space is generated and displayed on the display screen. In the object specifying step, the object displayed at the input position is specified in response to the input on the display screen. Then, in the input determination step, for the identified object, a reference time determined according to the distance in the virtual space with reference to the viewpoint is obtained, and based on the relationship between the reference time and the time during which the input is continued, Validity / invalidity of input to the object is determined. For example, in the input determination step, a reference time determined according to the distance in the depth direction of the specified object is calculated, and the input is determined to be valid only when the input is continued for a longer time than the reference time. .
すなわち、近くに表示されるオブジェクトには、短いタッチ操作を行うことが要請され、逆に、遠くに表示されるオブジェクトには、長いタッチ操作を行うことが要請される。このような継続時間が長短異なるタッチ操作は、表示されるオブジェクトの遠近感等に沿ったものであり、プレイヤは、ゲーム画面から感じている仮想空間の広がりを損なうことなく、敵キャラクタへの入力を行うことができる。
この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
That is, an object displayed near is required to perform a short touch operation, and conversely, an object displayed far away is required to perform a long touch operation. Such touch operations with different durations are in line with the perspective of the displayed object, and the player can input to the enemy character without impairing the expanse of the virtual space felt from the game screen. It can be performed.
As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.
本発明の第4の観点に係るプログラムは、表示画面への入力を受け付けるコンピュータ(電子機器を含む。)を、上記の入力受付装置として機能させるように構成する。 A program according to a fourth aspect of the present invention is configured to cause a computer (including an electronic device) that receives an input to a display screen to function as the input receiving device.
このプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。 This program can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。 The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.
本発明によれば、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。 According to the present invention, an input operation on an object arranged in a virtual space can be performed without causing the player to feel uncomfortable.
以下に本発明の実施形態を説明する。以下では、理解を容易にするため、携帯型ゲーム機(ゲーム装置)に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA、携帯電話などの情報処理装置においても同様に本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。 Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is applied to a portable game machine (game device) will be described. However, the present invention is similarly applied to information processing devices such as various computers, PDAs, and mobile phones. The invention can be applied. In other words, the embodiments described below are for illustrative purposes and do not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.
図1は、本発明の実施の形態に係る入力受付装置が実現される典型的なゲーム装置の外観を示す模式図である。このゲーム装置1は、一例として、携帯型のゲーム機器であり、図示するように、操作キー17と、第1の表示部18と、第2の表示部19とを有している。第1及び第2の表示部18,19には、所定の画像が表示可能となっている。なお、第2の表示部19の前面にはタッチパネル20が配置されている。つまり、操作キー17からの入力だけでなく、タッチパネル20からの入力も可能となっている。
FIG. 1 is a schematic diagram showing an appearance of a typical game device in which the input receiving device according to the embodiment of the present invention is realized. As an example, the
図2は、このゲーム装置1の概要構成を示すブロック図である。以下、本図を参照してゲーム装置1について説明する。
FIG. 2 is a block diagram showing a schematic configuration of the
ゲーム装置1は、処理制御部10と、コネクタ11と、カートリッジ12と、無線通信部13と、通信コントローラ14と、サウンドアンプ15と、スピーカ16と、操作キー17と、第1の表示部18と、第2の表示部19と、タッチパネル20と、を備える。
The
処理制御部10は、CPU(Central Processing Unit)コア10aと、画像処理部10bと、クロック回路10cと、VRAM(Video Random Access Memory)10dと、WRAM(Work RAM)10eと、LCD(Liquid Crystal Display)コントローラ10fと、タッチパネルコントローラ10gと、を備える。
The
CPUコア10aは、ゲーム装置1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory)12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。
The CPU core 10a controls the overall operation of the
画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10dに格納する。
The
クロック回路10cは、種々の時間(時刻)を計時するための回路であり、ゲーム装置1に設定された現在時刻や、ゲーム中に必要となる経過時間(後述する継続時間等)を計時する。
The
VRAM 10dは、表示用の情報を記憶するメモリであり、画像処理部10b等により加工された画像情報を記憶する。
WRAM 10eは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。
The
The
LCDコントローラ10fは、第1の表示部18および、第2の表示部19を制御し、所定の表示用画像を表示させる。例えば、LCDコントローラ10fは、VRAM 10dに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、第1の表示部18に出力する。また、LCDコントローラ10fは、同様に、第2の表示部19に所定の表示用画像を表示する。
The LCD controller 10f controls the
タッチパネルコントローラ10gは、タッチペンやプレイヤの指によって、タッチパネル20が押下されると、その座標(入力座標)を取得する。
When the
コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。
The
カートリッジ12は、ROM 12aと、RAM(Random Access Memory)12bと、を備える。
ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
The
The
The
無線通信部13は、他のゲーム装置1の無線通信部13との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。
なお、無線通信部13は、所定の無線アクセスポイントとの間で、無線通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。
The
The
通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他のゲーム装置1の処理制御部10との間で行われる無線通信の仲立ちをする。
また、ゲーム装置1が、近傍の無線アクセスポイント等を介してインターネットに接続する際には、無線LANに準拠したプロトコルに沿って、処理制御部10と無線アクセスポイント等との間で行われる無線通信の仲立ちをする。
The
Further, when the
サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。
スピーカ16は、例えば、ステレオスピーカ等からなり、サウンドアンプ15にて増幅された音声信号に従って、所定の楽曲音や効果音等を出力する。
The
The
操作キー17は、ゲーム装置1に適宜配置された複数のキースイッチ等からなり、ユーザの操作に従って、所定の指示入力を受け付ける。
The
第1の表示部18および、第2の表示部19は、LCD等からなり、LCDコントローラ10fに制御され、ゲーム画像等を適宜表示する。
例えば、第2の表示部19は、タッチパネル20への入力(押下)の目標となる所定のオブジェクト(例えば、キャラクタやアイテム等)を含むゲーム画像を表示する。
The
For example, the
タッチパネル20は、第2の表示部19の前面に重畳して配置され、タッチペンやプレイヤの指による入力を検出する。
例えば、タッチパネル20は、抵抗膜方式のタッチセンサパネル等からなり、タッチペン等による押圧(押下)を検知し、その座標に応じた情報(信号等)を出力する。
The
For example, the
(入力受付装置の概要)
図3は、本実施の形態に係る入力受付装置100の概要構成を示すブロック図である。なお、入力受付装置100は、三次元の仮想空間内に配置された各種オブジェクトを含むゲーム画像を表示した状態で、プレイヤにより行われる任意のオブジェクトに向けた入力操作(タッチ操作)を受け付ける装置である。以下、本図を参照して入力受付装置100について説明する。
(Outline of the input receiving device)
FIG. 3 is a block diagram showing a schematic configuration of the
図示するように、入力受付装置100は、オブジェクト記憶部110と、位置情報管理部120と、表示制御部130と、入力検出部140と、キー操作受付部150と、処理制御部160とを備える。
As illustrated, the
まず、オブジェクト記憶部110は、仮想空間内に配置される各種オブジェクトの情報を記憶する。例えば、キャラクタ(プレイヤキャラクタや敵キャラクタ等)、アイテム(宝箱や壺等)、及び、建物(扉や壁、床や天井等)といった各オブジェクトの情報を記憶する。各オブジェクトの情報には、3次元モデルやテクスチャ等の画像情報が含まれており、表示制御部130がゲーム画像を生成する際に使用される。
なお、上述したカートリッジ12内のROM 12a等が、このようなオブジェクト記憶部110として機能しうる。
First, the
The
位置情報管理部120は、プレイヤキャラクタや敵キャラクタといった仮想空間内で位置が変化するオブジェクトの位置情報(現在位置や向き等)を管理する。例えば、プレイヤキャラクタは、キー操作受付部150によって受け付けたキー操作(一例として、移動方向指示等)に従って、仮想空間内の位置や向きが変化するため、位置情報管理部120にてその位置情報が管理される。また、敵キャラクタも所定のロジックに従って適宜移動し、仮想空間内の位置等が変化するため、同様に位置情報が管理される。
更に、位置情報管理部120は、仮想空間を撮影するための仮想カメラの位置情報も管理する。つまり、視点となる仮想カメラの位置やその向き(視線方向)等を管理する。一例として、ゲームの表示が、第三者視点モード(プレイヤキャラクタを俯瞰する視点)に設定されている場合では、プレイヤキャラクタの後方(背後)の斜め上方に、仮想カメラの位置(視点位置)が設定され、また、そこからプレイヤキャラクタを見下ろすように視線の方向が設定される。つまり、プレイヤキャラクタが移動すると、それに追随するように、仮想カメラの位置(視点の位置)が適宜変更されるため、仮想カメラの位置情報も管理される。
この他にも、位置情報管理部120は、建物等のような仮想空間内の位置が変わらない(動かない)オブジェクトについても、その位置情報を管理してもよい。
なお、上述した処理制御部10のCPUコア10aやWRAM 10e等が、このような位置情報管理部120として機能しうる。
The position
Further, the position
In addition, the position
Note that the CPU core 10a, the
表示制御部130は、各オブジェクトが配置される仮想空間を、視点から眺望するゲーム画像を生成し、生成したゲーム画像を表示部(例えば、上述した第2の表示部19等)に表示する。つまり、キャラクタ(プレイヤキャラクタや敵キャラクタ等)、建物(扉や壁等)、アイテム(宝箱や壺等)といった各オブジェクトを、位置情報管理部120にて管理される位置情報に従って仮想空間内に配置し、これらを仮想カメラ(現在の視点位置)から撮影した画像を生成する。つまり、図4(a)に示すように、各オブジェクトOJが配置された三次元の仮想空間を、視点VPの仮想カメラから撮影した画像を生成する。なお、より詳細には、表示制御部130は、図4(b)に示すように、視点VPに基づいた視界領域VFに含まれるオブジェクトOJを、スクリーン平面SCに投影変換した二次元の画像を生成する。そして、表示制御部130は、この二次元の画像を上述した第2の表示部19等に表示する。
なお、上述した画像処理部10bが、このような表示制御部130として機能しうる。
The
The
入力検出部140は、タッチパネル20から得られる情報に基づいて、タッチペンや指等による入力(タッチ操作)を検出し、その入力位置(入力座標)を取得する。
例えば、入力検出部140は、タッチパネル20から供給されるX軸方向(水平方向)及び、Y軸方向(垂直方向)の各電圧(電圧の変化等)からタッチ操作を検出すると共に、その各方向の電圧値に基づいて入力位置を取得する。
なお、入力検出部140は、タッチ操作(タッチパネル20への押下)が続いている状態や、その間の入力位置の変化等についても逐次検出する。
なお、上述したタッチパネルコントローラ10gが、このような入力検出部140として機能しうる。
The
For example, the
Note that the
The
キー操作受付部150は、プレイヤによってなされる各キーへの操作を受け付ける。
例えば、キー操作受付部150は、上述した操作キー17における方向キーがプレイヤにより操作されると、プレイヤキャラクタの移動指示を受け付ける。また、キー操作受付部150は、操作キー17における他のキー(一例として、Aボタン,Bボタン,Xボタン,Yボタン等)がプレイヤにより操作されると、それらに対応付けられたプレイヤキャラクタへの動作指示(一例として、武器等を使う、アイテムを拾う、しゃがむ、伏せる等)を受け付ける。
なお、上述した操作キー17が、このようなキー操作受付部150として機能しうる。
The key
For example, the key
The operation key 17 described above can function as such a key
処理制御部160は、入力受付装置100全体を制御する。例えば、処理制御部160は、タッチパネル20へのタッチペン等によるタッチ操作が入力検出部140により検出されると、対象のオブジェクトを特定し、そのオブジェクトの仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。そして、その基準時間を超えるまでタッチ操作が維持された(タッチペン等により押下され続けた)場合に、そのオブジェクトへの入力を有効と判別する。
また、処理制御部160は、キー操作受付部150が、例えば、プレイヤキャラクタへの移動指示等を受け付けると、その操作内容に応じて、位置情報管理部120を制御して、プレイヤキャラクタや視点(仮想カメラ)の位置情報を適宜更新する。
The
Further, when the key
このような制御を行う処理制御部160は、一例として、オブジェクト特定部161、基準時間算定部162、継続時間計時部163、及び、入力判定部164を含んで構成される。以下、各構成について説明する。
As an example, the
オブジェクト特定部161は、入力検出部140によって検出された入力位置に表示されているオブジェクトを特定する。
すなわち、オブジェクト特定部161は、入力位置に対応する表示位置を求め、その表示位置に表示されているオブジェクトを、位置情報管理部120の位置情報に基づいて特定する。例えば、オブジェクト特定部161は、図5(a)に示すように、画面SC上の表示位置P(入力位置に対応する表示位置)から奥行き方向であるZ軸方向に沿って直線SLを延ばし、この直線SLと交差するオブジェクトOJを特定する。この際、バウンディングボックスを用いてオブジェクトOJを特定してもよい。つまり、図5(b)に示すようなバウンディングボックスBBの情報を、位置情報管理部120にて管理している場合には、直線SLと交差するバウンディングボックスBBから、対応するオブジェクトOJを特定してもよい。
また、図5(c)に示すように、直線SLが複数のオブジェクトOJと交差する場合には、オブジェクト特定部161は、各オブジェクトのZ値を比較して最も視点(画面SC側)に近いオブジェクトOJを特定する。また、図5(a)〜(c)では、直線SLを細線にて示しているが、これは説明のための一例であり、直線SLに所定の幅(太さ)を持たせて、オブジェクトOJと交差しやすくしてもよい。なお、このような直線SLが何れのオブジェクトOJとも交差しない場合には、オブジェクト特定部161は、何れのオブジェクトOJも特定しない(つまり、入力位置Pには何れのオブジェクトOJも表示されていないと判別する)。
The
That is, the
Further, as shown in FIG. 5C, when the straight line SL intersects with a plurality of objects OJ, the
なお、このようなオブジェクトの特定手法は、一例であり、他の手法によりオブジェクトを特定してもよい。例えば、投影変換した後の二次元画像を基にして、オブジェクトを特定してもよい。具体的には、図6(a)に示すように、画面SCに表示される二次元画像における各オブジェクトOJの領域情報を、位置管理情報部120にて管理している場合には、表示位置Pと重なる(表示位置Pが含まれる)オブジェクトOJを特定する。なお、この際にも、図6(b)に示すようなバウンディングボックスBBの情報を、位置情報管理部120にて管理している場合には、表示位置Pと重なるバウンディングボックスBBから、オブジェクトOJを特定してもよい。
なお、上述したCPUコア10aやWRAM 10e等が、このようなオブジェクト特定部161として機能しうる。
Note that such an object specifying method is an example, and the object may be specified by another method. For example, an object may be specified based on a two-dimensional image after projection conversion. Specifically, as shown in FIG. 6A, when the area information of each object OJ in the two-dimensional image displayed on the screen SC is managed by the position
Note that the CPU core 10a, the
図3に戻って、基準時間算定部162は、オブジェクト特定部161によって特定されたオブジェクトについて、視点(スクリーン平面)を基準とした仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。例えば、基準時間算定部162は、特定されたオブジェクトのZ値に基づいて基準時間を算定する。より具体的には、Z値が大きくなるに伴って基準時間が長くなるように、一例として、図7(a)に示すような、Z値と基準時間とが比例関係となる係数を、オブジェクトのZ値に乗じる等によって基準時間を算定する。
なお、基準時間を求めるための係数は、このような比例関係となるものに限られず任意である。例えば、図7(b)に示すようなZ値の値が小さい範囲で基準時間がより大きく増加する係数を乗じる等によって、基準時間を算定してもよい。
なお、上述したCPUコア10aやWRAM 10e等が、このような基準時間算定部162として機能しうる。
Returning to FIG. 3, the reference
The coefficient for obtaining the reference time is not limited to such a proportional relationship and is arbitrary. For example, the reference time may be calculated by multiplying a coefficient that increases the reference time more greatly in a range where the Z value is small as shown in FIG.
The CPU core 10a, the
図3に戻って、継続時間計時部163は、タッチパネル20への入力が続いている(維持されている)間の継続時間を計時する。すなわち、入力検出部140によりタッチ操作が検出されてから、タッチパネル20からタッチペン等が離されることなく押下(タッチ操作)され続けている時間を計時する。
例えば、継続時間計時部163は、タッチ操作に応じて、初期値(例えば、0)のタイマ値からカウントアップ(計時)を開始する。このカウントアップは、タッチ操作が終わるまで(タッチパネル20からタッチペン等が離されるまで)、若しくは、基準時間を超えるまで続けられる。
なお、上述したクロック回路10cが、このような継続時間計時部163として機能しうる。
Returning to FIG. 3, the continuous
For example, the continuation
Note that the above-described
入力判定部164は、算出された基準時間と、計時された継続時間との関係に基づいて、オブジェクトへの入力の有効無効を判定する。つまり、基準時間算定部162にて算出された基準時間よりも、継続時間計時部163にて計時された継続時間の方が大きい場合に、入力判定部164は、そのオブジェクトへの入力が有効であると判定する。
例えば、継続時間計時部163が計時中の継続時間(タイマ値)が基準時間を超えた時点で、入力判定部164は、オブジェクトへの入力が有効であると判定する。一方、計時された継続時間が、算出された基準時間を超えることなくタッチ操作が終わると、入力判定部164は、そのオブジェクトへの入力が無効であると判定する。
つまり、入力判定部164は、オブジェクトの奥行き方向の距離に応じた基準時間を超えるまでタッチ操作が続けられた場合に限り、そのオブジェクトへの入力が有効であると判定する。
なお、上述したCPUコア10aやWRAM 10e等が、このような入力判定部164として機能しうる。
The
For example, the
That is, the
The above-described CPU core 10a,
このような構成の処理制御部160は、プレイヤによるタッチパネル20へのタッチ操作に応じて、仮想空間内における対象のオブジェクトを特定し、そのオブジェクトの奥行き方向の距離に応じた基準時間を超えるまでそのタッチ操作が持続されると、そのオブジェクトへの入力を有効と判別する。これにより、視点から近いオブジェクトには、短くタッチ操作を行うだけでそのオブジェクトへの入力が行えるが、視点から遠いオブジェクトには、その分長くタッチ操作を行わないと、そのオブジェクトへの入力が行えないことになる。このため、プレイヤは、三次元の仮想空間を表現したゲーム画面を見ながら、その中の任意のオブジェクトに対して、感じている遠近感に沿った自然な(違和感のない)入力操作が行えることになる。
The
(入力受付装置の動作の概要)
以下、このような構成の入力受付装置100の動作について図面を参照して説明する。図8は、入力受付装置100において実行される入力判定処理の流れを示すフローチャートである。以下、本図を参照して説明する。なお、この入力判定処理は、一例として、攻撃対象となる敵キャラクタを、プレイヤがタッチ操作により指示するアクションゲームにおいて実行されるものとする。
(Overview of the operation of the input reception device)
Hereinafter, the operation of the
まず、入力受付装置100は、敵キャラクタ等の位置情報に基づいたゲーム画像を表示する(ステップS201)。すなわち、表示制御部130は、キャラクタや建物等を含む各オブジェクトを、位置情報管理部120にて管理される位置情報に従って仮想空間内に配置し、これらを視点位置の仮想カメラから撮影した画像を生成する。
一例として、表示制御部130は、図9(a)に示すような、プレイヤキャラクタPC、及び、敵キャラクタEC1,EC2を含むゲーム画像を生成し、上述した第2の表示部19に表示する。
First, the
As an example, the
入力受付装置100は、タッチ操作を検出したか否かを判別する(ステップS202)。すなわち、入力検出部140は、タッチパネル20から得られる情報に基づいて、タッチペン等によるタッチパネル20への入力を検出したかどうかを判別する。
入力受付装置100は、タッチ操作を検出していないと判別した場合(ステップS202;No)に、入力受付装置100は、上述したステップS201に処理を戻す。
The
When it is determined that the touch operation is not detected (step S202; No), the
一方、入力受付装置100は、タッチ操作を検出したと判別した場合(ステップS202;Yes)に、検出された入力位置に表示されている敵キャラクタを特定する(ステップS203)。
すなわち、処理制御部160は、例えば、図9(b)に示すように、タッチペンTPにて入力位置Pがタッチ操作された場合、その入力位置P(より詳細には、対応する表示位置)に表示されている敵キャラクタEC1を、位置情報管理部120の位置情報に基づいて特定する。つまり、オブジェクト特定部161は、上述した図5(a)に示すように、画面SC上の表示位置P(入力位置に対応する表示位置)から奥行き方向であるZ軸方向に沿って直線SLを延ばし、この直線SLと交差するオブジェクトOJ(図9(b)の場合に、敵キャラクタEC1)を特定する。
なお、入力位置Pに何れの敵キャラクタ等も表示されていない場合には、入力受付装置100は以降の処理を行わずに、上述したステップS201に処理を戻すものとする。
On the other hand, when it is determined that the touch operation has been detected (step S202; Yes), the
That is, for example, as illustrated in FIG. 9B, when the input position P is touched with the touch pen TP, the
When no enemy character or the like is displayed at the input position P, the
入力受付装置100は、特定した敵キャラクタについて、奥行き方向の距離に応じて定まる基準時間を算定する(ステップS204)。
すなわち、処理制御部160は、ステップS203にて特定した例えば、図9(b)の敵キャラクタEC1について、視点を基準とした仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。つまり、基準時間算定部162は、特定した敵キャラクタEC1のZ値に基づいて基準時間を算定する。
一例として、基準時間算定部162は、Z値が大きくなるに伴って基準時間が長くなるように、上述した図7(a)や図7(b)に示すような、Z値と基準時間とが比例関係となる係数を、オブジェクトのZ値に乗じる等によって基準時間を算定する。
The
That is, the
As an example, the reference
入力受付装置100は、タッチ操作についての継続時間の計時を開始する(ステップS205)。
すなわち、処理制御部160は、タッチパネル20へのタッチ操作が継続している時間を示す継続時間の計時を開始する。つまり、継続時間計時部163は、タッチ操作に応じて、初期値(例えば、0)のタイマ値からのカウントアップを開始する。
The
That is, the
入力受付装置100は、タッチ操作が維持されているか否かを判別する(ステップS206)。
すなわち、処理制御部160は、タッチパネル20からタッチペン等が離されることなく、タッチ操作が続いているかどうかを判別する。ここで、タッチ操作が維持されていないと判別すると(ステップS206;No)、入力受付装置100は、上述したステップS201に処理を戻す。
The
That is, the
一方、タッチ操作が維持されていると判別した場合(ステップS206;Yes)に、入力受付装置100は、継続時間が基準時間を超えたか否かを判別する(ステップS207)。
すなわち、処理制御部160は、継続時間計時部163により計時されている継続時間が、基準時間算定部162にて算定された基準時間よりも大きくなったかどうかを判別する。ここで継続時間がまだ基準時間を超えていないと判別すると(ステップS207;No)、入力受付装置100は、上述したステップS206に処理を戻す。
On the other hand, when it is determined that the touch operation is maintained (step S206; Yes), the
That is, the
また、継続時間が基準時間を超えたと判別した場合(ステップS207;Yes)に、入力受付装置100は、敵キャラクタへの入力が有効であると判別する(ステップS208)。
すなわち、処理制御部160は、例えば、上述した図9(b)の例では、敵キャラクタEC1の奥行き方向の距離に応じて算出された基準時間よりも長くタッチ操作が継続された場合に、その敵キャラクタEC1への入力が有効であると判定する。つまり、入力判定部164は、その敵キャラクタEC1の奥行き方向の距離に応じて定まる基準時間よりも、継続時間計時部163により計時された継続時間の方が大きくなったため、その敵キャラクタEC1への入力が有効であると判定する。
なお、有効が判定された場合に、処理制御部160は、プレイヤキャラクタPCからその敵キャラクタEC1を狙って銃撃する等の攻撃処理を適宜行うものとする。
If it is determined that the duration time exceeds the reference time (step S207; Yes), the
That is, for example, in the example of FIG. 9B described above, the
When the validity is determined, the
このような、入力判定処理において、敵キャラクタ(オブジェクト)の奥行き方向の距離に応じて定まる基準時間よりも長くタッチ操作が行われた場合に、その敵キャラクタへの入力が有効となる。つまり、図9(c)に示すように、奥行き方向の距離が小さい(近い)敵キャラクタEC1に対しては、比較的短い基準時間T1を超えてタッチ操作が続けられると、その入力が有効となる。一方、図9(d)に示すように、奥行き方向の距離が大きい(遠い)敵キャラクタEC2に対しては、比較的長い基準時間T2を超えてタッチ操作が続けられると、その入力が有効となる。
すなわち、プレイヤは、これら図9(c),(d)のような遠近感等を表現するゲーム画面において、敵キャラクタEC1,EC2に対する入力を行う際に、近くの敵キャラクタEC1には、短いタッチ操作を行うことが要請され、逆に、遠くの敵キャラクタEC2には、長いタッチ操作が要求されることになる。このような継続時間が長短異なるタッチ操作は、表示される遠近感(つまり、奥行き方向の距離)に沿ったものであり、ゲーム画面から感じている仮想空間の広がりを損なうことなく(違和感を感じることなく)、敵キャラクタへの入力を行うことができる。
In such an input determination process, when a touch operation is performed longer than a reference time determined according to the distance in the depth direction of the enemy character (object), the input to the enemy character is valid. That is, as shown in FIG. 9C, when the touch operation is continued for a relatively short reference time T1 with respect to the enemy character EC1 whose distance in the depth direction is small (near), the input is valid. Become. On the other hand, as shown in FIG. 9 (d), when the touch operation is continued for a relatively long reference time T2 with respect to the enemy character EC2 whose distance in the depth direction is large (far), the input is valid. Become.
That is, when the player makes an input to the enemy characters EC1 and EC2 on the game screen expressing the perspective as shown in FIGS. 9C and 9D, a short touch is applied to the nearby enemy character EC1. On the contrary, a long touch operation is required for the far enemy character EC2. Such touch operations with different durations are in line with the displayed perspective (that is, the distance in the depth direction), and do not impair the expanse of the virtual space that is felt from the game screen. Without any) input to the enemy character.
この結果、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。 As a result, the input operation for the object arranged in the virtual space can be performed without making the player feel uncomfortable.
(他の実施形態)
上記の実施形態では、継続時間計時部163が、タッチ操作が続いている間に、無条件に継続時間を計時する(カウントアップする)場合について説明したが、タッチ操作が続いている間に、タッチペン等の位置がずれたり、また、表示側のオブジェクトの位置が変化する(移動する)場合も考えられる。
そのため、オブジェクト特定部162は、タッチ操作中において、現在の入力位置に応じたオブジェクトの有無を、位置情報管理部120に管理される現在の位置情報に基づいて順次特定するようにする。そして、継続時間計時部163は、タッチ操作が維持されていたとしても、オブジェクトが特定されなくなった場合には、継続時間の計時を停止してもよい。
この場合、タッチ操作の有効性をより厳格に判定することができる。
(Other embodiments)
In the above embodiment, the case has been described in which the
Therefore, the
In this case, the effectiveness of the touch operation can be determined more strictly.
上記の実施形態では、特定したオブジェクトについて、視点(スクリーン平面)を基準として奥行き方向の距離を求め、この距離に応じた基準時間を算定する場合について説明したが、このような奥行き方向の距離だけでなく、他の距離に応じて基準時間を算定するようにしてもよい。
例えば、2次元の仮想空間を表現するゲーム(2Dゲーム等)の場合では、プレイヤキャラクタから水平方向又は垂直方向に離れて敵キャラクタが配置される場合も多い(一例として、横スクロールや縦スクロールの2Dゲーム等)。そのため、そのような2Dゲーム等の場合では、タッチ位置のオブジェクト(敵キャラクタ等)を特定すると、プレイヤキャラクタからそのオブジェクトまでの水平方向又は垂直方向の距離を求める様にする。そして、この距離に応じた基準時間を算定してもよい。
このように、水平方向や垂直方向の距離に応じて基準時間を算定し、この基準時間よりも長い時間タッチ操作が維持された場合に、そのオブジェクトへの入力を有効と判定することも適宜可能である。
In the above embodiment, a case has been described in which the distance in the depth direction is obtained with respect to the identified object with reference to the viewpoint (screen plane), and the reference time according to this distance is calculated. Instead, the reference time may be calculated according to another distance.
For example, in the case of a game expressing a two-dimensional virtual space (such as a 2D game), enemy characters are often arranged away from the player character in the horizontal or vertical direction (for example, horizontal scrolling or vertical scrolling). 2D games, etc.). Therefore, in such a 2D game or the like, when an object (such as an enemy character) at a touch position is specified, a horizontal or vertical distance from the player character to the object is obtained. And you may calculate the reference time according to this distance.
In this way, the reference time is calculated according to the distance in the horizontal direction or the vertical direction, and when the touch operation is maintained for a time longer than the reference time, it is possible to appropriately determine that the input to the object is valid. It is.
上記の実施形態では、タッチパネル20を介して、入力を行う場合について説明したが、入力デバイスは、このようなタッチパネル20に限られず、他の入力デバイスを用いる場合にも適宜適用可能である。例えば、マウス等により、画面上の任意の位置を指定して、クリック(一例として、左クリック等)による入力を行う場合では、以下のように行うことができる。
In the above-described embodiment, the case where input is performed via the
まず、入力検出部140は、マウスのクリック操作と、その際のマウスカーソルの位置を検出する。オブジェクト特定部161は、クリック操作時のマウスカーソルの表示位置に表示されているオブジェクトを特定する。
また、基準時間算定部162は、特定されたオブジェクトについて、仮想空間内における奥行き方向の距離に応じて定まる基準時間を算定する。継続時間計時部163は、クリック操作(クリックボタンの押下)が続いている間の継続時間を計時する。そして、入力判定部164は、計時されている継続時間が基準時間を超えた時点で、そのオブジェクトへの入力が有効であると判定する。
この場合も、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることができる。
First, the
In addition, the reference
Also in this case, the input operation for the object arranged in the virtual space can be performed without causing the player to feel uncomfortable.
以上説明したように、本発明によれば、仮想空間内に配置されたオブジェクトに対する入力操作を、プレイヤに違和感を感じさせずに行わせることのできる入力受付装置、入力判定方法、および、プログラムを提供することができる。 As described above, according to the present invention, an input reception device, an input determination method, and a program that can cause an input operation on an object arranged in a virtual space without causing the player to feel uncomfortable. Can be provided.
1 ゲーム装置
10 処理制御部
11 コネクタ
12 カートリッジ
13 無線通信部
14 通信コントローラ
15 サウンドアンプ
16 スピーカ
17 操作キー
18 第1の表示部
19 第2の表示部
20 タッチパネル
100 入力受付装置
110 オブジェクト記憶部
120 位置情報管理部
130 表示制御部
140 入力検出部
150 キー操作受付部
160 処理制御部
DESCRIPTION OF
Claims (6)
仮想空間内に配置される敵オブジェクトを含んだゲーム画像を生成し、前記表示画面に表示する表示制御部と、
前記表示画面への入力に応答し、入力位置に表示されている敵オブジェクトを特定するオブジェクト特定部と、
特定された当該敵オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、当該基準時間と入力が継続された時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定部と、を備える、
ことを特徴とする入力受付装置。 An input receiving device that receives an input to a display screen that displays a predetermined game image,
A display control unit that generates a game image including a virtual enemy objects that are placed in the space, is displayed on the display screen,
In response to an input to the display screen, an object specifying unit that specifies an enemy object displayed at the input position;
For the identified enemy object, a reference time determined according to the distance in the virtual space with respect to the viewpoint is obtained, and input to the enemy object is performed based on the relationship between the reference time and the time during which the input is continued. An input determination unit for determining whether the
An input receiving device characterized by that.
三次元の仮想空間内に配置される敵オブジェクトの位置情報を管理する位置情報管理部と、
視点となる仮想カメラから当該敵オブジェクトを含む仮想空間を撮影し、所定のスクリーン平面に投影したゲーム画像を生成して前記表示画面に表示する表示制御部と、
前記タッチパネルへの入力に応答し、前記表示画面における入力位置を検出する入力検出部と、
検出された当該入力位置に表示されている敵オブジェクトを、管理される当該位置情報に基づいて特定するオブジェクト特定部と、
特定された当該敵オブジェクトについて、仮想空間内における視点を基準とした奥行き方向の距離に応じて定まる基準時間を算定する基準時間算定部と、
前記タッチパネルへの入力が継続されている間の継続時間を計時する継続時間計時部と、
算出された当該基準時間と計時された当該継続時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定部と、を備える、
ことを特徴とする入力受付装置。 An input receiving device that receives an input via a touch panel superimposed on a display screen that displays a predetermined game image,
A location information managing unit for managing the location information of the enemy objects that are placed in a three-dimensional virtual space,
A display control unit that shoots a virtual space including the enemy object from a virtual camera as a viewpoint , generates a game image projected on a predetermined screen plane, and displays the game image on the display screen;
An input detection unit that detects an input position on the display screen in response to an input to the touch panel;
An object identifying unit that identifies an enemy object displayed at the detected input position based on the managed position information;
A reference time calculation unit that calculates a reference time determined according to the distance in the depth direction with respect to the viewpoint in the virtual space for the identified enemy object;
A duration timer for measuring the duration while the input to the touch panel is continued;
An input determination unit that determines whether the input to the enemy object is valid or invalid based on the relationship between the calculated reference time and the measured duration.
An input receiving device characterized by that.
前記オブジェクト特定部は、当該入力位置に複数の敵オブジェクトが重なって表示されている場合に、当該各敵オブジェクトのZ値を比較して最も視点に近い敵オブジェクトを特定し、
前記基準時間算定部は、特定された敵オブジェクトの当該Z値に所定の係数を乗じて基準時間を算定する、
ことを特徴とする入力受付装置。 The input receiving device according to claim 2,
The object specifying unit specifies the enemy object closest to the viewpoint by comparing the Z values of the enemy objects when a plurality of enemy objects are displayed overlapping the input position.
The reference time calculation unit calculates a reference time by multiplying the Z value of the identified enemy object by a predetermined coefficient.
An input receiving device characterized by that.
前記入力検出部は、前記タッチパネルへの入力が継続している間において、入力位置を順次検出し、
前記オブジェクト特定部は、順次検出される当該入力位置に表示される敵オブジェクトの有無を、前記位置情報管理部に管理される現在の位置情報に基づいて順次特定し、
前記継続時間計時部は、前記オブジェクト特定部により敵オブジェクトが特定された際に継続時間の計時を開始し、前記オブジェクト特定部により当該敵オブジェクトが特定されなくなった際、若しくは、前記タッチパネルへの入力がなくなった際に、継続時間の計時を停止する、
ことを特徴とする入力受付装置。 The input receiving device according to claim 2 or 3,
The input detection unit sequentially detects the input position while the input to the touch panel continues.
The object specifying unit sequentially specifies the presence or absence of enemy objects displayed at the input positions that are sequentially detected based on the current position information managed by the position information management unit,
The duration measuring unit starts measuring the duration when an enemy object is specified by the object specifying unit, and when the enemy specifying unit is no longer specified by the object specifying unit, or input to the touch panel When the time runs out, stop timing the duration,
An input receiving device characterized by that.
前記表示制御部が、仮想空間内に配置される敵オブジェクトを含んだゲーム画像を生成し、前記表示画面に表示する表示制御ステップと、
前記オブジェクト特定部が、前記表示画面への入力に応答し、入力位置に表示されている敵オブジェクトを特定するオブジェクト特定ステップと、
前記入力判定部が、特定された当該敵オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、当該基準時間と入力が持続された時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定ステップと、を備える、
ことを特徴とする入力判定方法。 An input determination method executed by an input receiving apparatus that includes a display control unit, an object specifying unit, and an input determination unit and receives an input to a display screen that displays a predetermined game image,
Wherein the display control unit, and a display control step of generating a game image including enemy objects that are arranged in virtual space, displayed on said display screen,
An object specifying step in which the object specifying unit specifies an enemy object displayed at the input position in response to an input to the display screen;
For the identified enemy object, the input determination unit obtains a reference time that is determined according to the distance in the virtual space with reference to the viewpoint, and based on the relationship between the reference time and the time during which the input is continued, An input determination step of determining whether the input to the enemy object is valid or invalid,
An input determination method characterized by the above.
仮想空間内に配置される敵オブジェクトを含んだゲーム画像を生成し、前記表示画面に表示する表示制御部、
前記表示画面への入力に応答し、入力位置に表示されている敵オブジェクトを特定するオブジェクト特定部、
特定された当該敵オブジェクトについて、視点を基準とした仮想空間内の距離に応じて定まる基準時間を求め、当該基準時間と入力が継続された時間との関係に基づいて、当該敵オブジェクトへの入力の有効無効を判定する入力判定部、
として機能させることを特徴とするプログラム。 A computer that accepts input to a display screen that displays a predetermined game image,
Display control unit for generating a game image including a virtual enemy objects that are placed in the space, is displayed on the display screen,
In response to an input to the display screen, an object specifying unit that specifies an enemy object displayed at the input position,
For the identified enemy object, a reference time determined according to the distance in the virtual space with respect to the viewpoint is obtained, and input to the enemy object is performed based on the relationship between the reference time and the time during which the input is continued. An input determination unit for determining validity / invalidity of
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009266005A JP5238676B2 (en) | 2009-11-24 | 2009-11-24 | Input receiving device, input determination method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009266005A JP5238676B2 (en) | 2009-11-24 | 2009-11-24 | Input receiving device, input determination method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011113107A JP2011113107A (en) | 2011-06-09 |
JP5238676B2 true JP5238676B2 (en) | 2013-07-17 |
Family
ID=44235424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009266005A Active JP5238676B2 (en) | 2009-11-24 | 2009-11-24 | Input receiving device, input determination method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5238676B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102102309B1 (en) * | 2019-03-12 | 2020-04-21 | 주식회사 피앤씨솔루션 | Object recognition method for 3d virtual space of head mounted display apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3237436B2 (en) * | 1995-02-15 | 2001-12-10 | 日本電気株式会社 | Touch panel coordinate operation method and information processing apparatus using the method |
JP3939709B2 (en) * | 2004-04-30 | 2007-07-04 | 日本電信電話株式会社 | Information input method and information input / output device |
CN101308441B (en) * | 2004-10-12 | 2010-09-22 | 日本电信电话株式会社 | 3d display control method and 3d display control device |
-
2009
- 2009-11-24 JP JP2009266005A patent/JP5238676B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011113107A (en) | 2011-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5146389B2 (en) | Information processing apparatus and estimation method | |
EP2635955B1 (en) | Control of virtual object using device touch interface functionality | |
JP6438198B2 (en) | Program and game device | |
CN109313502A (en) | Utilize the percussion state event location of selection device | |
TWI469815B (en) | Simulation of natural objects to explore the game method, computer program products and systems | |
US20140104207A1 (en) | Method of providing touch effect and electronic device therefor | |
CN109697002B (en) | Method, related equipment and system for editing object in virtual reality | |
CN102981743A (en) | Method for controlling operation object and electronic device | |
WO2008062586A1 (en) | Display, display method, display program, and recording medium | |
CN104850339B (en) | A kind of information processing method and electronic equipment | |
JP2013073479A (en) | Item selection device, item selection method, and program | |
JP2019519856A (en) | Multimodal haptic effect | |
CN113826060A (en) | Creating and using virtual assets on tangible objects in Augmented Reality (AR) and Virtual Reality (VR) | |
JP5783982B2 (en) | Presentation device, program, and system | |
CN110430450A (en) | A kind of method, apparatus and electronic equipment of video location | |
US20120026196A1 (en) | Apparatus including a sensor arrangement and methods of operating the same | |
TW201030673A (en) | Display device, display method, information recording medium, and program | |
JP5842422B2 (en) | Touch panel operating device, touch panel operating device control method, and program | |
JP5238676B2 (en) | Input receiving device, input determination method, and program | |
WO2014142104A1 (en) | Game device | |
JP5081957B2 (en) | Input reception device, item selection method, and program | |
CN104951211B (en) | A kind of information processing method and electronic equipment | |
CN113260426A (en) | Game system, processing method, and information storage medium | |
TWI536249B (en) | Hand-held touch device and its single-hand manipulation of the full touch range method | |
WO2016102948A1 (en) | Coherent touchless interaction with stereoscopic 3d images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130401 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5238676 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |