JP2008259880A - Game program and game device - Google Patents

Game program and game device Download PDF

Info

Publication number
JP2008259880A
JP2008259880A JP2008186384A JP2008186384A JP2008259880A JP 2008259880 A JP2008259880 A JP 2008259880A JP 2008186384 A JP2008186384 A JP 2008186384A JP 2008186384 A JP2008186384 A JP 2008186384A JP 2008259880 A JP2008259880 A JP 2008259880A
Authority
JP
Japan
Prior art keywords
player
virtual
coordinates
game
determination area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008186384A
Other languages
Japanese (ja)
Other versions
JP2008259880A5 (en
JP4743721B2 (en
Inventor
Isao Moro
功 毛呂
Hiromichi Miyake
広通 三宅
Toshinori Kawai
利紀 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2008186384A priority Critical patent/JP4743721B2/en
Publication of JP2008259880A publication Critical patent/JP2008259880A/en
Publication of JP2008259880A5 publication Critical patent/JP2008259880A5/ja
Application granted granted Critical
Publication of JP4743721B2 publication Critical patent/JP4743721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game program and a game device for expressing character actions with rich variations according to simple pointing device operation. <P>SOLUTION: This game program performs predetermined operation between the other object and a player object, when indicating the other object arranged in a first determining area by the pointing device operation of a player. While, when indicating the other object arranged outside the first determining area by the operation of the player, a position of a player object is updated based on an indication position. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ゲームプログラムおよびゲーム装置に関し、より特定的には、所定の座標系の座標情報を出力するタッチパネル等のポインティングデバイスから出力される座標情報を用いて、処理を決定するゲームプログラムおよびゲーム装置に関する。   The present invention relates to a game program and a game apparatus, and more specifically, a game program and a game for determining processing using coordinate information output from a pointing device such as a touch panel that outputs coordinate information of a predetermined coordinate system. Relates to the device.

従来、プレイヤがゲーム画面に表示されるキャラクタ(プレイヤキャラクタ)を操作してゲームを楽しむゲーム装置が広く利用されている。例えば、プレイヤキャラクタを操作するために表示画面上にタッチパネル等のポインティングデバイスが設けられているゲーム装置もある。プレイヤは、タッチパネルを適時タッチ操作しながら、ゲーム画像に登場するプレイヤキャラクタを動作させる(例えば、特許文献1参照)。この特許文献1で開示されたゲームでは、第76段落〜第85段落に記載されているように、プレイヤが攻撃モードと移動モードとを切り替えるとともに、各モードの場合のキャラクタの位置からタッチ位置までの距離を判別して、攻撃動作の有無や移動の有無を決定している。
特開2002−939号公報
Conventionally, game devices that allow a player to enjoy a game by operating a character (player character) displayed on a game screen have been widely used. For example, there is a game apparatus in which a pointing device such as a touch panel is provided on a display screen to operate a player character. A player operates a player character appearing in a game image while performing a touch operation on the touch panel in a timely manner (see, for example, Patent Document 1). In the game disclosed in Patent Document 1, as described in paragraphs 76 to 85, the player switches between the attack mode and the movement mode, and from the character position to the touch position in each mode. And determining whether or not there is an attack action and whether or not there is movement.
JP 2002-939 A

しかしながら、ポインティングデバイスを用いた操作では、ゲーム進行をより簡単な操作で可能とすることが求められる。例えば、上記特許文献1で開示されたゲームでは、プレイヤがポインティングデバイスのみで操作を行おうとすると、モード切り替え等を度々行う必要があり、キャラクタを単純に動作させる場合にも手間を要する。また、キーボードを併用すると押下するキーに対応する動作の内容やコマンド内容をプレイヤが覚える必要性が出てきて、操作方法に慣れるのにある程度の熟練が必要となる。このような理由でプレイヤに要求される操作が煩雑となり、もっと簡単な方法でゲームを進行することが望まれている。   However, in the operation using the pointing device, it is required that the game progress can be performed with a simpler operation. For example, in the game disclosed in Patent Document 1, when a player tries to perform an operation only with a pointing device, it is necessary to frequently perform mode switching or the like, and it takes time and effort even when the character is simply operated. In addition, when a keyboard is used in combination, it becomes necessary for the player to learn the contents of the operation corresponding to the key to be pressed and the contents of the command, and some skill is required to get used to the operation method. For this reason, the operation required for the player becomes complicated, and it is desired to advance the game by a simpler method.

それ故に、本発明の目的は、簡単なポインティングデバイス操作に応じてバリエーションに富んだキャラクタ動作を表現するゲームプログラムおよびゲーム装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a game program and a game apparatus that express a variety of character actions according to simple pointing device operations.

上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号(ステップをSと略称しステップ番号のみを記載する)等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。   In order to achieve the above object, the present invention employs the following configuration. Reference numerals in parentheses, step numbers (steps are abbreviated as S, and only step numbers are described), and the like indicate correspondence with embodiments described later in order to help understanding of the present invention. The scope of the present invention is not limited at all.

第1の発明は、プレイヤオブジェクト(PC)および少なくとも1つの他のオブジェクト(OBJ、NPC)が存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面(12)上に表示し、プレイヤの操作に応じて表示画面上の座標系における入力座標(DC1)を出力するポインティングデバイス(15)によって操作されるゲーム装置(1)のコンピュータ(21)で実行されるゲームプログラムである。ゲームプログラムは、仮想配置座標記憶ステップ(DO、S50)、第1判定領域設定ステップ(S93、S104)、検出ステップ(S51)、指示オブジェクト検出ステップ(S57〜S59)、第1アクション処理ステップ(S95、S107、S109、S111)、プレイヤオブジェクト位置更新ステップ(S99、S112)、および表示制御ステップ(S65)をコンピュータに実行させる。仮想配置座標記憶ステップは、プレイヤオブジェクトおよび他のオブジェクトの仮想空間における位置をそれぞれ示す仮想配置座標(DOの位置座標)をメモリ(24)に記憶する。第1判定領域設定ステップは、プレイヤオブジェクトの仮想配置座標(Xpc、Ypc、Zpc)に基づいて、仮想空間におけるプレイヤオブジェクトの位置を基準とする第1の判定領域(A1、A3)を設定する。検出ステップは、ポインティングデバイスより出力される入力座標を検出する。指示オブジェクト検出ステップは、表示画面上の入力座標が仮想空間に配置されたプレイヤオブジェクトまたは他のオブジェクトと重なるとき、そのオブジェクトをプレイヤによって指示された指示オブジェクトとして検出する(図5)。第1アクション処理ステップは、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれる他のオブジェクトであると判断したとき(S94でYes、S105でYes)、その指示オブジェクトとプレイヤオブジェクトとの間で所定の動作を実行する。プレイヤオブジェクト位置更新ステップは、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれないと判断したとき(S94でNo、S105でNo)、表示画面上の入力座標と重なる仮想空間における点(TG)の方向へプレイヤオブジェクトが移動するように、メモリに記憶されたプレイヤオブジェクトの仮想配置座標を更新する。表示制御ステップは、メモリに記憶された各仮想配置座標に基づいて、プレイヤオブジェクトおよび他のオブジェクトを表示画面に表示する。なお、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、タッチパネル、マウス、トラックパッド、トラックボールなどで実現される。そして、それぞれの入力装置で用いられる座標系は、タッチパネル座標系や画面座標系である。   The first invention displays on the display screen (12) a game image representing at least a part of a virtual space in which a player object (PC) and at least one other object (OBJ, NPC) are present, and It is a game program executed by the computer (21) of the game apparatus (1) operated by the pointing device (15) that outputs the input coordinates (DC1) in the coordinate system on the display screen according to the operation. The game program includes a virtual arrangement coordinate storage step (DO, S50), a first determination area setting step (S93, S104), a detection step (S51), an instruction object detection step (S57 to S59), and a first action processing step (S95). , S107, S109, S111), the player object position update step (S99, S112), and the display control step (S65) are executed by the computer. In the virtual arrangement coordinate storage step, virtual arrangement coordinates (DO position coordinates) respectively indicating the positions of the player object and other objects in the virtual space are stored in the memory (24). The first determination area setting step sets a first determination area (A1, A3) based on the position of the player object in the virtual space based on the virtual arrangement coordinates (Xpc, Ypc, Zpc) of the player object. In the detection step, input coordinates output from the pointing device are detected. In the instruction object detection step, when the input coordinates on the display screen overlap with a player object or another object arranged in the virtual space, the object is detected as an instruction object instructed by the player (FIG. 5). When the first action processing step determines that the instruction object is another object included in the first determination area based on the virtual arrangement coordinates of the instruction object (Yes in S94, Yes in S105), the instruction A predetermined action is executed between the object and the player object. When the player object position updating step determines that the instruction object is not included in the first determination area based on the virtual arrangement coordinates of the instruction object (No in S94, No in S105), the input coordinates on the display screen The virtual arrangement coordinates of the player object stored in the memory are updated so that the player object moves in the direction of the point (TG) in the virtual space overlapping with the player. The display control step displays the player object and other objects on the display screen based on each virtual arrangement coordinate stored in the memory. The pointing device is an input device that specifies an input position and coordinates on the screen, and is realized by, for example, a touch panel, a mouse, a track pad, a track ball, and the like. A coordinate system used in each input device is a touch panel coordinate system or a screen coordinate system.

第2の発明は、プレイヤオブジェクトおよび少なくとも1つの他のオブジェクトが存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面上に表示し、プレイヤの操作に応じて表示画面上の座標系における入力座標を出力するポインティングデバイスによって操作されるゲーム装置のコンピュータで実行されるゲームプログラムである。ゲームプログラムは、仮想配置座標記憶ステップ、第1判定領域設定ステップ、仮想入力座標算出ステップ(S60)、指示オブジェクト検出ステップ、第1アクション処理ステップ、プレイヤオブジェクト位置更新ステップ、および表示制御ステップをコンピュータに実行させる。仮想配置座標記憶ステップは、プレイヤオブジェクトおよび他のオブジェクトの仮想空間における位置をそれぞれ示す仮想配置座標をメモリに記憶する。第1判定領域設定ステップは、プレイヤオブジェクトの仮想配置座標に基づいて、仮想空間におけるプレイヤオブジェクトの位置を基準とする第1の判定領域を設定する。仮想入力座標算出ステップは、入力座標が出力されたとき、表示画面上のその入力座標に重なる仮想空間における仮想入力座標(DC2)を算出する。指示オブジェクト検出ステップは、仮想入力座標算出ステップによって算出される仮想入力座標が仮想空間に配置されたプレイヤオブジェクトまたは他のオブジェクトと重なるとき、そのオブジェクトをプレイヤによって指示された指示オブジェクトとして検出する。第1アクション処理ステップは、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれる他のオブジェクトであると判断したとき、その指示オブジェクトとプレイヤオブジェクトとの間で所定の動作を実行する。プレイヤオブジェクト位置更新ステップは、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれないと判断したとき、仮想入力座標に基づいた方向へプレイヤオブジェクトが移動するように、その仮想入力座標に基づいてメモリに記憶されたプレイヤオブジェクトの仮想配置座標を更新する。表示制御ステップは、メモリに記憶された各仮想配置座標に基づいて、プレイヤオブジェクトおよび他のオブジェクトを表示画面に表示する。   According to a second aspect of the present invention, a game image representing at least a part of a virtual space in which a player object and at least one other object are present is displayed on a display screen, and in a coordinate system on the display screen according to a player's operation. A game program executed on a computer of a game device operated by a pointing device that outputs input coordinates. The game program stores a virtual arrangement coordinate storage step, a first determination area setting step, a virtual input coordinate calculation step (S60), a pointing object detection step, a first action processing step, a player object position update step, and a display control step. Let it run. In the virtual arrangement coordinate storage step, virtual arrangement coordinates indicating the positions of the player object and other objects in the virtual space are stored in the memory. The first determination area setting step sets a first determination area based on the position of the player object in the virtual space based on the virtual arrangement coordinates of the player object. The virtual input coordinate calculation step calculates a virtual input coordinate (DC2) in a virtual space overlapping the input coordinate on the display screen when the input coordinate is output. In the pointing object detection step, when the virtual input coordinates calculated in the virtual input coordinate calculation step overlap with the player object or other objects arranged in the virtual space, the object is detected as the pointing object specified by the player. When the first action processing step determines that the instruction object is another object included in the first determination area based on the virtual arrangement coordinates of the instruction object, the first action processing step is performed between the instruction object and the player object. Execute the operation. In the player object position update step, when it is determined that the instruction object is not included in the first determination area based on the virtual placement coordinates of the instruction object, the player object moves in the direction based on the virtual input coordinates. The virtual arrangement coordinates of the player object stored in the memory are updated based on the virtual input coordinates. The display control step displays the player object and other objects on the display screen based on each virtual arrangement coordinate stored in the memory.

第3の発明は、上記第2の発明において、仮想入力座標算出ステップは、表示画面上の入力座標が仮想空間に配置されたゲームフィールド(FD)と重なるとき、そのゲームフィールド上に仮想入力座標を算出するステップを含む。   In a third aspect based on the second aspect, in the virtual input coordinate calculation step, when the input coordinates on the display screen overlap with a game field (FD) arranged in the virtual space, the virtual input coordinates are displayed on the game field. The step of calculating is included.

第4の発明は、上記第1または第2の発明において、第1アクション処理ステップは、プレイヤオブジェクトが所持しているアイテムと他のオブジェクトの種類との組み合わせに応じて、そのプレイヤオブジェクトと他のオブジェクトとの間で行う動作を決定するステップを含む(S91、S101〜S106、図10)。   In a fourth aspect based on the first aspect or the second aspect, the first action processing step is performed according to a combination of the item possessed by the player object and the type of the other object. This includes a step of determining an action to be performed with the object (S91, S101 to S106, FIG. 10).

第5の発明は、上記第1または第2の発明において、プレイヤオブジェクト位置更新ステップは、指示オブジェクト検出ステップで指示オブジェクトを検出しないとき(S105でNo)、入力座標または仮想入力座標に基づいてメモリに記憶されたプレイヤオブジェクト位置データを更新するステップを含む(S112)。   In a fifth aspect based on the first or second aspect, when the player object position update step does not detect the pointing object in the pointing object detection step (No in S105), the memory is based on the input coordinates or the virtual input coordinates. The player object position data stored in is updated (S112).

第6の発明は、上記第1または第2の発明において、第1判定領域設定ステップは、プレイヤオブジェクトが所持しているアイテムに応じて、第1の判定領域(A3)の大きさを変更するステップを含む。   In a sixth aspect based on the first or second aspect, the first determination area setting step changes the size of the first determination area (A3) according to the item possessed by the player object. Includes steps.

第7の発明は、上記第1または第2の発明において、第1の判定領域は、プレイヤオブジェクトの仮想配置座標に基づいて、プレイヤオブジェクトの正面に対して左右所定角度(θ1、θ3)の範囲で仮想空間に設定される。   In a seventh aspect based on the first or second aspect, the first determination area is a range of predetermined left and right angles (θ1, θ3) with respect to the front of the player object based on the virtual arrangement coordinates of the player object. Is set in the virtual space.

第8の発明は、上記第1または第2の発明において、ゲームプログラムは、第2判定領域設定ステップ(S96)および第2アクション処理ステップ(S98)を、さらにコンピュータに実行させる。第2判定領域設定ステップは、プレイヤオブジェクトの位置を基準として、仮想空間に第1の判定領域とは異なった第2の判定領域(A2)を設定する。第2アクション処理ステップは、指示オブジェクト検出ステップで検出した指示オブジェクトがその指示オブジェクトの仮想配置座標に基づいて第1の判定領域外で第2の判定領域内に配置された(S97でYes)特定のオブジェクト(NPC)であるとき、その特定のオブジェクトとプレイヤオブジェクトとの間で第1アクション処理ステップが行う動作とは異なった別の動作をその特定のオブジェクトとプレイヤオブジェクトとの間で行う。   In an eighth aspect based on the first or second aspect, the game program causes the computer to further execute a second determination area setting step (S96) and a second action processing step (S98). The second determination area setting step sets a second determination area (A2) different from the first determination area in the virtual space with reference to the position of the player object. In the second action processing step, the indication object detected in the indication object detection step is arranged outside the first determination area and in the second determination area based on the virtual arrangement coordinates of the instruction object (Yes in S97). When the object is an object (NPC), another action different from the action performed by the first action processing step is performed between the specific object and the player object.

第9の発明は、上記第1または第2の発明において、ゲームプログラムは、プレイヤアクション処理ステップ(S102)をさらにコンピュータに実行させる。プレイヤアクション処理ステップは、指示オブジェクト検出ステップで検出した指示オブジェクトがプレイヤオブジェクトであるとき(S101でYes)、他のオブジェクトの仮想配置座標に基づいて第1の判定領域内に配置されたその他のオブジェクトとそのプレイヤオブジェクトとの間で所定の動作を行う。   In a ninth aspect based on the first or second aspect, the game program causes the computer to further execute a player action processing step (S102). In the player action processing step, when the instruction object detected in the instruction object detection step is a player object (Yes in S101), other objects arranged in the first determination area based on the virtual arrangement coordinates of other objects And a predetermined action between the player object and the player object.

第10の発明は、プレイヤオブジェクトおよび少なくとも1つの他のオブジェクトが存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面上に表示し、プレイヤの操作に応じて表示画面上の座標系における入力座標を出力するポインティングデバイスによって操作されるゲーム装置である。ゲーム装置は、記憶手段(24)、仮想配置座標記憶制御手段、第1判定領域設定手段、検出手段、指示オブジェクト検出手段、第1アクション処理手段、プレイヤオブジェクト位置更新手段、および表示制御手段を備えている。仮想配置座標記憶制御手段は、プレイヤオブジェクトおよび他のオブジェクトの仮想空間における位置をそれぞれ示す仮想配置座標を記憶手段に記憶する。第1判定領域設定手段は、プレイヤオブジェクトの仮想配置座標に基づいて、仮想空間におけるプレイヤオブジェクトの位置を基準とする第1の判定領域を設定する。検出手段は、ポインティングデバイスより出力される入力座標を検出する。指示オブジェクト検出手段は、表示画面上の入力座標が仮想空間に配置されたプレイヤオブジェクトまたは他のオブジェクトと重なるとき、そのオブジェクトをプレイヤによって指示された指示オブジェクトとして検出する。第1アクション処理手段は、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれる他のオブジェクトであると判断したとき、その指示オブジェクトとプレイヤオブジェクトとの間で所定の動作を実行する。プレイヤオブジェクト位置更新手段は、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれないと判断したとき、表示画面上の入力座標と重なる仮想空間における点の方向へプレイヤオブジェクトが移動するように、記憶手段に記憶されたプレイヤオブジェクトの仮想配置座標を更新する。表示制御手段は、記憶手段に記憶された各仮想配置座標に基づいて、プレイヤオブジェクトおよび他のオブジェクトを表示画面に表示する。   In a tenth aspect of the present invention, a game image representing at least a part of a virtual space in which a player object and at least one other object are present is displayed on a display screen, and in a coordinate system on the display screen according to a player's operation. The game device is operated by a pointing device that outputs input coordinates. The game apparatus includes storage means (24), virtual arrangement coordinate storage control means, first determination area setting means, detection means, pointing object detection means, first action processing means, player object position update means, and display control means. ing. The virtual arrangement coordinate storage control means stores virtual arrangement coordinates indicating the positions of the player object and other objects in the virtual space, respectively. The first determination area setting means sets a first determination area based on the position of the player object in the virtual space based on the virtual arrangement coordinates of the player object. The detecting means detects input coordinates output from the pointing device. When the input coordinates on the display screen overlap with the player object or other objects arranged in the virtual space, the pointing object detection means detects the object as the pointing object specified by the player. When the first action processing means determines that the instruction object is another object included in the first determination area based on the virtual arrangement coordinates of the instruction object, the first action processing means determines a predetermined value between the instruction object and the player object. Execute the operation. When the player object position updating means determines that the pointing object is not included in the first determination area based on the virtual placement coordinates of the pointing object, the player object position updating means moves to the direction of the point in the virtual space overlapping the input coordinates on the display screen. The virtual arrangement coordinates of the player object stored in the storage means are updated so that the player object moves. The display control means displays the player object and other objects on the display screen based on each virtual arrangement coordinate stored in the storage means.

第11の発明は、プレイヤオブジェクトおよび少なくとも1つの他のオブジェクトが存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面上に表示し、プレイヤの操作に応じて表示画面上の座標系における入力座標を出力するポインティングデバイスによって操作されるゲーム装置である。ゲーム装置は、記憶手段、仮想配置座標記憶制御手段、第1判定領域設定手段、仮想入力座標算出手段、指示オブジェクト検出手段、第1アクション処理手段、プレイヤオブジェクト位置更新手段、および表示制御手段を備えている。仮想配置座標記憶制御手段は、プレイヤオブジェクトおよび他のオブジェクトの仮想空間における位置をそれぞれ示す仮想配置座標を記憶手段に記憶する。第1判定領域設定手段は、プレイヤオブジェクトの仮想配置座標に基づいて、仮想空間におけるプレイヤオブジェクトの位置を基準とする第1の判定領域を設定する。仮想入力座標算出手段は、入力座標が出力されたとき、表示画面上のその入力座標に重なる仮想空間における仮想入力座標を算出する。指示オブジェクト検出手段は、仮想入力座標算出手段によって算出される仮想入力座標が仮想空間に配置されたプレイヤオブジェクトまたは他のオブジェクトと重なるとき、そのオブジェクトをプレイヤによって指示された指示オブジェクトとして検出する。第1アクション処理手段は、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれる他のオブジェクトであると判断したとき、その指示オブジェクトとプレイヤオブジェクトとの間で所定の動作を実行する。プレイヤオブジェクト位置更新手段は、指示オブジェクトの仮想配置座標に基づいてその指示オブジェクトが第1の判定領域内に含まれないと判断したとき、仮想入力座標に基づいた方向へプレイヤオブジェクトが移動するように、その仮想入力座標に基づいて記憶手段に記憶されたプレイヤオブジェクトの仮想配置座標を更新する。表示制御手段は、記憶手段に記憶された各仮想配置座標に基づいて、プレイヤオブジェクトおよび他のオブジェクトを表示画面に表示する。   In an eleventh aspect of the present invention, a game image representing at least a part of a virtual space in which a player object and at least one other object are present is displayed on a display screen, and in a coordinate system on the display screen according to a player's operation. The game device is operated by a pointing device that outputs input coordinates. The game apparatus includes storage means, virtual arrangement coordinate storage control means, first determination area setting means, virtual input coordinate calculation means, pointing object detection means, first action processing means, player object position update means, and display control means. ing. The virtual arrangement coordinate storage control means stores virtual arrangement coordinates indicating the positions of the player object and other objects in the virtual space, respectively. The first determination area setting means sets a first determination area based on the position of the player object in the virtual space based on the virtual arrangement coordinates of the player object. The virtual input coordinate calculation means calculates a virtual input coordinate in a virtual space overlapping the input coordinate on the display screen when the input coordinate is output. When the virtual input coordinate calculated by the virtual input coordinate calculation unit overlaps with the player object or other object arranged in the virtual space, the pointing object detection unit detects the object as the pointing object specified by the player. When the first action processing means determines that the instruction object is another object included in the first determination area based on the virtual arrangement coordinates of the instruction object, the first action processing means determines a predetermined value between the instruction object and the player object. Execute the operation. When the player object position updating unit determines that the instruction object is not included in the first determination area based on the virtual placement coordinates of the instruction object, the player object position update unit moves the player object in a direction based on the virtual input coordinates. The virtual arrangement coordinates of the player object stored in the storage means are updated based on the virtual input coordinates. The display control means displays the player object and other objects on the display screen based on each virtual arrangement coordinate stored in the storage means.

上記第1および第2の発明によれば、プレイヤオブジェクトを基準に第1の判定領域を設定し、プレイヤが操作指示した位置と第1の判定領域との関係によって異なるアクションが表現される。具体的には、指示された対象が第1の判定領域内にある他のオブジェクトである場合、プレイヤオブジェクトが当該オブジェクトに対して所定のアクションを行う。一方、指示された対象が第1の判定領域外である場合、プレイヤオブジェクトは、指示された位置に基づいて移動するアクションを行う。したがって、同じ単純なプレイヤの操作であってもバリエーションに富んだキャラクタ動作を表現することができる。   According to the first and second aspects of the invention, the first determination area is set based on the player object, and different actions are expressed depending on the relationship between the position instructed by the player and the first determination area. Specifically, when the instructed target is another object in the first determination area, the player object performs a predetermined action on the object. On the other hand, when the instructed target is outside the first determination area, the player object performs an action of moving based on the instructed position. Therefore, even with the same simple player's operation, it is possible to express a variety of character actions.

上記第3の発明によれば、プレイヤは、操作指示したゲームフィールド上の位置に基づいて、プレイヤオブジェクトを移動させるアクションを指示することができる。   According to the third aspect, the player can instruct an action to move the player object based on the position on the game field that has been instructed to operate.

上記第4の発明によれば、プレイヤオブジェクトが装備しているアイテムと対象のオブジェクトの種類との組み合わせによってアクションが決定され、当該組み合わせに応じてアクションを変更することができる。したがって、同じ単純な操作であってもアイテムおよびオブジェクトの種類に応じて変更されるキャラクタ動作を表現することができる。   According to the fourth aspect of the present invention, an action is determined by a combination of an item equipped with a player object and the type of the target object, and the action can be changed according to the combination. Therefore, even with the same simple operation, it is possible to express a character action that is changed according to the type of item and object.

上記第5の発明によれば、プレイヤがオブジェクトを指示しなくても、操作に応じたアクションが行われるため、プレイヤオブジェクトが反応しないようなプレイヤ操作を回避することができる。   According to the fifth aspect, since an action corresponding to the operation is performed even if the player does not specify the object, it is possible to avoid a player operation in which the player object does not react.

上記第6の発明によれば、第1の判定領域は、プレイヤオブジェクトが所持しているアイテムに応じて大きさが変更され、例えば、設定されたアイテムの特性に応じて第1の判定領域の大きさを変化させることができる。つまり、相対的に近くのオブジェクトに対して使用されるアイテムには小さな第1の判定領域を設定し、相対的に遠くのオブジェクトに対しても使用されるアイテムには大きな第1の判定領域を設定することができる。したがって、仮想空間で表現されるアイテム特性に応じてリアリティのある第1の判定領域を設定することによって、より現実的なアクションを表現することが可能となる。   According to the sixth aspect, the size of the first determination area is changed according to the item possessed by the player object. For example, the first determination area includes the first determination area according to the set characteristic of the item. The size can be changed. That is, a small first determination area is set for an item used for a relatively close object, and a large first determination area is set for an item used for a relatively distant object. Can be set. Therefore, it is possible to express a more realistic action by setting the first determination region with reality according to the item characteristics expressed in the virtual space.

上記第7の発明によれば、プレイヤオブジェクトの正面方向に第1の判定領域が設定されるため、プレイヤオブジェクトの背後と正面とによってアクションを変えることができ、プレイヤオブジェクトの方向に応じてリアリティのあるアクションを表現することが可能となる。   According to the seventh aspect, since the first determination region is set in the front direction of the player object, the action can be changed depending on the back and front of the player object, and the reality can be changed according to the direction of the player object. It is possible to express a certain action.

上記第8の発明によれば、プレイヤオブジェクトが同じ特定オブジェクト(例えば、ノンプレイヤキャラクタ)に対して、同じ操作であってもバリエーションに富んだキャラクタ動作を表現することができる。具体的には、プレイヤオブジェクトと特定オブジェクトとの距離に応じて、異なったアクションを表現することができる。   According to the eighth aspect of the present invention, it is possible to express a variety of character actions even if the player object is the same operation on the same specific object (for example, non-player character). Specifically, different actions can be expressed according to the distance between the player object and the specific object.

上記第9の発明によれば、プレイヤの操作によってプレイヤオブジェクトが指示された場合、第1の判定領域に配置されている他のオブジェクトとの間で所定のアクションを行う。したがって、プレイヤオブジェクトを指示するだけの操作であっても、バリエーションに富んだキャラクタ動作を表現することができる。   According to the ninth aspect, when a player object is instructed by an operation of the player, a predetermined action is performed with another object arranged in the first determination area. Therefore, even with an operation that only indicates the player object, a variety of character actions can be expressed.

また、本発明のゲーム装置によれば、上述したゲームプログラムと同様の効果を得ることができる。   Further, according to the game device of the present invention, the same effect as the above-described game program can be obtained.

図面を参照して、本発明の一実施形態に係るゲームプログラムを実行するゲーム装置について説明する。本発明のゲームプログラムは、表示装置に表示可能な任意のコンピュータシステムで実行されることによって適用することができるが、情報処理装置(ゲーム装置)の一例としてゲーム装置1で実行されるゲームプログラムを用いて説明する。なお、図1は、本発明のゲームプログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。   A game device that executes a game program according to an embodiment of the present invention will be described with reference to the drawings. The game program of the present invention can be applied by being executed by an arbitrary computer system that can be displayed on the display device. The game program executed by the game device 1 is an example of an information processing device (game device). It explains using. FIG. 1 is an external view of a game apparatus 1 that executes the game program of the present invention. Here, a portable game device is shown as an example of the game device 1.

図1において、ゲーム装置1は、第1のLCD(Liquid Crystal Display:液晶表示装置)11および第2のLCD12を含む。ハウジング13は、上側ハウジング13aと下側ハウジング13bとによって構成されており、第1のLCD11は上側ハウジング13aに収納され、第2のLCD12は下側ハウジング13bに収納される。第1のLCD11および第2のLCD12の解像度は、いずれも256dot×192dotである。なお、本実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を利用することができる。また、第1のLCD11および第2のLCD12は、任意の解像度のものを利用することができる。   In FIG. 1, the game apparatus 1 includes a first LCD (Liquid Crystal Display) 11 and a second LCD 12. The housing 13 includes an upper housing 13a and a lower housing 13b. The first LCD 11 is accommodated in the upper housing 13a, and the second LCD 12 is accommodated in the lower housing 13b. The resolutions of the first LCD 11 and the second LCD 12 are both 256 dots × 192 dots. In this embodiment, an LCD is used as the display device. However, any other display device such as a display device using EL (Electro Luminescence) can be used. The first LCD 11 and the second LCD 12 can use any resolution.

上側ハウジング13aには、後述する1対のスピーカ(図2の30a、30b)からの音を外部に放出するための音抜き孔18a、18bが形成されている。   The upper housing 13a is formed with sound release holes 18a and 18b for releasing sound from a pair of speakers (30a and 30b in FIG. 2) to be described later.

下側ハウジング13bには、入力装置として、十字スイッチ14a、スタートスイッチ14b、セレクトスイッチ14c、Aボタン14d、Bボタン14e、Xボタン14f、Yボタン14g、電源スイッチ14h、Lボタン14L、およびRボタン14Rが設けられている。また、さらなる入力装置として、第2のLCD12の画面上にタッチパネル15が装着されている。また、下側ハウジング13bには、メモリカード17やスティック16を収納するための挿入口も設けられている。   The lower housing 13b has a cross switch 14a, a start switch 14b, a select switch 14c, an A button 14d, a B button 14e, an X button 14f, a Y button 14g, a power switch 14h, an L button 14L, and an R button as input devices. 14R is provided. As a further input device, a touch panel 15 is mounted on the screen of the second LCD 12. The lower housing 13b is also provided with an insertion port for storing the memory card 17 and the stick 16.

タッチパネル15としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式等、任意の方式のものを利用することができる。タッチパネル15は、その表面をスティック16で触れると、その接触位置に対応する座標データを出力する機能を有するポインティングデバイスの一例である。なお、以下ではプレイヤがタッチパネル15をスティック16で操作するものとして説明を行うが、スティック16の代わりにペン(スタイラスペン)や指でタッチパネル15を操作することももちろん可能である。本実施形態では、タッチパネル15として、第2のLCD12の解像度と同じく256dot×192dotの解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル15の解像度と第2のLCD12との解像度が一致している必要はない。   As the touch panel 15, an arbitrary type such as a resistive film type, an optical type (infrared type), and a capacitive coupling type can be used. The touch panel 15 is an example of a pointing device having a function of outputting coordinate data corresponding to the contact position when the surface of the touch panel 15 is touched with the stick 16. In the following description, it is assumed that the player operates the touch panel 15 with the stick 16, but it is of course possible to operate the touch panel 15 with a pen (stylus pen) or a finger instead of the stick 16. In the present embodiment, the touch panel 15 having a resolution (detection accuracy) of 256 dots × 192 dots is used as in the resolution of the second LCD 12. However, the resolution of the touch panel 15 and the resolution of the second LCD 12 do not necessarily match.

メモリカード17は、ゲームプログラム等を記録した記録媒体であり、下部ハウジング13bに設けられた挿入口に着脱自在に装着される。   The memory card 17 is a recording medium on which a game program or the like is recorded, and is detachably attached to an insertion port provided in the lower housing 13b.

次に、図2を参照して、ゲーム装置1の内部構成を説明する。なお、図2は、ゲーム装置1の内部構成を示すブロック図である。   Next, the internal configuration of the game apparatus 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the internal configuration of the game apparatus 1.

図2において、ハウジング13に収納される電子回路基板20には、CPUコア21が実装される。CPUコア21には、バス22を介して、コネクタ23が接続されるとともに、入出力インターフェース回路(図面ではI/F回路と記す)25、第1GPU(Graphics Processing Unit)26、第2GPU27、RAM24、LCDコントローラ31、およびワイヤレス通信部33が接続される。コネクタ23には、メモリカード17が着脱自在に接続される。メモリカード17は、ゲームプログラムを記憶するROM17aと、バックアップデータを書き換え可能に記憶するRAM17bを搭載する。メモリカード17のROM17aに記憶されたゲームプログラムは、RAM24にロードされ、RAM24にロードされたゲームプログラムがCPUコア21によって実行される。RAM24には、ゲームプログラムの他にも、適宜、CPUコア21がプログラムを実行して得られる一時的なデータを生成するためのデータ等が記憶される。I/F回路25には、タッチパネル15、右スピーカ30a、左スピーカ30b、および図1の十字スイッチ14aやAボタン14d等から成る操作スイッチ部14が接続される。右スピーカ30aおよび左スピーカ30bは、音抜き孔18aおよび18bの内側にそれぞれ配置される。   In FIG. 2, a CPU core 21 is mounted on the electronic circuit board 20 accommodated in the housing 13. A connector 23 is connected to the CPU core 21 via a bus 22, an input / output interface circuit (referred to as I / F circuit in the drawing) 25, a first GPU (Graphics Processing Unit) 26, a second GPU 27, a RAM 24, The LCD controller 31 and the wireless communication unit 33 are connected. The memory card 17 is detachably connected to the connector 23. The memory card 17 includes a ROM 17a that stores a game program and a RAM 17b that stores backup data in a rewritable manner. The game program stored in the ROM 17a of the memory card 17 is loaded into the RAM 24, and the game program loaded into the RAM 24 is executed by the CPU core 21. In addition to the game program, the RAM 24 appropriately stores data for generating temporary data obtained by the CPU core 21 executing the program. The I / F circuit 25 is connected to the touch panel 15, the right speaker 30a, the left speaker 30b, and the operation switch unit 14 including the cross switch 14a and the A button 14d shown in FIG. The right speaker 30a and the left speaker 30b are disposed inside the sound release holes 18a and 18b, respectively.

第1GPU26には、第1VRAM(Video RAM)28が接続され、第2GPU27には、第2VRAM29が接続される。第1GPU26は、CPUコア21からの指示に応じて、RAM24に記憶されている表示画像を生成するためのデータに基づいて第1の表示画像を生成し、第1VRAM28に描画する。第2GPU27は、同様にCPUコア21からの指示に応じて第2の表示画像を生成し、第2VRAM29に描画する。第1VRAM28および第2VRAM29は、LCDコントローラ31に接続されている。   A first VRAM (Video RAM) 28 is connected to the first GPU 26, and a second VRAM 29 is connected to the second GPU 27. In response to an instruction from the CPU core 21, the first GPU 26 generates a first display image based on data for generating a display image stored in the RAM 24, and draws the first display image in the first VRAM 28. Similarly, the second GPU 27 generates a second display image in accordance with an instruction from the CPU core 21 and draws it in the second VRAM 29. The first VRAM 28 and the second VRAM 29 are connected to the LCD controller 31.

LCDコントローラ31は、レジスタ32を含む。レジスタ32は、CPUコア21からの指示に応じて0または1の値を記憶する。LCDコントローラ31は、レジスタ32の値が0の場合は、第1VRAM28に描画された第1のゲーム画像を第1のLCD11に出力し、第2VRAM29に描画された第2のゲーム画像を第2のLCD12に出力する。また、レジスタ32の値が1の場合は、第1VRAM28に描画された第1のゲーム画像を第2のLCD12に出力し、第2VRAM29に描画された第2のゲーム画像を第1のLCD11に出力する。   The LCD controller 31 includes a register 32. The register 32 stores a value of 0 or 1 according to an instruction from the CPU core 21. When the value of the register 32 is 0, the LCD controller 31 outputs the first game image drawn in the first VRAM 28 to the first LCD 11 and the second game image drawn in the second VRAM 29 as the second game image. Output to the LCD 12. When the value of the register 32 is 1, the first game image drawn in the first VRAM 28 is output to the second LCD 12, and the second game image drawn in the second VRAM 29 is output to the first LCD 11. To do.

ワイヤレス通信部33は、他のゲーム装置のワイヤレス通信部33との間で、ゲーム処理に利用されるデータやその他のデータをやりとりする機能を有しており、一例としてIEEE802.11の無線LAN規格に則った無線通信機能を提供する。そして、ワイヤレス通信部33は、受信したデータをCPUコア21に出力する。また、ワイヤレス通信部33は、CPUコア21から指示されたデータを他のゲーム装置へ送信する。なお、TCP/IP(Transmission Control Protocol/Internet Protocol)等のプロトコルや所定のブラウザをワイヤレス通信部33やゲーム装置1内の記憶部に実装することによって、ゲーム装置1は、ワイヤレス通信部33を介してインターネット等のネットワークとの接続が可能となる。そして、ゲーム装置1は、ネットワーク上で公開されている文書や画像等のデータを第1のLCD11および第2のLCD12で閲覧することができる。   The wireless communication unit 33 has a function of exchanging data used for game processing and other data with the wireless communication unit 33 of other game devices. As an example, the wireless LAN standard of IEEE802.11. Provides wireless communication functions that comply with Then, the wireless communication unit 33 outputs the received data to the CPU core 21. Further, the wireless communication unit 33 transmits data instructed by the CPU core 21 to another game device. Note that the game device 1 is connected via the wireless communication unit 33 by mounting a protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol) or a predetermined browser in the wireless communication unit 33 or the storage unit in the game device 1. This makes it possible to connect to a network such as the Internet. The game apparatus 1 can browse data such as documents and images published on the network on the first LCD 11 and the second LCD 12.

なお、本発明のゲームプログラムは、メモリカード17等の外部記憶媒体を通じてコンピュータシステムに供給されるだけでなく、有線または無線の通信回線を通じてコンピュータシステムに供給されてもよい。また、ゲームプログラムは、コンピュータシステム内部の不揮発性記憶装置に予め記録されていてもよい。なお、ゲームプログラムを記憶する情報記憶媒体としては、上記不揮発性半導体メモリに限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。   Note that the game program of the present invention may be supplied not only to the computer system through an external storage medium such as the memory card 17 but also to the computer system through a wired or wireless communication line. The game program may be recorded in advance in a non-volatile storage device inside the computer system. The information storage medium for storing the game program is not limited to the non-volatile semiconductor memory, but may be a CD-ROM, a DVD, or an optical disk storage medium similar to them.

次に、図3〜図11を参照して、ゲーム装置1で実行されるゲームプログラムによる具体的な処理動作を説明する前に、当該処理動作によって第1のLCD11および第2のLCD12に表示される表示形態例や処理例等について説明する。なお、図3は、第1のLCD11および第2のLCD12に表示される画面表示例を示す図である。図4は、第2のLCD12に表示されるゲーム画像を得るためのドラム座標系およびタッチパネル15との位置関係を説明するための概略斜視図である。図5は、ドラム座標系とタッチパネル15との位置関係を説明するための側面図である。図6は、ゲーム処理を行う平面座標系を説明するための概略斜視図である。図7は、プレイヤキャラクタPCに設定される会話範囲A1を説明するための概略斜視図である。図8は、プレイヤキャラクタPCに設定される呼びかけ範囲A2を説明するための概略斜視図である。図9は、プレイヤキャラクタPCに設定されるアクション範囲A3を説明するための概略斜視図である。図10は、アクションの内容の一例を説明するための図である。図11は、プレイヤキャラクタPCの移動アクションを説明するための図である。   Next, with reference to FIG. 3 to FIG. 11, before a specific processing operation by the game program executed in the game apparatus 1 is described, the processing operation is displayed on the first LCD 11 and the second LCD 12. Examples of display forms and processing examples will be described. FIG. 3 is a diagram showing a screen display example displayed on the first LCD 11 and the second LCD 12. FIG. 4 is a schematic perspective view for explaining the positional relationship between the touch panel 15 and the drum coordinate system for obtaining a game image displayed on the second LCD 12. FIG. 5 is a side view for explaining the positional relationship between the drum coordinate system and the touch panel 15. FIG. 6 is a schematic perspective view for explaining a plane coordinate system for performing game processing. FIG. 7 is a schematic perspective view for explaining the conversation range A1 set for the player character PC. FIG. 8 is a schematic perspective view for explaining the calling range A2 set for the player character PC. FIG. 9 is a schematic perspective view for explaining the action range A3 set for the player character PC. FIG. 10 is a diagram for explaining an example of the content of an action. FIG. 11 is a diagram for explaining the moving action of the player character PC.

図3において、ゲーム装置1の第1のLCD11および第2のLCD12には、それぞれゲーム画像が表示される。本発明に関わるゲーム画像は、主に第2のLCD12に表示されるため、以下、第2のLCD12に表示される画像を単にゲーム画像と記載する。   In FIG. 3, game images are displayed on the first LCD 11 and the second LCD 12 of the game apparatus 1, respectively. Since the game image according to the present invention is mainly displayed on the second LCD 12, hereinafter, the image displayed on the second LCD 12 is simply referred to as a game image.

第2のLCD12には、プレイヤキャラクタPCおよびノンプレイヤキャラクタNPCの他に、オブジェクトOBJがゲーム空間に設定されたドラムフィールドFD上に配置されてゲーム画像として表現される。図3に示したゲーム画像例では、1つのプレイヤキャラクタPCおよびノンプレイヤキャラクタNPCと6つのオブジェクトOBJ1〜OBJ6とが表示されている。ドラムフィールドFDは、その円筒曲面の一部がゲーム画像として表示される円筒形状のフィールドであり、ゲーム空間内でその円筒軸が水平になるように設置される。プレイヤキャラクタPC、ノンプレイヤキャラクタNPC、およびオブジェクトOBJは、それぞれドラムフィールドFDの円筒曲面上に配置される。例えば、プレイヤキャラクタPCは、ゲーム空間内でドラムフィールドFDの円筒曲面上に沿って移動可能なキャラクタである。また、ドラムフィールドFD後方には、背景BI(例えば、空)が表示される。なお、図3で示した例では、ドラムフィールドFDの側方から円筒曲面を注視点とし、当該円筒曲面の一部を描画範囲とした仮想カメラから透視投影によって得たゲーム画像を示している。   On the second LCD 12, in addition to the player character PC and the non-player character NPC, the object OBJ is arranged on the drum field FD set in the game space and expressed as a game image. In the example of the game image shown in FIG. 3, one player character PC and non-player character NPC and six objects OBJ1 to OBJ6 are displayed. The drum field FD is a cylindrical field in which a part of the cylindrical curved surface is displayed as a game image, and is installed so that the cylindrical axis is horizontal in the game space. The player character PC, the non-player character NPC, and the object OBJ are respectively arranged on the cylindrical curved surface of the drum field FD. For example, the player character PC is a character that can move along the cylindrical curved surface of the drum field FD in the game space. In addition, a background BI (for example, sky) is displayed behind the drum field FD. In the example shown in FIG. 3, a game image obtained by perspective projection from a virtual camera with a cylindrical curved surface as a gazing point from the side of the drum field FD and a part of the cylindrical curved surface as a drawing range is shown.

図4において、上記ゲーム画像を得るための仮想カメラCおよびタッチパネル15が配置された仮想3次元ゲーム空間の様子が表示されている。ドラム座標系においては、ゲーム空間にドラムフィールドFD、背景BI、および仮想壁Wが設定される。仮想壁Wは、その一例としてドラムフィールドFDの円筒軸に対して平行に設定された仮想的な透過平面である。仮想カメラCは、ドラムフィールドFDの円筒曲面の側方に配置される。そして、仮想カメラCのカメラ位置を基準とした所定のクリップ面に挟まれた視体積に設定されるゲーム空間がゲーム画像として第2のLCD12に表示される。図4に示した例では、仮想カメラCからドラムフィールドFDの円筒曲面の一部を透視投影した画像IM1と、その後方の仮想壁Wの一部を透過してさらに後方に描画された背景BIを透視投影した画像IM2とによって、ゲーム画像が構成される。このとき、後述する位置座標をドラム座標系に変換した位置に基づいて各オブジェクトの描画モデルがドラムフィールドFD上に配置され(図4におけるプレイヤキャラクタPCおよびオブジェクトOBJ)、視体積内に含まれる描画モデルも第2のLCD12に表示される。そして、手前側(仮想カメラC側)クリップ面にタッチパネル15が配置されたようにタッチパネル座標系が設定され、タッチパネル15からの入力座標が仮想カメラCの視線方向に沿ってゲーム空間内に透視投影される。   In FIG. 4, the state of the virtual three-dimensional game space in which the virtual camera C and the touch panel 15 for obtaining the game image are arranged is displayed. In the drum coordinate system, a drum field FD, a background BI, and a virtual wall W are set in the game space. As an example, the virtual wall W is a virtual transmission plane set parallel to the cylindrical axis of the drum field FD. The virtual camera C is disposed on the side of the cylindrical curved surface of the drum field FD. Then, a game space set to a visual volume sandwiched between predetermined clip planes with the camera position of the virtual camera C as a reference is displayed on the second LCD 12 as a game image. In the example shown in FIG. 4, an image IM1 obtained by perspectively projecting a part of the cylindrical curved surface of the drum field FD from the virtual camera C and a background BI drawn further rearward through a part of the virtual wall W behind the image IM1. A game image is composed of the image IM2 obtained by perspectively projecting the image. At this time, a drawing model of each object is arranged on the drum field FD based on a position obtained by converting position coordinates described later into a drum coordinate system (player character PC and object OBJ in FIG. 4), and the drawing included in the view volume. The model is also displayed on the second LCD 12. Then, the touch panel coordinate system is set such that the touch panel 15 is arranged on the front side (virtual camera C side) clip surface, and the input coordinates from the touch panel 15 are projected in perspective in the game space along the visual line direction of the virtual camera C. Is done.

図5において、プレイヤがタッチパネル15をタッチしたタッチ入力座標がゲーム空間内に透視投影される様子を示している。本実施例においては、プレイヤがタッチ操作した対象のオブジェクトを判定するために簡易モデルを用いる。ここで、簡易モデルとは、ゲーム画像を得るための描画モデルをそれぞれ簡素化したモデルであり、単純な立体の種別とその大きさとによって定義される。各オブジェクトの簡易モデルは、後述する位置座標をドラム座標系に変換した位置に基づいてドラムフィールドFD上に配置される。例えば、図5の例では、プレイヤキャラクタPCは、円柱の上部に球を乗せた簡易モデルPCeとしてその位置座標を変換したドラムフィールドFD上の位置に配置されている。また、オブジェクトOBJは、円柱の上部に三角錐を乗せた簡易モデルOBJeとしてその位置座標を変換したドラムフィールドFD上の位置に配置されている。   FIG. 5 shows a state in which touch input coordinates where the player touches the touch panel 15 are projected in the game space. In this embodiment, a simple model is used to determine a target object touched by the player. Here, the simple model is a model obtained by simplifying a drawing model for obtaining a game image, and is defined by a simple solid type and its size. A simple model of each object is arranged on the drum field FD based on a position obtained by converting position coordinates described later into a drum coordinate system. For example, in the example of FIG. 5, the player character PC is arranged at a position on the drum field FD obtained by converting the position coordinates as a simple model PCe in which a sphere is placed on the top of a cylinder. The object OBJ is arranged at a position on the drum field FD obtained by converting the position coordinates as a simple model OBJe in which a triangular pyramid is placed on the upper part of a cylinder.

例えば、プレイヤがタッチパネル15をスティック16aの位置でタッチ操作したとき、そのタッチ操作で得られるタッチ入力座標を仮想カメラCから放射状に延伸する視線方向に沿ってゲーム空間内に透視投影した直線(図5では、破線で示す)が簡易モデルPCeと交差または接触するとする。このとき、簡易モデルPCeに該当するプレイヤキャラクタPCがプレイヤによってタッチ操作されたと判断する。さらに、上記直線が簡易モデルPCeを通過してドラムフィールドFDと交差する交点TPDaを、プレイヤによってタッチ操作されたドラム座標系フィールド上の点であると判断する。   For example, when the player touches the touch panel 15 at the position of the stick 16a, touch input coordinates obtained by the touch operation are perspectively projected into the game space along the line-of-sight direction extending radially from the virtual camera C (see FIG. In FIG. 5, it is assumed that (indicated by a broken line) intersects or contacts the simplified model PCe. At this time, it is determined that the player character PC corresponding to the simple model PCe has been touched by the player. Further, the intersection point TPDa where the straight line passes through the simple model PCe and intersects the drum field FD is determined to be a point on the drum coordinate system field touched by the player.

また、プレイヤがタッチパネル15をスティック16bの位置でタッチ操作したとき、そのタッチ操作で得られるタッチ入力座標を仮想カメラCの視線方向に沿ってゲーム空間内に透視投影した直線が簡易モデルOBJeと交差または接触するとする。このとき、簡易モデルOBJeに該当するオブジェクトOBJがプレイヤによってタッチ操作されたと判断する。さらに、上記直線が簡易モデルOBJeを通過してドラムフィールドFDと交差する交点TPDbを、プレイヤによってタッチ操作されたドラム座標系フィールド上の点であると判断する。   Further, when the player touches the touch panel 15 at the position of the stick 16b, a straight line obtained by perspectively projecting the touch input coordinates obtained by the touch operation in the game space along the line of sight of the virtual camera C intersects the simple model OBJe. Or contact. At this time, it is determined that the object OBJ corresponding to the simple model OBJe has been touched by the player. Further, the intersection point TPDb where the straight line passes through the simple model OBJe and intersects the drum field FD is determined to be a point on the drum coordinate system field touched by the player.

また、プレイヤがタッチパネル15をスティック16cの位置でタッチ操作したとき、そのタッチ操作で得られるタッチ入力座標を仮想カメラCの視線方向に沿ってゲーム空間内に透視投影した直線が直接ドラムフィールドFDと交差するとする。このとき、上記直線がドラムフィールドFDと交差する交点TPDcを、プレイヤによってタッチ操作されたドラム座標系フィールド上の点であると判断する。なお、この場合、プレイヤによってタッチ操作されたキャラクタやオブジェクトがないと判断する。   Further, when the player touches the touch panel 15 at the position of the stick 16c, a straight line obtained by perspectively projecting touch input coordinates obtained by the touch operation in the game space along the line-of-sight direction of the virtual camera C directly corresponds to the drum field FD. Suppose you cross. At this time, it is determined that the intersection point TPDc where the straight line intersects the drum field FD is a point on the drum coordinate system field touched by the player. In this case, it is determined that there is no character or object touched by the player.

また、プレイヤがタッチパネル15をスティック16dの位置でタッチ操作したとき(つまり背景が表示されたゲーム画像上をタッチ)、そのタッチ操作で得られるタッチ入力座標を仮想カメラCの視線方向に沿ってゲーム空間内に透視投影した直線が直接仮想壁Wと交差するとする。このとき、上記直線が仮想壁Wと交差する交点TPDdを、プレイヤによってタッチ操作されたドラム座標系フィールド上の点であると判断する。なお、この場合も、プレイヤによってタッチ操作されたキャラクタやオブジェクトがないと判断する。   When the player touches the touch panel 15 at the position of the stick 16d (that is, touches the game image on which the background is displayed), the touch input coordinates obtained by the touch operation are played along the line of sight of the virtual camera C. It is assumed that the straight line projected in space intersects the virtual wall W directly. At this time, it is determined that the intersection point TPDd where the straight line intersects the virtual wall W is a point on the drum coordinate system field touched by the player. In this case also, it is determined that there is no character or object touched by the player.

図6において、ゲーム装置1は、キャラクタの移動やアクションの動作を行う際、ドラム座標系を平面座標系に変換してそれらの処理を行う。そして、平面座標系で上記処理を行った後、各位置座標を再度ドラム座標系に変換してドラムフィールドFDに描画モデルを配置して、第2のLCD12に表示されるゲーム画像を生成する(図4参照)。   In FIG. 6, the game apparatus 1 converts the drum coordinate system into a plane coordinate system and performs these processes when performing character movement and action movement. Then, after performing the above processing in the plane coordinate system, each position coordinate is converted again into the drum coordinate system and a drawing model is arranged in the drum field FD to generate a game image displayed on the second LCD 12 ( (See FIG. 4).

例えば、ドラムフィールドFDの円筒軸方向が平面座標系におけるX軸方向に変換される。また、ドラムフィールドFDの円筒曲面の円周方向が平面座標系におけるZ軸方向に変換される。さらに、ドラムフィールドFDの円筒曲面から離れる円筒軸と垂直な放射方向が平面座標系におけるY軸方向に変換される。これらの変換によって、ドラムフィールドFDの円筒曲面をY=0の平面に伸ばしたような平面フィールドFPが平面座標系に設定される。本実施例においては、ドラムフィールドFDの円筒軸方向の座標をそのまま平面座標系におけるX軸座標に変換する。また、ドラムフィールドFDの円筒曲面の円周長さの全周あるいは一部が平面座標系におけるZ軸方向の長さとなるように、ドラムフィールドFDの円周方向の座標を平面座標系におけるZ軸座標に変換する。   For example, the cylindrical axis direction of the drum field FD is converted into the X axis direction in the plane coordinate system. Further, the circumferential direction of the cylindrical curved surface of the drum field FD is converted into the Z-axis direction in the plane coordinate system. Further, the radial direction perpendicular to the cylindrical axis away from the cylindrical curved surface of the drum field FD is converted into the Y-axis direction in the plane coordinate system. By these conversions, a plane field FP in which the cylindrical curved surface of the drum field FD is extended to the plane of Y = 0 is set in the plane coordinate system. In this embodiment, the coordinates in the cylindrical axis direction of the drum field FD are converted as they are into the X-axis coordinates in the plane coordinate system. Further, the circumferential coordinate of the drum field FD is set to the Z axis in the planar coordinate system so that the entire circumference or a part of the circumferential length of the cylindrical curved surface of the drum field FD becomes the length in the Z axis direction in the planar coordinate system. Convert to coordinates.

仮想壁Wは、図5に示すようにタッチパネル15(クリップ面)に対して平行にドラムフィールドFDの円筒曲面から起立するように当該円筒曲面と交わって設置されている。したがって、仮想壁Wと円筒曲面との交線を上記座標変換により平面座標系に変換した直線(Y=0、Z=Zw(一定値))を平面フィールドFPとの交線として、Y軸方向へ起立したZ=Zw(一定値)の平面が、仮想壁Wに対応する平面フィールドWpとして平面座標系に設定される。そして、ドラム座標系における仮想壁W上の座標は、平面フィールドWp上の座標に変換される。具体的には、仮想壁Wに沿った円筒軸方向の座標を平面座標系におけるX軸座標に変換する。また、仮想壁Wに沿った円筒軸に垂直な方向でドラムフィールドFDとの交線からの長さを平面座標系におけるY軸座標に変換する。さらに、仮想壁W上の座標は、平面座標系のZ軸座標Zwに変換する。   As shown in FIG. 5, the virtual wall W is installed so as to cross the cylindrical curved surface so as to stand up from the cylindrical curved surface of the drum field FD in parallel with the touch panel 15 (clip surface). Accordingly, a straight line (Y = 0, Z = Zw (constant value)) obtained by converting the intersection line between the virtual wall W and the cylindrical curved surface into the planar coordinate system by the above coordinate conversion is defined as the intersection line with the plane field FP in the Y-axis direction. The plane of Z = Zw (constant value) standing up is set in the plane coordinate system as the plane field Wp corresponding to the virtual wall W. Then, the coordinates on the virtual wall W in the drum coordinate system are converted into coordinates on the plane field Wp. Specifically, the coordinates in the cylindrical axis direction along the virtual wall W are converted into the X-axis coordinates in the plane coordinate system. Further, the length from the line of intersection with the drum field FD in the direction perpendicular to the cylindrical axis along the virtual wall W is converted to the Y-axis coordinate in the plane coordinate system. Further, the coordinates on the virtual wall W are converted into the Z-axis coordinates Zw of the plane coordinate system.

ここで、図6に示すように、平面フィールドFP上には、後述するオブジェクトデータ(位置座標)に応じて各オブジェクトが配置される。例えば、図6の例では、プレイヤキャラクタPCが位置座標PCP(Xpc、Ypc、Zpc)の平面フィールドFP上に配置され、オブジェクトOBJが位置座標OBJP(Xobj、Yobj、Zobj)の平面フィールドFP上に配置されている。また、上述したプレイヤによってタッチ操作されたドラムフィールドFD上の交点TPDaは、上記座標変換によって交点TPPaに変換される。上述したプレイヤによってタッチ操作されたドラムフィールドFD上の交点TPDbは、上記座標変換によって交点TPPbに変換される。上述したプレイヤによってタッチ操作されたドラムフィールドFD上の交点TPDcは、上記座標変換によって交点TPPcに変換される。そして、上述したプレイヤによってタッチ操作された仮想壁W上の交点TPDdは、上記座標変換によって平面フィールドWp上の交点TPPdに変換した後、Y=0(つまり、平面フィールドWpに沿ってY軸負方向に移動)とした目標点TGに変換する。   Here, as shown in FIG. 6, each object is arranged on the plane field FP according to object data (positional coordinates) described later. For example, in the example of FIG. 6, the player character PC is arranged on the plane field FP of the position coordinates PCP (Xpc, Ypc, Zpc), and the object OBJ is on the plane field FP of the position coordinates OBJP (Xobj, Jobj, Zobj). Has been placed. Further, the intersection point TPDa on the drum field FD touched by the player described above is converted to the intersection point TPPa by the coordinate conversion. The intersection point TPDb on the drum field FD touch-operated by the player described above is converted to the intersection point TPPb by the coordinate conversion. The intersection point TPDc on the drum field FD touch-operated by the player described above is converted to the intersection point TPPc by the coordinate conversion. Then, the intersection point TPDd on the virtual wall W touched by the player is converted into the intersection point TPPd on the plane field Wp by the coordinate conversion, and then Y = 0 (that is, the Y axis negative along the plane field Wp). Converted to a target point TG that is moved in the direction).

図7において、プレイヤキャラクタPCには、会話範囲A1が設定されている。会話範囲A1は、プレイヤキャラクタPCの正面から左右所定角度ずつ所定の距離までの扇形状で平面フィールドFP上に設定される。例えば、会話範囲A1は、プレイヤキャラクタPCの正面から左右θ1ずつ距離L1までの扇形状で設定される。この会話範囲A1内にアクション対象(ノンプレイヤキャラクタNPC)が存在する場合、プレイヤキャラクタPCは、その対象(ノンプレイヤキャラクタNPC)と会話する動作(会話アクション)を行う。   In FIG. 7, a conversation range A1 is set for the player character PC. The conversation range A1 is set on the plane field FP in a fan shape up to a predetermined distance from the front of the player character PC by a predetermined angle to the left and right. For example, the conversation range A1 is set in a fan shape from the front of the player character PC to the distance L1 by left and right θ1. When an action target (non-player character NPC) exists in the conversation range A1, the player character PC performs an action (conversation action) to talk with the target (non-player character NPC).

図8において、プレイヤキャラクタPCには、呼びかけ範囲A2が設定されている。呼びかけ範囲A2は、プレイヤキャラクタPCの正面から左右所定角度ずつ所定の距離までの扇形状で平面フィールドFP上に設定される。例えば、呼びかけ範囲A2は、プレイヤキャラクタPCの正面から左右θ2(θ1≦θ2)ずつ距離L2(L1<L2)までの扇形状で設定される。この呼びかけ範囲A2内にアクション対象(ノンプレイヤキャラクタNPC)が存在する場合、プレイヤキャラクタPCは、その対象(ノンプレイヤキャラクタNPC)に呼びかける動作(呼びかけアクション)を行う。   In FIG. 8, a calling range A2 is set for the player character PC. The calling range A2 is set on the plane field FP in a fan shape with a predetermined distance from the front of the player character PC by a predetermined angle to the left and right. For example, the calling range A2 is set in a fan shape from the front of the player character PC to the distance L2 (L1 <L2) by left and right θ2 (θ1 ≦ θ2). When an action target (non-player character NPC) exists in the calling range A2, the player character PC performs an action (calling action) to call the target (non-player character NPC).

図9において、プレイヤキャラクタPCには、アクション範囲A3が設定されている。アクション範囲A3は、プレイヤキャラクタPCの正面から左右所定角度ずつ所定の距離までの扇形状で平面フィールドFP上に設定される。例えば、アクション範囲A3は、プレイヤキャラクタPCの正面から左右θ3ずつ距離L3までの扇形状で設定される。このアクション範囲A3内にアクション対象(オブジェクトOBJ、ノンプレイヤキャラクタNPC、平面フィールドFP)が存在する場合、プレイヤキャラクタPCは、その対象(オブジェクトOBJ、ノンプレイヤキャラクタNPC、平面フィールドFP)やプレイヤキャラクタPCが所持している装備に応じた動作を行う。なお、アクション範囲A3は、プレイヤキャラクタPCの正面に扇形状で設定されるが、対象となるオブジェクトの種別や装備に応じて角度θ3および距離L3を変化させてもかまわない。   In FIG. 9, an action range A3 is set for the player character PC. The action range A3 is set on the plane field FP in a fan shape with a predetermined distance from the front of the player character PC by a predetermined angle to the left and right. For example, the action range A3 is set in a fan shape from the front of the player character PC to the distance L3 by left and right θ3. When there is an action target (object OBJ, non-player character NPC, plane field FP) within this action range A3, the player character PC is the target (object OBJ, non-player character NPC, plane field FP) or player character PC. Perform actions according to the equipment possessed by. The action range A3 is set in a fan shape in front of the player character PC, but the angle θ3 and the distance L3 may be changed according to the type and equipment of the target object.

図10において、アクション範囲A3内に存在するタッチ操作された対象とプレイヤキャラクタPCの装備との組み合わせで決定される動作の一例を示している。このような動作は、プログラム処理の分岐によって実現されるが、これらの組み合わせに対する動作を記載したテーブルを用いて処理してもかまわない。例えば、プレイヤキャラクタPCがスコップを装備しており、タッチ操作された対象がアクション範囲A3内に存在する地面(平面フィールドFP)である場合、プレイヤキャラクタPCは、スコップを用いて地面(平面フィールドFP)を掘る動作を行う。また、プレイヤキャラクタPCが斧を装備しており、タッチ操作された対象がアクション範囲A3内に存在する木(オブジェクトOBJ)である場合、プレイヤキャラクタPCは、斧を用いて木(オブジェクトOBJ)を切る動作を行う。さらに、プレイヤキャラクタPCが釣竿を装備しており、タッチ操作された対象がアクション範囲A3内に存在する川(平面フィールドFP)である場合、プレイヤキャラクタPCは、釣竿を用いて川(平面フィールドFP)に向かって釣りをする動作を行う。このようにプレイヤキャラクタPCの装備(アイテム)とアクション範囲A3内に存在するタッチ操作された対象との組み合わせに応じて、特別な動作を行う当該対象をアイテムのアクション対象と記載する。また、プレイヤキャラクタPCの装備によらず、タッチ操作された対象がアクション範囲A3内に存在するポスト(オブジェクトOBJ)である場合、プレイヤキャラクタPCは、必ずポスト(オブジェクトOBJ)を開ける動作を行う。このようにプレイヤキャラクタPCの装備とは無関係にアクション範囲A3内に存在するタッチ操作された対象に対して共通の動作を通常アクションと記載し、当該通常アクションを行う対象を通常アクション対象と記載する。なお、図10の例においては、アクション範囲A3内に存在する対象をタッチ操作したとして説明したが、アクション範囲A3内に対象が存在するプレイヤキャラクタPCをタッチ操作した場合も、この組み合わせに応じてプレイヤキャラクタPCが同様の動作を行ってもかまわない。   FIG. 10 shows an example of an action determined by a combination of the touch-operated target existing in the action range A3 and the equipment of the player character PC. Such an operation is realized by a branch of the program processing, but it may be processed using a table describing the operation for these combinations. For example, when the player character PC is equipped with a scoop and the touched target is the ground (planar field FP) existing in the action range A3, the player character PC uses the scoop to ground (planar field FP). ) Digging action. In addition, when the player character PC is equipped with an ax and the touched target is a tree (object OBJ) existing in the action range A3, the player character PC uses the ax to draw the tree (object OBJ). Perform the cutting operation. Furthermore, when the player character PC is equipped with a fishing rod and the touched target is a river (planar field FP) existing in the action range A3, the player character PC uses the fishing rod to create a river (planar field FP). ) Fishing towards. Thus, according to the combination of the equipment (item) of the player character PC and the touch-operated target existing in the action range A3, the target that performs a special action is described as the action target of the item. Further, when the touch-operated target is a post (object OBJ) existing in the action range A3, regardless of the equipment of the player character PC, the player character PC always performs an operation of opening the post (object OBJ). In this way, a common action is described as a normal action for a touch-operated target existing in the action range A3 regardless of the equipment of the player character PC, and a target for performing the normal action is described as a normal action target. . In the example of FIG. 10, it is described that the target existing in the action range A <b> 3 is touch-operated. However, even when the player character PC whose target exists in the action range A <b> 3 is touch-operated, depending on this combination The player character PC may perform a similar operation.

このように、対象と装備との組み合わせに応じてプレイヤキャラクタPCの動作が決定されるが、当該組み合わせに応じてアクション範囲A3の大きさを変更する方が好ましい。例えば、プレイヤキャラクタPCがスコップを用いて動作する対象の範囲に対して、釣竿を用いて動作するアクション範囲A3の距離L3を長く設定する方が自然なアクションとなる。このように、装備の特性や対象の種別、キャラクタの特性等に応じて、アクション範囲A3の大きさを変化させてもかまわない。   Thus, although the action of the player character PC is determined according to the combination of the target and the equipment, it is preferable to change the size of the action range A3 according to the combination. For example, it is a natural action to set the distance L3 of the action range A3 that operates using a fishing rod longer than the target range that the player character PC operates using a scoop. As described above, the size of the action range A3 may be changed according to the characteristics of the equipment, the type of the object, the characteristics of the character, and the like.

一方、アクション範囲A3内に存在する対象の種別と装備によっては、プレイヤキャラクタPCが特別な動作を行わない組み合わせもある。例えば、プレイヤキャラクタPCがスコップを装備しており、タッチ操作された対象がアクション範囲A3内に存在する木(オブジェクトOBJ)である場合、プレイヤキャラクタPCは、移動動作を行う。また、プレイヤキャラクタPCが斧を装備しており、タッチ操作された対象がアクション範囲A3内に存在する地面や川(平面フィールドFP)である場合、プレイヤキャラクタPCは、移動動作を行う。さらに、プレイヤキャラクタPCが釣竿を装備しており、タッチ操作された対象がアクション範囲A3内に存在する地面(平面フィールドFP)や木および岩(オブジェクトOBJ)である場合、プレイヤキャラクタPCは、移動動作を行う。   On the other hand, depending on the type and equipment of the target existing in the action range A3, there is a combination in which the player character PC does not perform a special action. For example, when the player character PC is equipped with a scoop, and the touch-operated target is a tree (object OBJ) existing in the action range A3, the player character PC performs a moving action. In addition, when the player character PC is equipped with an ax and the touched target is the ground or river (planar field FP) existing in the action range A3, the player character PC performs a moving operation. Furthermore, when the player character PC is equipped with a fishing rod and the touched target is the ground (planar field FP), trees and rocks (object OBJ) existing in the action range A3, the player character PC moves. Perform the action.

図11において、タッチ操作された対象が上述した特別な動作や通常アクションを行わない組み合わせとなる場合、プレイヤキャラクタPCは、当該タッチ操作された平面フィールドWp上の交点TPP(図6参照)を目標点TGとして、その目標点TGに向かって所定の速度で移動する。ここで、タッチ操作された対象が仮想壁Wである場合、上述したようにタッチ入力座標が平面フィールドFP上の目標点TGに変換されているため、プレイヤキャラクタPCは、その目標点TGに向かって移動する。   In FIG. 11, when the touch-operated target is a combination that does not perform the special action or the normal action described above, the player character PC sets the intersection TPP (see FIG. 6) on the touch-operated plane field Wp as a target. The point TG moves at a predetermined speed toward the target point TG. Here, when the touch-operated target is the virtual wall W, as described above, the touch input coordinates are converted to the target point TG on the plane field FP, so that the player character PC faces the target point TG. Move.

次に、図12〜図18を参照して、ゲーム装置1で実行されるゲームプログラムによる具体的な処理動作について説明する。なお、図12は、当該ゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う前半の動作を示すフローチャートである。図13は、当該ゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う後半の動作を示すフローチャートである。図14は、図12におけるステップ54および図13におけるステップ64のドラム座標系の位置座標に変換する処理について詳細な動作を示すサブルーチンである。図15は、図13におけるステップ61のドラム座標系の交点座標を平面座標系に変換する処理について詳細な動作を示すサブルーチンである。図16は、図13におけるステップ62のアクション処理について前半の詳細な動作を示すサブルーチンである。図17は、図13におけるステップ62のアクション処理について後半の詳細な動作を示すサブルーチンである。図18は、図12および図13に基づいた処理動作でRAM24に記憶される各種データの一例を示す図である。なお、これらの処理を実行するためのプログラムは、ROM17aに格納されたゲームプログラムに含まれており、ゲーム装置1の電源がオンになったときに、ROM17aからRAM24に読み出されて、CPUコア21によって実行される。   Next, with reference to FIGS. 12 to 18, a specific processing operation by the game program executed on the game apparatus 1 will be described. FIG. 12 is a flowchart showing the first half operation in which the game apparatus 1 performs a game process by executing the game program. FIG. 13 is a flowchart showing the latter half of the operation in which the game apparatus 1 performs a game process by executing the game program. FIG. 14 is a subroutine showing the detailed operation of the process of converting to the position coordinate of the drum coordinate system in step 54 in FIG. 12 and step 64 in FIG. FIG. 15 is a subroutine showing detailed operations for the process of converting the intersection coordinates of the drum coordinate system in step 61 in FIG. 13 into the plane coordinate system. FIG. 16 is a subroutine showing detailed operations in the first half of the action process of step 62 in FIG. FIG. 17 is a subroutine showing detailed operations in the latter half of the action process in step 62 in FIG. FIG. 18 is a diagram illustrating an example of various data stored in the RAM 24 by the processing operation based on FIGS. 12 and 13. The program for executing these processes is included in the game program stored in the ROM 17a, and is read from the ROM 17a to the RAM 24 when the power of the game apparatus 1 is turned on. 21 is executed.

まず、ゲーム装置1の電源(図示せず)がONされると、CPUコア21によってブートプログラム(図示せず)が実行され、これによりメモリカード17に格納されているゲームプログラムがRAM24にロードされる。当該ロードされたゲームプログラムがCPUコア21で実行されることによって、図12および図13に示すステップ(図12〜図17では「S」と略称する)が実行される。   First, when a power source (not shown) of the game apparatus 1 is turned on, a boot program (not shown) is executed by the CPU core 21, whereby the game program stored in the memory card 17 is loaded into the RAM 24. The When the loaded game program is executed by the CPU core 21, the steps shown in FIGS. 12 and 13 (abbreviated as “S” in FIGS. 12 to 17) are executed.

図12において、CPUコア21は、ゲームの初期設定を行って(ステップ50)、処理を次のステップに進める。例えば、CPUコア21がステップ50で行う初期設定として、ゲーム空間に登場させるオブジェクトに関するデータを設定する。図18に示すように、初期設定において、RAM24には、ゲーム空間に各オブジェクトを配置するためのオブジェクトデータベースとして、各オブジェクトに対応するオブジェクトデータDO1〜DO5…等が記憶される。各オブジェクトデータDO1〜DO5…は、キャラクタID、描画モデル識別記号、簡易モデル種別と大きさ、および位置座標を示すデータをそれぞれ含んでいる。キャラクタIDは、オブジェクト毎に固有に付与される番号であり、この番号によって当該オブジェクトの種別(プレイヤキャラクタ、ノンプレイヤキャラクタ、その他のオブジェクト等)を区別することができる。描画モデル種別記号は、ゲーム画像を生成する際にドラムフィールドFD上に配置するオブジェクト毎の描画モデル画像データDI1を指示する記号である。簡易モデルの種別および大きさは、プレイヤがタッチ操作した対象のオブジェクトを判定するために用いられる簡易モデルデータDI2の種別およびその大きさをオブジェクト毎に指示する記号である。位置座標は、平面座標系において配置される各オブジェクトの位置を3次元座標(X、Y、Z)で示すデータである。さらに、ゲーム画像を生成したりタッチ操作の対象を検出したりするための画像/モデルデータとして、描画モデル画像データDI1、簡易モデルデータDI2、および背景画像データDI3等が適宜記憶される。ここで、簡易モデルデータDI2は、描画モデル画像データDI1と比較すると極めて単純な円柱、球、円錐等の立体モデルであり、オブジェクトデータDOに含まれる簡易モデルの種別によって選択される。そして、オブジェクトデータDOに含まれる簡易モデルの大きさに応じて、その立体モデルの大きさを変化させて配置される。   In FIG. 12, the CPU core 21 performs initial setting of the game (step 50), and advances the processing to the next step. For example, as the initial setting performed by the CPU core 21 in step 50, data related to an object that appears in the game space is set. As shown in FIG. 18, in the initial setting, the RAM 24 stores object data DO1 to DO5... Corresponding to each object as an object database for arranging each object in the game space. Each of the object data DO1 to DO5... Includes data indicating a character ID, a drawing model identification symbol, a simple model type and size, and position coordinates. The character ID is a number uniquely assigned to each object, and the type of the object (player character, non-player character, other object, etc.) can be distinguished by this number. The drawing model type symbol is a symbol indicating drawing model image data DI1 for each object arranged on the drum field FD when a game image is generated. The type and size of the simple model is a symbol that indicates, for each object, the type and size of the simple model data DI2 used to determine the target object touched by the player. The position coordinates are data indicating the position of each object arranged in the plane coordinate system by three-dimensional coordinates (X, Y, Z). Furthermore, drawing model image data DI1, simple model data DI2, background image data DI3, and the like are appropriately stored as image / model data for generating a game image and detecting a target of a touch operation. Here, the simple model data DI2 is an extremely simple three-dimensional model such as a cylinder, a sphere, or a cone as compared with the drawing model image data DI1, and is selected according to the type of the simple model included in the object data DO. Then, according to the size of the simple model included in the object data DO, the size of the three-dimensional model is changed and arranged.

図12に戻り、CPUコア21は、ユーザの操作に応じたタッチパネル15からのタッチ入力を待つ(ステップ51)。そして、タッチ入力があると(ステップ51でYes)、CPUコア21は、現在タッチパネル15をタッチしている接触位置を示すタッチパネル座標系の座標をタッチ入力座標DC1としてRAM24に記憶し(ステップ52)、処理を次のステップに進める。   Returning to FIG. 12, the CPU core 21 waits for a touch input from the touch panel 15 in accordance with the user's operation (step 51). When there is a touch input (Yes in step 51), the CPU core 21 stores the coordinates of the touch panel coordinate system indicating the touch position where the touch panel 15 is currently touched in the RAM 24 as the touch input coordinates DC1 (step 52). The process proceeds to the next step.

例えば、図18に示すように、タッチパネル15から入力するタッチパネル座標系の座標データは、適時、RAM24にタッチ入力座標DC1として記憶されている。また、RAM24には、タッチ入力座標DC1に対応するドラム座標系の位置データとして交点座標DC2および当該交点座標DC2に対応する平面座標系の位置データとして交点座標DC3等が適宜記憶される。   For example, as shown in FIG. 18, the coordinate data of the touch panel coordinate system input from the touch panel 15 is stored in the RAM 24 as the touch input coordinates DC1 when appropriate. Further, the RAM 24 appropriately stores the intersection coordinate DC2 as position data in the drum coordinate system corresponding to the touch input coordinate DC1, and the intersection coordinate DC3 as position data in the plane coordinate system corresponding to the intersection coordinate DC2.

図12に戻り、CPUコア21は、オブジェクトデータベースのオブジェクトデータDOに基づいて、ゲーム空間に配置されているオブジェクト毎に平面座標系の位置座標および簡易モデル(種別、大きさ)を取得する(ステップ53)。そして、CPUコア21は、上記ステップ53で取得した各位置座標を平面座標系からドラム座標系に変換し(ステップ54)、処理を次のステップに進める。以下、図14を参照して、ステップ54における詳細な処理について説明する。   Returning to FIG. 12, the CPU core 21 obtains the position coordinates and simple model (type and size) of the plane coordinate system for each object arranged in the game space, based on the object data DO of the object database (step). 53). Then, the CPU core 21 converts each position coordinate acquired in step 53 from the plane coordinate system to the drum coordinate system (step 54), and advances the processing to the next step. Hereinafter, detailed processing in step 54 will be described with reference to FIG.

図14において、CPUコア21は、平面座標系において、予め設定されているZ軸方向の取りうる範囲に対して、各位置座標のZ軸座標の比率をそれぞれ算出し(ステップ71)、処理を次のステップに進める。ここで、Z軸方向の取りうる範囲とは、ドラムフィールドFD(図5参照)の円筒曲面の全部または一部を平面に伸ばしたような平面フィールドFP(図6参照)のZ軸方向長さに相当し、すなわち、ドラムフィールドFDの円筒曲面の円周長さの全周あるいは一部に相当する平面座標系の長さである。   In FIG. 14, the CPU core 21 calculates the ratio of the Z-axis coordinate of each position coordinate to a preset range that can be taken in the Z-axis direction in the plane coordinate system (step 71). Proceed to the next step. Here, the range that can be taken in the Z-axis direction is the length in the Z-axis direction of the plane field FP (see FIG. 6) obtained by extending all or part of the cylindrical curved surface of the drum field FD (see FIG. 5) to a plane. That is, the length of the plane coordinate system corresponding to the entire circumference or a part of the circumference of the cylindrical curved surface of the drum field FD.

次に、CPUコア21は、上記ステップ71で算出した各比率に基づいて、ドラムフィールドFDの円周方向の対応座標をそれぞれ算出し(ステップ72)、処理を次のステップに進める。例えば、上記Z軸方向の取りうる範囲が円筒曲面の円周長さ全周を示している場合、上記比率を全周に対する円周長さの比率であるとして、上記比率に対する円周長さを算出する。そして、ドラムフィールドFDの円周方向の原点座標を基準として、その円周長さの位置をドラムフィールドFDの円周方向の対応座標とする。また、上記Z軸方向の取りうる範囲が円筒曲面の円周長さの一部を示している場合、上記比率をその一部の円周に対する円周長さの比率であるとして、上記比率に対する円周長さを算出する。そして、ドラムフィールドFDの円周方向の原点座標を基準として、その円周長さの位置をドラムフィールドFDの円周方向の対応座標とする。   Next, the CPU core 21 calculates corresponding coordinates in the circumferential direction of the drum field FD based on the ratios calculated in step 71 (step 72), and advances the processing to the next step. For example, when the range that can be taken in the Z-axis direction indicates the entire circumference of the circumferential length of the cylindrical curved surface, assuming that the ratio is the ratio of the circumference length to the entire circumference, the circumference length relative to the ratio is calculate. Then, using the origin coordinate in the circumferential direction of the drum field FD as a reference, the position of the circumferential length is set as the corresponding coordinate in the circumferential direction of the drum field FD. In addition, when the range that can be taken in the Z-axis direction indicates a part of the circumferential length of the cylindrical curved surface, the ratio is the ratio of the circumferential length to the circumference of the part, and the ratio to the ratio Calculate the circumferential length. Then, using the origin coordinate in the circumferential direction of the drum field FD as a reference, the position of the circumferential length is set as the corresponding coordinate in the circumferential direction of the drum field FD.

次に、CPUコア21は、各位置座標のX軸座標に基づいて、ドラムフィールドFDの軸方向の対応座標をそれぞれ算出して(ステップ73)、当該サブルーチンによる処理を終了する。例えば、ドラムフィールドFDの軸方向の原点座標を基準として、各位置座標のX軸座標をそのままドラムフィールドFDの軸方向の対応座標とする。なお、所定の換算式に基づいて、各位置座標のX軸座標をドラムフィールドFDの軸方向の対応座標に換算してもかまわない。これらステップ71〜73の処理によって、各オブジェクトの平面座標系の位置座標がドラムフィールドFDの円筒曲面上のドラム座標系に変換される。なお、上記ステップ71〜73の処理では、平面フィールドFP上の位置座標(つまり、Y=0)をドラムフィールドFDの円筒曲面上の対応座標に変換する動作を行っている。しかしながら、平面フィールドFPからY軸方向に離れた位置座標(つまり、Y>0)の場合、そのY軸座標をそのままドラムフィールドFDの円筒曲面から離れる円筒軸と垂直な放射方向の対応座標とすれば、平面フィールドFP上の点以外でも同様の座標変換ができることは言うまでもない。   Next, the CPU core 21 calculates the corresponding coordinate in the axial direction of the drum field FD based on the X-axis coordinate of each position coordinate (step 73), and ends the processing by the subroutine. For example, using the origin coordinate in the axial direction of the drum field FD as a reference, the X-axis coordinate of each position coordinate is directly used as the corresponding coordinate in the axial direction of the drum field FD. Note that the X-axis coordinate of each position coordinate may be converted into the corresponding coordinate in the axial direction of the drum field FD based on a predetermined conversion formula. Through the processing of these steps 71 to 73, the position coordinates of each object in the plane coordinate system are converted into the drum coordinate system on the cylindrical curved surface of the drum field FD. In the processing of steps 71 to 73, an operation is performed to convert the position coordinates (that is, Y = 0) on the plane field FP into corresponding coordinates on the cylindrical curved surface of the drum field FD. However, in the case of position coordinates away from the plane field FP in the Y-axis direction (that is, Y> 0), the Y-axis coordinates are used as the corresponding coordinates in the radial direction perpendicular to the cylindrical axis away from the cylindrical curved surface of the drum field FD. Needless to say, the same coordinate transformation can be performed for points other than the points on the plane field FP.

図12に戻って、CPUコア21は、上記ステップ54で算出したドラム座標系の対応座標に応じて、各簡易モデルを配置し(ステップ55)、処理を次のステップに進める。具体的には、CPUコア21は、各オブジェクトデータDOに含まれている簡易モデルの種別および大きさに基づいて簡易モデルを生成し、ドラム座標系のゲーム空間における各対応座標の位置に当該簡易モデルを配置する(図5参照)。このステップ55によって、ゲーム空間に登場するプレイヤキャラクタPC、ノンプレイヤキャラクタNPC、およびその他のオブジェクトOBJに対応する簡易モデルがドラム座標系のゲーム空間に配置される。   Returning to FIG. 12, the CPU core 21 arranges each simplified model in accordance with the corresponding coordinates of the drum coordinate system calculated in step 54 (step 55), and advances the processing to the next step. Specifically, the CPU core 21 generates a simple model based on the type and size of the simple model included in each object data DO, and the simple model is placed at the position of each corresponding coordinate in the game space of the drum coordinate system. A model is arranged (see FIG. 5). By this step 55, simple models corresponding to the player character PC, non-player character NPC, and other objects OBJ appearing in the game space are arranged in the game space of the drum coordinate system.

次に、CPUコア21は、タッチ入力座標DC1を仮想カメラCから放射状に延伸する視線方向に沿ってドラム座標系のゲーム空間内に透視投影して延伸した直線を算出する(ステップ56;図5の破線参照)。そして、CPUコア21は、上記ステップ56で算出した直線と接触または交差する簡易モデルがあるか否かを判断する(ステップ57)。上記直線と接触または交差する簡易モデルがある場合、CPUコア21は、処理を次のステップ58に進める。一方、上記直線と接触または交差する簡易モデルがない場合、CPUコア21は、処理を次のステップ60(図13)に進める。   Next, the CPU core 21 calculates a straight line extended by perspective projection into the game space of the drum coordinate system along the line-of-sight direction in which the touch input coordinates DC1 extend radially from the virtual camera C (step 56; FIG. 5). (See dashed line). Then, the CPU core 21 determines whether or not there is a simple model that contacts or intersects with the straight line calculated in step 56 (step 57). If there is a simple model that contacts or intersects with the straight line, the CPU core 21 proceeds to the next step 58. On the other hand, when there is no simple model that contacts or intersects with the straight line, the CPU core 21 proceeds to the next step 60 (FIG. 13).

ステップ58において、CPUコア21は、上記直線と接触または交差すると判断された簡易モデルのうち、最前(仮想カメラC側)の簡易モデルに対応するオブジェクト(キャラクタID)をRAM24に記憶する。そして、CPUコア21は、最前の簡易モデルに対応するオブジェクト(キャラクタID)の平面座標系における位置座標をオブジェクトデータベースから取得して(ステップ59)、処理を次のステップ60(図13)に進める。以下、上記直線と接触または交差した最前の簡易モデルに対応するオブジェクトを、タッチ操作の対象オブジェクトと記載する。例えば、図5で示すようにタッチパネル15をスティック16bの位置でタッチ操作したとき、そのタッチ入力座標DC1から算出される直線と交差する簡易モデルOBJeに対応するキャラクタIDおよびその平面座標系における位置座標が取得され、簡易モデルOBJeに対応するオブジェクトがタッチ操作の対象オブジェクトとなる。   In step 58, the CPU core 21 stores, in the RAM 24, an object (character ID) corresponding to the foremost (virtual camera C side) simple model among the simple models determined to contact or intersect the straight line. Then, the CPU core 21 acquires the position coordinates in the plane coordinate system of the object (character ID) corresponding to the previous simple model from the object database (step 59), and proceeds to the next step 60 (FIG. 13). . Hereinafter, an object corresponding to the most recent simple model that contacts or intersects the straight line is referred to as a touch operation target object. For example, as shown in FIG. 5, when the touch panel 15 is touched at the position of the stick 16b, the character ID corresponding to the simple model OBJe that intersects the straight line calculated from the touch input coordinates DC1 and the position coordinates in the plane coordinate system. And the object corresponding to the simple model OBJe becomes the target object of the touch operation.

ステップ60において、CPUコア21は、上記ステップ56で算出した直線とドラムフィールドFDまたは仮想壁Wとの交点座標を取得して、RAM24に交点座標DC2として記憶する。例えば、図5で示すようにタッチパネル15をスティック16a〜16cの位置でそれぞれタッチ操作したとき、それらタッチ入力座標DC1から算出される直線とドラムフィールドFDとが交差する交点座標TPDa〜TPDcがそれぞれ取得される。また、図5で示すようにタッチパネル15をスティック16dの位置でタッチ操作したとき、そのタッチ入力座標DC1から算出される直線と仮想壁Wとが交差する交点座標TPDdが取得される。そして、CPUコア21は、上記ステップ60で取得した交点座標を平面座標系に変換して(ステップ61)、処理を次のステップに進める。以下、図15を参照して、ステップ61における詳細な処理について説明する。   In step 60, the CPU core 21 acquires the intersection coordinates between the straight line calculated in step 56 and the drum field FD or the virtual wall W, and stores them in the RAM 24 as the intersection coordinates DC2. For example, as shown in FIG. 5, when the touch panel 15 is touched at the positions of the sticks 16a to 16c, the intersection coordinates TPDa to TPDc at which the straight line calculated from the touch input coordinates DC1 and the drum field FD intersect are acquired. Is done. Also, as shown in FIG. 5, when the touch panel 15 is touched at the position of the stick 16d, the intersection coordinate TPDd where the straight line calculated from the touch input coordinate DC1 and the virtual wall W intersect is acquired. Then, the CPU core 21 converts the intersection coordinates acquired in step 60 to a plane coordinate system (step 61), and advances the processing to the next step. Hereinafter, the detailed processing in step 61 will be described with reference to FIG.

図15において、CPUコア21は、上記ステップ60で得られた交点座標がドラムフィールドFD上であるか否かを判断する(ステップ81)。そして、交点座標がドラムフィールドFD上である場合、CPUコア21は、処理を次のステップ82に進める。一方、交点座標が仮想壁W上である場合、CPUコア21は、処理を次のステップ88に進める。   In FIG. 15, the CPU core 21 determines whether or not the intersection coordinates obtained in step 60 are on the drum field FD (step 81). If the intersection coordinates are on the drum field FD, the CPU core 21 proceeds to the next step 82. On the other hand, if the intersection coordinates are on the virtual wall W, the CPU core 21 advances the processing to the next step 88.

ステップ82において、CPUコア21は、交点座標におけるドラムフィールドFDの軸方向の対応座標に基づいて、平面座標系のX軸座標を算出する。次に、CPUコア21は、交点座標におけるドラムフィールドFDの円周方向の対応座標を取得し(ステップ83)、処理を次のステップ84に進める。このステップ82の処理は、上記ステップ73の逆変換を行う処理である。したがって、例えば、ドラムフィールドFDの軸方向の原点座標を基準としたドラムフィールドFDの軸方向の対応座標をそのまま平面座標系におけるX軸座標とする。また、所定の換算式に基づいて、ドラムフィールドFDの軸方向の対応座標を平面座標系におけるX軸座標に換算してもかまわない。   In step 82, the CPU core 21 calculates the X-axis coordinate of the planar coordinate system based on the corresponding coordinate in the axial direction of the drum field FD at the intersection coordinate. Next, the CPU core 21 acquires the corresponding coordinates in the circumferential direction of the drum field FD at the intersection coordinates (step 83), and advances the processing to the next step 84. The process at step 82 is a process for performing the inverse transformation at step 73. Therefore, for example, the corresponding coordinate in the axial direction of the drum field FD based on the origin coordinate in the axial direction of the drum field FD is directly used as the X-axis coordinate in the planar coordinate system. Further, the corresponding coordinate in the axial direction of the drum field FD may be converted into the X-axis coordinate in the plane coordinate system based on a predetermined conversion formula.

一方、ステップ88において、CPUコア21は、交点座標におけるドラムフィールドFDの円筒軸と平行な方向への座標に基づいて、平面座標系のX軸座標を算出する。次に、CPUコア21は、仮想壁WとドラムフィールドFDの円筒曲面との交線におけるドラムフィールドFDの円周方向の対応座標を取得し(ステップ89)、処理を次のステップ84に進める。図5を用いて説明したように、仮想壁Wは、タッチパネル15(クリップ面)に対して平行にドラムフィールドFDの円筒曲面から起立するように当該円筒曲面と交わって設置されている。つまり、ステップ88では、仮想壁W上においてドラムフィールドFDの軸方向と同じ方向の対応座標を算出している。また、ステップ89では、仮想壁WがドラムフィールドFDと交差する円周方向の対応座標を算出している。   On the other hand, in step 88, the CPU core 21 calculates the X-axis coordinate of the planar coordinate system based on the coordinate in the direction parallel to the cylindrical axis of the drum field FD at the intersection coordinate. Next, the CPU core 21 acquires the corresponding coordinates in the circumferential direction of the drum field FD at the intersection of the virtual wall W and the cylindrical curved surface of the drum field FD (step 89), and advances the processing to the next step 84. As described with reference to FIG. 5, the virtual wall W is installed so as to cross the cylindrical curved surface so as to stand upright from the cylindrical curved surface of the drum field FD in parallel with the touch panel 15 (clip surface). That is, in step 88, corresponding coordinates in the same direction as the axial direction of the drum field FD on the virtual wall W are calculated. In step 89, corresponding coordinates in the circumferential direction where the virtual wall W intersects the drum field FD are calculated.

ステップ84において、CPUコア21は、上記ステップ83またはステップ89で算出したドラムフィールドFDの円周方向の対応座標に基づいて、円筒軸から円周方向対応座標への直線および当該円筒軸からドラムフィールドFDの円周方向の原点座標への直線間の角度を算出する。そして、CPUコア21は、ドラムフィールドFDの半径および上記ステップ84で算出した角度に基づいて、当該角度に相当する円周長さを算出する。そして、CPUコア21は、上述したZ軸方向の取りうる範囲と当該範囲に相当するドラムフィールドFDの円筒曲面の円周長さの全周あるいは一部との比率に基づいて、算出した円周長さをZ軸座標に変換し(ステップ85)、処理を次のステップに進める。ここで、このステップ85の処理は、上記ステップ71および72の逆変換を行う処理である。   In step 84, the CPU core 21 determines a straight line from the cylindrical axis to the corresponding coordinate in the circumferential direction based on the corresponding coordinate in the circumferential direction of the drum field FD calculated in step 83 or 89 and the drum field from the cylindrical axis. The angle between the straight lines to the origin coordinate in the circumferential direction of the FD is calculated. Then, the CPU core 21 calculates the circumferential length corresponding to the angle based on the radius of the drum field FD and the angle calculated in step 84. The CPU core 21 calculates the circumference based on the ratio between the above-described range in the Z-axis direction and the entire circumference or a part of the circumference of the cylindrical curved surface of the drum field FD corresponding to the range. The length is converted into Z-axis coordinates (step 85), and the process proceeds to the next step. Here, the process of step 85 is a process for performing the inverse transformation of steps 71 and 72 described above.

次に、CPUコア21は、上記交点座標における平面座標系のY軸座標を0に設定する(ステップ86)。そして、CPUコア21は、ステップ82またはステップ88で算出したX軸座標、ステップ85で算出したZ軸座標、およびステップ86で設定したY軸座標をRAM24に平面座標系の交点座標DC3として記憶し(ステップ87)、当該サブルーチンによる処理を終了する。例えば、これらのステップ81〜89の処理によって、図5に示した交点座標TPDa〜TPDcが図6に示した交点座標(目標点)TPPa〜TPPcに変換される。また、これらのステップ81〜89の処理によって、図5に示した交点座標TPDdが図6に示した目標点TGに変換される。   Next, the CPU core 21 sets the Y-axis coordinate of the plane coordinate system at the intersection coordinate to 0 (step 86). The CPU core 21 stores the X-axis coordinate calculated in step 82 or 88, the Z-axis coordinate calculated in step 85, and the Y-axis coordinate set in step 86 in the RAM 24 as the intersection coordinate DC3 of the plane coordinate system. (Step 87), the process by the subroutine is terminated. For example, the intersection point coordinates TPDa to TPDc shown in FIG. 5 are converted into the intersection point coordinates (target points) TPPa to TPPc shown in FIG. Further, the intersection point coordinate TPDd shown in FIG. 5 is converted into the target point TG shown in FIG.

図13に戻り、CPUコア21は、タッチ操作の対象オブジェクトおよび交点座標DC3に基づいて、プレイヤキャラクタPCのアクション処理を行い(ステップ62)、処理を次のステップに進める。以下、図16および図17を参照して、ステップ62における詳細な処理について説明する。   Returning to FIG. 13, the CPU core 21 performs an action process of the player character PC based on the target object of the touch operation and the intersection coordinate DC3 (step 62), and advances the process to the next step. Hereinafter, detailed processing in step 62 will be described with reference to FIGS. 16 and 17.

図16において、CPUコア21は、タッチ操作の対象オブジェクトがノンプレイヤキャラクタNPCか否かを判断する(ステップ91)。そして、CPUコア21は、対象オブジェクトがノンプレイヤキャラクタNPCである場合に処理を次のステップ92に進め、ノンプレイヤキャラクタNPCでない場合に処理を次のステップ101(図17)に進める。ここで、CPUコア21は、対象オブジェクトの種別を上記ステップ58で得られた対象オブジェクトのキャラクタIDから判断することができる。   In FIG. 16, the CPU core 21 determines whether or not the target object of the touch operation is a non-player character NPC (step 91). Then, the CPU core 21 proceeds to the next step 92 when the target object is a non-player character NPC, and proceeds to the next step 101 (FIG. 17) when it is not a non-player character NPC. Here, the CPU core 21 can determine the type of the target object from the character ID of the target object obtained in step 58 above.

ステップ92において、CPUコア21は、タッチ操作の対象オブジェクトであるノンプレイヤキャラクタNPCの平面座標系における位置座標を取得する。なお、この位置座標は、上記ステップ59で取得した位置座標と同じである。そして、CPUコア21は、オブジェクトデータベースを参照してプレイヤキャラクタPCの位置座標および向きを取得し、当該プレイヤキャラクタPCの会話範囲A1を算出し(ステップ93;図7参照)、処理を次のステップに進める。   In step 92, the CPU core 21 acquires the position coordinates in the plane coordinate system of the non-player character NPC that is the target object of the touch operation. The position coordinates are the same as the position coordinates acquired in step 59 above. Then, the CPU core 21 refers to the object database, acquires the position coordinates and orientation of the player character PC, calculates the conversation range A1 of the player character PC (step 93; see FIG. 7), and performs the next step. Proceed to

次に、CPUコア21は、上記ステップ92で取得したノンプレイヤキャラクタNPCの位置座標が会話範囲A1内か否かを判断する(ステップ94)。そして、CPUコア21は、ノンプレイヤキャラクタNPCの位置座標が会話範囲A1外である場合、処理を次のステップ96に進める。一方、ノンプレイヤキャラクタNPCの位置座標が会話範囲A1内である場合、CPUコア21は、プレイヤキャラクタPCとタッチ操作の対象であるノンプレイヤキャラクタNPCとが会話する動作を表現するアクション処理を行って(ステップ95)、当該サブルーチンによる処理を終了する。ここで、プレイヤキャラクタPCとノンプレイヤキャラクタNPCとが会話する動作とは、プレイヤキャラクタPCとノンプレイヤキャラクタNPCとに、互いが言葉を受け答えするような動作をゲーム画像上で表現するアクション処理である。   Next, the CPU core 21 determines whether or not the position coordinates of the non-player character NPC acquired in step 92 are within the conversation range A1 (step 94). If the position coordinates of the non-player character NPC are outside the conversation range A1, the CPU core 21 advances the process to the next step 96. On the other hand, when the position coordinates of the non-player character NPC are within the conversation range A1, the CPU core 21 performs an action process expressing a conversation between the player character PC and the non-player character NPC that is the target of the touch operation. (Step 95), the process by the subroutine is terminated. Here, the action in which the player character PC and the non-player character NPC have a conversation is an action process that expresses, on the game image, an action in which the player character PC and the non-player character NPC receive and answer each other words. .

ステップ96において、CPUコア21は、プレイヤキャラクタPCの位置座標および向きに基づいて、当該プレイヤキャラクタPCの呼びかけ範囲A2を算出する(図8参照)。次に、CPUコア21は、上記ステップ92で取得したノンプレイヤキャラクタNPCの位置座標が呼びかけ範囲A2内か否かを判断する(ステップ97)。そして、CPUコア21は、ノンプレイヤキャラクタNPCの位置座標が呼びかけ範囲A2内である場合、プレイヤキャラクタPCがタッチ操作の対象であるノンプレイヤキャラクタNPCに呼びかける動作を表現するアクション処理を行って(ステップ98)、当該サブルーチンによる処理を終了する。ここで、プレイヤキャラクタPCがノンプレイヤキャラクタNPCに呼びかける動作とは、プレイヤキャラクタPCが上記会話する距離とは相対的に遠くに存在するノンプレイヤキャラクタNPCに対して、一方的に言葉をかけるような動作をゲーム画像上で表現するアクション処理である。   In step 96, the CPU core 21 calculates a calling range A2 for the player character PC based on the position coordinates and orientation of the player character PC (see FIG. 8). Next, the CPU core 21 determines whether or not the position coordinates of the non-player character NPC acquired in step 92 are within the calling range A2 (step 97). Then, when the position coordinates of the non-player character NPC are within the calling range A2, the CPU core 21 performs an action process that expresses the action that the player character PC calls to the non-player character NPC that is the target of the touch operation (step) 98) The processing by the subroutine is terminated. Here, the action that the player character PC calls to the non-player character NPC is to unilaterally speak a non-player character NPC that exists relatively far from the distance that the player character PC talks. This is an action process for expressing an action on a game image.

一方、CPUコア21は、ノンプレイヤキャラクタNPCの位置座標が呼びかけ範囲A2外である場合、交点座標DC3を目標点TGにして、プレイヤキャラクタPCが平面フィールドFP上を所定の速度で移動させるアクション処理を行って(ステップ99;図11参照)、当該サブルーチンによる処理を終了する。具体的には、ステップ99の移動アクションにおいて、CPUコア21は、オブジェクトデータベースにおけるプレイヤキャラクタPCの位置座標を、交点座標DC3に向かって所定速度で移動するように変化させる。   On the other hand, when the position coordinate of the non-player character NPC is outside the calling range A2, the CPU core 21 sets the intersection coordinate DC3 as the target point TG and causes the player character PC to move on the plane field FP at a predetermined speed. (Step 99; see FIG. 11), and the processing by the subroutine is finished. Specifically, in the moving action in step 99, the CPU core 21 changes the position coordinate of the player character PC in the object database so as to move toward the intersection coordinate DC3 at a predetermined speed.

図17において、対象オブジェクトがノンプレイヤキャラクタNPCでない場合、ステップ101においてCPUコア21は、タッチ操作の対象オブジェクトがプレイヤキャラクタPCか否かを判断する。そして、CPUコア21は、対象オブジェクトがプレイヤキャラクタPCでない場合、処理を次のステップ103に進める。一方、CPUコア21は、プレイヤキャラクタPCである場合、当該プレイヤキャラクタPCの装備を使う等の動作を表現するアクション処理を行って(ステップ102)、当該サブルーチンによる処理を終了する。具体的には、プレイヤがプレイヤキャラクタPCをタッチ操作した場合、プレイヤキャラクタPCが向いている方向にアクションの対象となるものがあるか否かにかかわらず、現在向いている方向に向かって装備しているアイテムを使う等のアクションを行う。例えば、アイテムとして斧を装備しているプレイヤキャラクタPCをタッチ操作した場合、当該プレイヤキャラクタPCは、現在の向きで斧を振るような動作を行う。また、何のアイテムも装備していないプレイヤキャラクタPCをタッチ操作した場合、正面近傍に木(オブジェクトOBJ)があれば、当該木を揺するような動作を行う。   In FIG. 17, when the target object is not the non-player character NPC, in step 101, the CPU core 21 determines whether or not the target object of the touch operation is the player character PC. Then, if the target object is not the player character PC, the CPU core 21 advances the process to the next step 103. On the other hand, if the CPU core 21 is a player character PC, the CPU core 21 performs an action process that expresses an action such as using the equipment of the player character PC (step 102), and ends the process of the subroutine. Specifically, when the player performs a touch operation on the player character PC, the player character PC is equipped in the direction in which the player character PC is facing, regardless of whether there is an action target in the direction in which the player character PC is facing. Take action such as using the item that is being used. For example, when a player character PC equipped with an ax as an item is touch-operated, the player character PC performs an action of swinging an ax in the current direction. Further, when a player character PC that is not equipped with any items is touch-operated, if there is a tree (object OBJ) in the vicinity of the front, an action of shaking the tree is performed.

ステップ103において、CPUコア21は、現在プレイヤキャラクタPCが装備しているアイテム種別を取得する。そして、CPUコア21は、オブジェクトデータベースを参照してプレイヤキャラクタPCの位置座標および向きを取得し、アイテム種別とタッチ操作の対象オブジェクトまたは交点座標DC3が示す平面フィールドFPの種別との組み合わせに応じて当該プレイヤキャラクタPCのアクション範囲A3を算出し(ステップ104;図9参照)、処理を次のステップに進める。ここで、CPUコア21は、プレイヤキャラクタPCの位置座標および向きに基づいて基本的なアクション範囲A3を算出し、アイテム種別とタッチ操作に応じた対象オブジェクトまたは平面フィールドFPの種別との組み合わせに応じてアクション範囲A3の大きさを変化させる。例えば、CPUコア21は、釣竿を装備しているプレイヤキャラクタPCに対して、ポストがタッチ操作の対象オブジェクトとなったアクション範囲A3と比較して、川がタッチ操作に応じた平面フィールドFPの種別である場合に相対的に大きなアクション範囲A3に変化させる。   In step 103, the CPU core 21 acquires the item type currently equipped by the player character PC. Then, the CPU core 21 refers to the object database to acquire the position coordinate and orientation of the player character PC, and according to the combination of the item type and the type of the plane field FP indicated by the touch operation target object or the intersection coordinate DC3. The action range A3 of the player character PC is calculated (step 104; see FIG. 9), and the process proceeds to the next step. Here, the CPU core 21 calculates a basic action range A3 based on the position coordinates and orientation of the player character PC, and according to the combination of the item type and the type of the target object or the plane field FP corresponding to the touch operation. To change the size of the action range A3. For example, with respect to the player character PC equipped with a fishing rod, the CPU core 21 compares the action range A3 in which the post is a target object of the touch operation with respect to the type of the plane field FP in which the river responds to the touch operation. Is changed to a relatively large action range A3.

次に、CPUコア21は、上記ステップ59で取得したタッチ操作の対象オブジェクトの位置座標または交点座標DC3がアクション範囲A3内か否かを判断する(ステップ105)。そして、CPUコア21は、対象オブジェクトの位置座標または交点座標DC3がアクション範囲A3内である場合に処理を次のステップ106に進め、アクション範囲A3外である場合に処理を次のステップ112に進める。   Next, the CPU core 21 determines whether or not the position coordinate or the intersection coordinate DC3 of the target object of the touch operation acquired in step 59 is within the action range A3 (step 105). Then, the CPU core 21 proceeds to the next step 106 when the position coordinate or intersection coordinate DC3 of the target object is within the action range A3, and proceeds to the next step 112 when it is outside the action range A3. .

ステップ106において、CPUコア21は、アクション範囲A3内にある対象オブジェクトがプレイヤキャラクタPCの装備しているアイテムのアクション対象(図10参照)であるか否かを判断する。そして、CPUコア21は、対象オブジェクトがプレイヤキャラクタPCの装備しているアイテムのアクション対象でない場合、処理を次のステップ108に進める。一方、CPUコア21は、対象オブジェクトがプレイヤキャラクタPCの装備しているアイテムのアクション対象である場合、プレイヤキャラクタPCがタッチ操作の対象オブジェクトに対して特別な動作を表現するアクション処理を行って(ステップ107)、当該サブルーチンによる処理を終了する。   In step 106, the CPU core 21 determines whether or not the target object in the action range A3 is an action target (see FIG. 10) of an item equipped with the player character PC. If the target object is not the action target of the item that the player character PC is equipped with, the CPU core 21 proceeds to the next step 108. On the other hand, when the target object is an action target of an item equipped with the player character PC, the CPU core 21 performs an action process in which the player character PC expresses a special action with respect to the target object of the touch operation ( Step 107), the processing by the subroutine is terminated.

このステップ106で判断するアイテムのアクション対象とは、プレイヤキャラクタPCが当該アイテムを用いて特別な動作を行うオブジェクトである。例えば、図10に示した一例では、プレイヤキャラクタPCが「スコップ」を装備している場合に「はじかれる」アクションを行う「岩」等が「スコップ」(アイテム)のアクション対象となる。また、プレイヤキャラクタPCが斧を装備している場合に「木を切る」および「はじかれる」アクションを行う「木」および「岩」等が「斧」(アイテム)のアクション対象となる。また、プレイヤキャラクタPCが「釣竿」を装備している場合は、アクション対象となるオブジェクトがない。このようにアイテムとアクション範囲A3内の対象オブジェクトとの組み合わせによって、上記ステップ106におけるアクション対象であるか否かを判断する。一方、特別な動作を行わない組み合わせとなる対象オブジェクト(例えば、「スコップ」に対する「木」)は、上記ステップ106においてアクション対象のオブジェクトではないと判断される。そして、上記ステップ107においては、アイテムとアクション範囲A3内の対象オブジェクトとの組み合わせに応じた特別な動作をゲーム画像上で表現するアクション処理が行われる。   The action target of the item determined in step 106 is an object on which the player character PC performs a special action using the item. For example, in the example shown in FIG. 10, “rock” or the like that performs the “repel” action when the player character PC is equipped with “scoop” is the action target of “scoop” (item). In addition, when the player character PC is equipped with an axe, “trees” and “rocks” that perform “cut trees” and “repel” actions are subject to action of “axes” (items). Further, when the player character PC is equipped with “fishing rod”, there is no object as an action target. In this way, it is determined whether or not it is an action target in step 106 by combining the item and the target object in the action range A3. On the other hand, it is determined in step 106 that the target object (for example, “tree” with respect to “scoop”) that is a combination that does not perform a special action is not an action target object. In step 107, an action process is performed in which a special action corresponding to the combination of the item and the target object in the action range A3 is expressed on the game image.

ステップ108において、CPUコア21は、アクション範囲A3内である対象オブジェクトがプレイヤキャラクタPCの装備しているアイテムの種別および有無にかかわらずに同じ動作を行う通常アクション対象(図10参照)であるか否かを判断する。そして、CPUコア21は、対象オブジェクトが通常アクション対象でない場合、処理を次のステップ110に進める。一方、CPUコア21は、対象オブジェクトが通常アクション対象(例えば、図10に記載した「ポスト」)である場合、プレイヤキャラクタPCがタッチ操作の対象オブジェクトに対して共通の動作(通常アクション;例えば、「ポストを開ける」)を表現するアクション処理を行って(ステップ109)、当該サブルーチンによる処理を終了する。   In step 108, the CPU core 21 is a normal action target (see FIG. 10) in which the target object within the action range A3 performs the same action regardless of the type and presence of the item that the player character PC is equipped with. Judge whether or not. Then, when the target object is not a normal action target, the CPU core 21 advances the processing to the next step 110. On the other hand, when the target object is a normal action target (for example, “post” described in FIG. 10), the CPU core 21 performs a common action (normal action; Action processing expressing "open post") is performed (step 109), and the processing by the subroutine is terminated.

ステップ110において、CPUコア21は、アクション範囲A3内である交点座標DC3が示す平面フィールドFPの種別(以下、地形と記載する)がプレイヤキャラクタPCの装備しているアイテムのアクション対象であるか否かを判断する。そして、CPUコア21は、地形がプレイヤキャラクタPCの装備しているアイテムのアクション対象でない場合、処理を次のステップ112に進める。一方、CPUコア21は、地形がプレイヤキャラクタPCの装備しているアイテムのアクション対象である場合、プレイヤキャラクタPCが交点座標DC3における平面フィールドFPに対して特別な動作を表現するアクション処理を行って(ステップ111)、当該サブルーチンによる処理を終了する。   In step 110, the CPU core 21 determines whether or not the type of the plane field FP (hereinafter referred to as terrain) indicated by the intersection coordinate DC3 within the action range A3 is the action target of the item equipped with the player character PC. Determine whether. Then, when the terrain is not the action target of the item equipped with the player character PC, the CPU core 21 advances the processing to the next step 112. On the other hand, when the terrain is an action target of an item equipped with the player character PC, the CPU core 21 performs an action process in which the player character PC expresses a special action on the plane field FP at the intersection coordinate DC3. (Step 111), the process by the subroutine is terminated.

このステップ110で判断するアイテムのアクション対象とは、プレイヤキャラクタPCが当該アイテムを用いて特別な動作を行う平面フィールドFPの種別である。例えば、図10に示した一例では、プレイヤキャラクタPCが「スコップ」を装備している場合に「地面に穴を掘る」および「空振りする」アクションを行う「地面」および「川」等が「スコップ」(アイテム)のアクション対象となる。また、プレイヤキャラクタPCが「釣竿」を装備している場合に「釣りをする」アクションを行う「川」等が「釣竿」(アイテム)のアクション対象となる。このようにアイテムとアクション範囲A3内の交点座標DC3における平面フィールドFPの種別との組み合わせによって、上記ステップ110におけるアクション対象を判断する。一方、特別な動作を行わない組み合わせとなる地形(例えば、「斧」に対する「地面」)は、上記ステップ110においてアクション対象ではないと判断される。そして、上記ステップ111においては、アイテムとアクション範囲A3内の交点座標DC3に応じた地形との組み合わせに応じた特別な動作をゲーム画像上で表現するアクション処理が行われる。   The item action target determined in step 110 is the type of the plane field FP in which the player character PC performs a special action using the item. For example, in the example shown in FIG. 10, when the player character PC is equipped with “scoop”, “ground”, “river”, and the like that perform “dig a hole in the ground” and “swivel” action are “scoop”. "(Item) is the target of action. Further, when the player character PC is equipped with a “fishing rod”, “river” or the like that performs the “fishing” action is an action target of the “fishing rod” (item). In this way, the action target in step 110 is determined based on the combination of the item and the type of the planar field FP at the intersection coordinate DC3 in the action range A3. On the other hand, it is determined that the terrain (for example, “ground” with respect to “ax”) that does not perform a special action is not an action target in step 110. In step 111, an action process is performed in which a special action corresponding to the combination of the item and the terrain corresponding to the intersection coordinate DC3 in the action range A3 is expressed on the game image.

ステップ112において、CPUコア21は、交点座標DC3を目標点TGにして、プレイヤキャラクタPCが平面フィールドFP上を所定の速度で移動させるアクション処理を行って(図11参照)、当該サブルーチンによる処理を終了する。なお、この処理は、上記ステップ99と同様であるため、詳細な説明を省略する。   In step 112, the CPU core 21 performs an action process in which the player character PC moves at a predetermined speed on the plane field FP with the intersection point coordinate DC3 as the target point TG (see FIG. 11), and performs the process according to the subroutine. finish. Since this process is the same as that in step 99, detailed description thereof is omitted.

図13に戻り、CPUコア21は、オブジェクトデータベースのオブジェクトデータDOに基づいて、ゲーム空間に配置されているオブジェクト毎に平面座標系の位置座標および描画モデル種別記号を取得する(ステップ63)。そして、CPUコア21は、上記ステップ63で取得した各位置座標を平面座標系からドラム座標系に変換し(ステップ64)、処理を次のステップに進める。なお、ステップ64で行う各位置座標を平面座標系からドラム座標系に変換する処理は、上述したステップ54(図12)の動作と同様であるため、詳細な説明を省略する。   Returning to FIG. 13, the CPU core 21 acquires the position coordinate and the drawing model type symbol of the plane coordinate system for each object arranged in the game space based on the object data DO of the object database (step 63). Then, the CPU core 21 converts each position coordinate acquired in step 63 from the plane coordinate system to the drum coordinate system (step 64), and advances the processing to the next step. Note that the process of converting each position coordinate from the plane coordinate system to the drum coordinate system in step 64 is the same as the operation in step 54 (FIG. 12) described above, and thus detailed description thereof is omitted.

次に、CPUコア21は、上記ステップ64で算出したドラム座標系の対応座標に応じて、各描画モデルを配置して仮想カメラCを視点としたゲーム画像を描画して(ステップ65)、当該フローチャートによる処理を終了する。具体的には、CPUコア21は、各オブジェクトデータDOに含まれている描画モデルの種別記号に基づいて描画モデル画像データDI1を参照し、ドラム座標系のゲーム空間における各対応座標の位置に当該描画モデル画像を配置する(図4参照)。このステップ65によって、ゲーム空間に登場するプレイヤキャラクタPC、ノンプレイヤキャラクタNPC、およびその他のオブジェクトOBJに対応する描画モデルがドラム座標系のゲーム空間に配置されて仮想カメラCを視点としたゲーム画像として描画される。   Next, the CPU core 21 arranges each drawing model in accordance with the corresponding coordinates of the drum coordinate system calculated in step 64 and draws a game image with the virtual camera C as a viewpoint (step 65). The process according to the flowchart ends. Specifically, the CPU core 21 refers to the drawing model image data DI1 based on the drawing model type symbol included in each object data DO, and sets the corresponding coordinate position in the game space of the drum coordinate system. A drawing model image is arranged (see FIG. 4). As a result of this step 65, drawing models corresponding to the player character PC, non-player character NPC, and other objects OBJ appearing in the game space are arranged in the game space in the drum coordinate system, and the game image is viewed from the virtual camera C as a viewpoint. Drawn.

このように、ゲーム装置1で実行されるゲーム処理では、プレイヤキャラクタPCの正面に複数の判定領域(会話領域A1、呼びかけ領域A2、組み合わせに応じたアクション領域A3)を設定し、タッチ操作された位置と判定領域との関係によって異なるアクションが表現される。具体的には、タッチ操作された位置が判定領域内にあるオブジェクトや地形である場合、プレイヤキャラクタPCは、その判定領域内に存在するオブジェクトや地形に対して所定のアクションを行う。一方、タッチ操作された位置が判定領域外である場合、プレイヤキャラクタPCは、そのタッチ操作位置を目標として移動するアクションを行う。したがって、同じタッチ操作であってもバリエーションに富んだキャラクタ動作を表現することができる。また、ゲーム装置1で実行されるゲーム処理では、プレイヤキャラクタPCが装備しているアイテムとタッチ操作されたオブジェクトや地形との組み合わせによってアクションが変更される。したがって、同じタッチ操作であってもアイテムおよびタッチ操作の対象に応じて変更されるキャラクタ動作を表現することができる。さらに、判定領域は、タッチ操作の対象やアイテムに応じて複数設定されており、タッチ操作の対象、アイテムの特性、および動作特性(会話や呼びかける等)に応じて判定領域の大きさを変化させることができる。つまり、ゲーム装置1で実行されるゲーム処理では、ゲーム空間で表現される特性に応じてリアリティのある判定領域を設定することによって、より現実的なアクションを表現することが可能となる。   As described above, in the game process executed by the game apparatus 1, a plurality of determination areas (a conversation area A1, a call area A2, and an action area A3 corresponding to the combination) are set in front of the player character PC, and a touch operation is performed. Different actions are expressed depending on the relationship between the position and the determination area. Specifically, when the touched position is an object or terrain in the determination area, the player character PC performs a predetermined action on the object or terrain existing in the determination area. On the other hand, when the touch-operated position is outside the determination region, the player character PC performs an action of moving with the touch operation position as a target. Therefore, even if the touch operation is the same, a variety of character actions can be expressed. Further, in the game process executed by the game apparatus 1, the action is changed depending on the combination of the item equipped with the player character PC and the touched object or terrain. Therefore, even if it is the same touch operation, the character operation | movement changed according to the item and the object of touch operation can be expressed. Furthermore, a plurality of determination areas are set according to the touch operation target and item, and the size of the determination area is changed according to the touch operation target, item characteristics, and operation characteristics (such as conversation and calling). be able to. That is, in the game process executed by the game apparatus 1, it is possible to express a more realistic action by setting a realistic determination region according to the characteristics expressed in the game space.

なお、上述した説明においては、図5に示したようにタッチパネル座標系が設定される手前側クリップ面(タッチパネル15)と仮想壁Wとを互いに平行に設定したが、仮想壁Wが平行でなくてもタッチ入力座標の透視投影を同様に行うことができることは言うまでもない。また、図5に示したように仮想カメラCから透視投影によってゲーム画像が得られる説明をしたが、平行投影によってゲーム画像を生成してもかまわない。さらに、ドラム座標系に設定されるゲームフィールドを円筒形のドラムフィールドFDを用いて説明したが、平面や球面等の他のゲームフィールドを用いてもかまわない。   In the above description, as shown in FIG. 5, the near-side clip surface (touch panel 15) on which the touch panel coordinate system is set and the virtual wall W are set parallel to each other, but the virtual wall W is not parallel to each other. However, it goes without saying that the perspective projection of the touch input coordinates can be similarly performed. In addition, as shown in FIG. 5, the game image is obtained from the virtual camera C by perspective projection, but the game image may be generated by parallel projection. Further, although the game field set in the drum coordinate system has been described using the cylindrical drum field FD, other game fields such as a plane or a spherical surface may be used.

また、上述では、説明を具体的にするために、具体的な判定領域の形状を示してゲーム処理を説明したが、これらは一実施例であり、本発明がこれらの形状に限定されることはないことは言うまでもない。   Further, in the above description, for the sake of specific explanation, the game process has been described by showing specific shapes of determination areas. However, these are only examples, and the present invention is limited to these shapes. It goes without saying that there is nothing.

また、上述した実施形態では、2画面分の液晶表示部の一例として、物理的に分離された第1のLCD11および第2のLCD12を互いに上下に配置した場合(上下2画面の場合)を説明した。しかしながら、2画面分の表示画面の構成は、他の構成でもかまわない。例えば、下側ハウジング13bの一方主面に第1のLCD11および第2のLCD12を左右に配置してもかまわない。また、第2のLCD12と横幅が同じで縦の長さが2倍のサイズからなる縦長サイズのLCD(すなわち、物理的には1つで、表示サイズが縦に2画面分あるLCD)を下側ハウジング13bの一方主面に配設して、第1および第2のゲーム画像を上下に表示(すなわち上下の境界部分無しに隣接して表示)するように構成してもよい。また、第2のLCD12と縦幅が同じで横の長さが2倍のサイズからなる横長サイズのLCDを下側ハウジング13bの一方主面に配設して、横方向に第1および第2のゲーム画像を左右に表示(すなわち左右の境界部分無しに隣接して表示)するように構成してもよい。すなわち、物理的に1つの画面を2つに分割して使用することにより第1および第2のゲーム画像を表示してもかまわない。いずれのゲーム画像の形態に対しても、第2のゲーム画像が表示される画面上にタッチパネル15を配設すれば、同様に本発明を実現することができる。また、物理的に1つの画面を2つに分割して使用することにより第1および第2のゲーム画像を表示する場合、当該画面全面にタッチパネル15を配設してもかまわない。   In the above-described embodiment, as an example of the liquid crystal display unit for two screens, a case where the first LCD 11 and the second LCD 12 that are physically separated from each other are arranged one above the other (in the case of two upper and lower screens) will be described. did. However, the configuration of the display screen for two screens may be other configurations. For example, the first LCD 11 and the second LCD 12 may be arranged on the left and right on one main surface of the lower housing 13b. In addition, a vertically long LCD having the same horizontal width as the second LCD 12 and having a vertical length twice as long (that is, a single LCD having a vertical display size of two screens) is placed below. It may be arranged on one main surface of the side housing 13b so that the first and second game images are displayed vertically (that is, displayed adjacently without the upper and lower boundary portions). In addition, a horizontally long LCD having the same vertical width as the second LCD 12 and having a width twice as long as the second LCD 12 is disposed on one main surface of the lower housing 13b, and the first and second in the horizontal direction. The game images may be displayed on the left and right (that is, displayed adjacently without the left and right border portions). That is, the first and second game images may be displayed by physically dividing one screen into two. Regardless of the form of the game image, the present invention can be similarly realized if the touch panel 15 is provided on the screen on which the second game image is displayed. When the first and second game images are displayed by physically dividing one screen into two, the touch panel 15 may be disposed on the entire screen.

また、上述した実施例では、ゲーム装置1にタッチパネル15が一体的に設けられているが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できることは言うまでもない。また、第1のLCD11の上面にタッチパネル15を設けても良い。さらに、上記実施例では表示画面を2つ(第1のLCD11、第2のLCD12)を設けたが、表示画面は1つであってもかまわない。すなわち、上記実施例において、第1のLCD11設けず単に第2のLCD12のみを表示画面としてタッチパネル15を設けるように構成してもよい。また、上記実施例において、第2のLCD12を設けず第1のLCD11の上面にタッチパネル15を設けても良い。   In the embodiment described above, the touch panel 15 is integrally provided on the game apparatus 1. However, it goes without saying that the present invention can be realized even if the game apparatus and the touch panel are configured separately. Further, the touch panel 15 may be provided on the upper surface of the first LCD 11. Furthermore, although two display screens (first LCD 11 and second LCD 12) are provided in the above embodiment, the number of display screens may be one. That is, in the above-described embodiment, the touch panel 15 may be provided by using only the second LCD 12 as a display screen without providing the first LCD 11. Further, in the above embodiment, the touch panel 15 may be provided on the upper surface of the first LCD 11 without providing the second LCD 12.

また、上記実施例では、ゲーム装置1の入力手段としてタッチパネルを用いたが、他のポインティングデバイスを用いてもかまわない。ここで、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、マウス、トラックパッド、トラックボールなどを入力手段として使用し、入力手段から出力される出力値から計算されたドラム座標系の情報を用いれば、本発明を同様に実現することができる。   Moreover, in the said Example, although the touch panel was used as an input means of the game device 1, other pointing devices may be used. Here, the pointing device is an input device that specifies an input position and coordinates on the screen. For example, a mouse, a trackpad, a trackball, or the like is used as an input means, and is calculated from an output value output from the input means The present invention can be similarly realized by using the information of the drum coordinate system.

また、上記実施例では、ゲーム装置1にタッチパネル15が一体的に設けられているが、タッチパネルを入力手段の1つとする一般的なパーソナルコンピュータなどの情報処理装置(ゲーム装置)でもかまわない。   In the above embodiment, the touch panel 15 is integrally provided on the game apparatus 1, but an information processing apparatus (game apparatus) such as a general personal computer that uses the touch panel as one of input means may be used.

本発明のゲームプログラムおよびゲーム装置は、ポインティングデバイスを用いた同じ操作であってもバリエーションに富んだキャラクタ動作を表現することができ、タッチパネル等のポインティングデバイスを用いて操作されるゲーム装置等の情報処理装置やその情報処理装置で実行されるゲームプログラム等として有用である。   The game program and game device of the present invention can express a variety of character actions even with the same operation using a pointing device, and information on game devices and the like that are operated using a pointing device such as a touch panel. It is useful as a game program or the like executed by the processing device or its information processing device.

本発明のゲームプログラムを実行するゲーム装置1の外観図External view of game device 1 for executing the game program of the present invention 図1のゲーム装置1の内部構成を示すブロック図The block diagram which shows the internal structure of the game device 1 of FIG. 第1のLCD11および第2のLCD12に表示される画面表示例を示す図The figure which shows the example of a screen display displayed on 1st LCD11 and 2nd LCD12 第2のLCD12に表示されるゲーム画像を得るためのドラム座標系およびタッチパネル15との位置関係を説明するための概略斜視図Schematic perspective view for explaining the positional relationship between the drum coordinate system for obtaining the game image displayed on the second LCD 12 and the touch panel 15 ドラム座標系とタッチパネル15との位置関係を説明するための側面図Side view for explaining the positional relationship between the drum coordinate system and the touch panel 15 ゲーム処理を行う平面座標系を説明するための概略斜視図Schematic perspective view for explaining a plane coordinate system for performing game processing プレイヤキャラクタPCに設定される会話範囲A1を説明するための概略斜視図Schematic perspective view for explaining the conversation range A1 set for the player character PC プレイヤキャラクタPCに設定される呼びかけ範囲A2を説明するための概略斜視図Schematic perspective view for explaining the calling range A2 set for the player character PC プレイヤキャラクタPCに設定されるアクション範囲A3を説明するための概略斜視図Schematic perspective view for explaining the action range A3 set for the player character PC アクションの内容の一例を説明するための図Diagram for explaining an example of action content プレイヤキャラクタPCの移動アクションを説明するための図The figure for demonstrating the movement action of player character PC 本発明の一実施形態に係るゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う前半の動作を示すフローチャートThe flowchart which shows operation | movement of the first half that the game device 1 performs a game process by running the game program which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲームプログラムを実行することによってゲーム装置1がゲーム処理を行う後半の動作を示すフローチャートThe flowchart which shows the operation | movement of the second half in which the game device 1 performs a game process by running the game program which concerns on one Embodiment of this invention. 図12におけるステップ54および図13におけるステップ64のドラム座標系の位置座標に変換する処理について詳細な動作を示すサブルーチンSubroutine showing detailed operations for the process of converting to the position coordinates of the drum coordinate system in step 54 in FIG. 12 and step 64 in FIG. 図13におけるステップ61のドラム座標系の交点座標を平面座標系に変換する処理について詳細な動作を示すサブルーチンA subroutine showing the detailed operation of the process of converting the intersection coordinates of the drum coordinate system into the plane coordinate system in step 61 in FIG. 図13におけるステップ62のアクション処理について前半の詳細な動作を示すサブルーチンSubroutine showing detailed operations in the first half of the action processing in step 62 in FIG. 図13におけるステップ62のアクション処理について後半の詳細な動作を示すサブルーチンSubroutine showing detailed operations in the latter half of the action process in step 62 in FIG. 図12および図13に基づいた処理動作でRAM24に記憶される各種データの一例を示す図The figure which shows an example of the various data memorize | stored in RAM24 by the processing operation based on FIG. 12 and FIG.

符号の説明Explanation of symbols

1 ゲーム装置
11 第1のLCD
12 第2のLCD
13 ハウジング
13a 上側ハウジング
13b 下側ハウジング
14 操作スイッチ部
14a 十字スイッチ
14b スタートスイッチ
14c セレクトスイッチ
14d Aボタン
14e Bボタン
14f Xボタン
14g Yボタン
14h 電源スイッチ
14L Lボタン
14R Rボタン
15 タッチパネル
16 スティック
17 メモリカード
17a ROM
17b RAM
18a、18b 音抜き孔
20 電子回路基板
21 CPUコア
22 バス
23 コネクタ
24 RAM
25 I/F回路
26 第1GPU
27 第2GPU
28 第1VRAM
29 第2VRAM
30a 右スピーカ
30b 左スピーカ
31 LCDコントローラ
32 レジスタ
33 ワイヤレス通信部
1 game device 11 first LCD
12 Second LCD
13 Housing 13a Upper housing 13b Lower housing 14 Operation switch 14a Cross switch 14b Start switch 14c Select switch 14d A button 14e B button 14f X button 14g Y button 14h Power switch 14L L button 14R R button 15 Touch panel 16 Stick 17 Memory card 17a ROM
17b RAM
18a, 18b Sound release hole 20 Electronic circuit board 21 CPU core 22 Bus 23 Connector 24 RAM
25 I / F circuit 26 1st GPU
27 Second GPU
28 First VRAM
29 Second VRAM
30a Right speaker 30b Left speaker 31 LCD controller 32 Register 33 Wireless communication unit

Claims (11)

プレイヤオブジェクトおよび少なくとも1つの他のオブジェクトが存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面上に表示し、プレイヤの操作に応じて前記表示画面上の座標系における入力座標を出力するポインティングデバイスによって操作されるゲーム装置のコンピュータで実行されるゲームプログラムであって、
前記コンピュータに、
前記プレイヤオブジェクトおよび前記他のオブジェクトの前記仮想空間における位置をそれぞれ示す仮想配置座標をメモリに記憶する仮想配置座標記憶ステップ、
前記プレイヤオブジェクトの仮想配置座標に基づいて、前記仮想空間における前記プレイヤオブジェクトの位置を基準とする第1の判定領域を設定する第1判定領域設定ステップ、
前記ポインティングデバイスより出力される入力座標を検出する検出ステップ、
前記表示画面上の前記入力座標が前記仮想空間に配置された前記プレイヤオブジェクトまたは他のオブジェクトと重なるとき、当該オブジェクトをプレイヤによって指示された指示オブジェクトとして検出する指示オブジェクト検出ステップ、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれる前記他のオブジェクトであると判断したとき、当該指示オブジェクトと前記プレイヤオブジェクトとの間で所定の動作を実行する第1アクション処理ステップ、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれないと判断したとき、前記表示画面上の前記入力座標と重なる前記仮想空間における点の方向へ前記プレイヤオブジェクトが移動するように、メモリに記憶された前記プレイヤオブジェクトの仮想配置座標を更新するプレイヤオブジェクト位置更新ステップ、および
メモリに記憶された各仮想配置座標に基づいて、前記プレイヤオブジェクトおよび前記他のオブジェクトを前記表示画面に表示する表示制御ステップを実行させる、ゲームプログラム。
A game image representing at least a part of the virtual space where the player object and at least one other object are present is displayed on the display screen, and input coordinates in the coordinate system on the display screen are output according to the operation of the player. A game program executed on a computer of a game device operated by a pointing device,
In the computer,
A virtual placement coordinate storage step of storing in a memory virtual placement coordinates respectively indicating the positions of the player object and the other object in the virtual space;
A first determination area setting step for setting a first determination area based on the position of the player object in the virtual space based on the virtual arrangement coordinates of the player object;
A detection step of detecting input coordinates output from the pointing device;
A pointing object detection step of detecting, when the input coordinates on the display screen overlap with the player object or another object arranged in the virtual space, as the pointing object instructed by the player;
When it is determined that the instruction object is the other object included in the first determination area based on the virtual arrangement coordinates of the instruction object, a predetermined action is performed between the instruction object and the player object. A first action processing step to be executed;
When it is determined that the pointing object is not included in the first determination area based on the virtual arrangement coordinates of the pointing object, the player moves toward the point in the virtual space that overlaps the input coordinates on the display screen. A player object position update step for updating the virtual arrangement coordinates of the player object stored in the memory so that the object moves, and the player object and the other objects based on the virtual arrangement coordinates stored in the memory A game program for executing a display control step for displaying a message on the display screen.
プレイヤオブジェクトおよび少なくとも1つの他のオブジェクトが存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面上に表示し、プレイヤの操作に応じて前記表示画面上の座標系における入力座標を出力するポインティングデバイスによって操作されるゲーム装置のコンピュータで実行されるゲームプログラムであって、
前記コンピュータに、
前記プレイヤオブジェクトおよび前記他のオブジェクトの前記仮想空間における位置をそれぞれ示す仮想配置座標をメモリに記憶する仮想配置座標記憶ステップ、
前記プレイヤオブジェクトの仮想配置座標に基づいて、前記仮想空間における前記プレイヤオブジェクトの位置を基準とする第1の判定領域を設定する第1判定領域設定ステップ、
前記入力座標が出力されたとき、前記表示画面上の当該入力座標に重なる前記仮想空間における仮想入力座標を算出する仮想入力座標算出ステップ、
前記仮想入力座標算出ステップによって算出される仮想入力座標が前記仮想空間に配置された前記プレイヤオブジェクトまたは他のオブジェクトと重なるとき、当該オブジェクトをプレイヤによって指示された指示オブジェクトとして検出する指示オブジェクト検出ステップ、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれる前記他のオブジェクトであると判断したとき、当該指示オブジェクトと前記プレイヤオブジェクトとの間で所定の動作を実行する第1アクション処理ステップ、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれないと判断したとき、前記仮想入力座標に基づいた方向へ前記プレイヤオブジェクトが移動するように、当該仮想入力座標に基づいてメモリに記憶された前記プレイヤオブジェクトの仮想配置座標を更新するプレイヤオブジェクト位置更新ステップ、および
メモリに記憶された各仮想配置座標に基づいて、前記プレイヤオブジェクトおよび前記他のオブジェクトを前記表示画面に表示する表示制御ステップを実行させる、ゲームプログラム。
A game image representing at least a part of the virtual space where the player object and at least one other object are present is displayed on the display screen, and input coordinates in the coordinate system on the display screen are output according to the operation of the player. A game program executed on a computer of a game device operated by a pointing device,
In the computer,
A virtual placement coordinate storage step of storing in a memory virtual placement coordinates respectively indicating the positions of the player object and the other object in the virtual space;
A first determination area setting step for setting a first determination area based on the position of the player object in the virtual space based on the virtual arrangement coordinates of the player object;
A virtual input coordinate calculation step of calculating a virtual input coordinate in the virtual space overlapping the input coordinate on the display screen when the input coordinate is output;
An instruction object detection step of detecting, when the virtual input coordinates calculated by the virtual input coordinate calculation step overlap with the player object or other objects arranged in the virtual space, the object as an instruction object instructed by the player;
When it is determined that the instruction object is the other object included in the first determination area based on the virtual arrangement coordinates of the instruction object, a predetermined action is performed between the instruction object and the player object. A first action processing step to be executed;
When it is determined that the instruction object is not included in the first determination area based on the virtual arrangement coordinates of the instruction object, the virtual object is moved so that the player object moves in a direction based on the virtual input coordinates. A player object position updating step for updating the virtual arrangement coordinates of the player object stored in the memory based on the input coordinates, and the player object and the other object are selected based on the virtual arrangement coordinates stored in the memory. A game program for executing a display control step to be displayed on a display screen.
前記仮想入力座標算出ステップは、前記表示画面上の前記入力座標が前記仮想空間に配置されたゲームフィールドと重なるとき、当該ゲームフィールド上に前記仮想入力座標を算出するステップを含む、請求項2に記載のゲームプログラム。   The virtual input coordinate calculation step includes a step of calculating the virtual input coordinate on the game field when the input coordinate on the display screen overlaps with the game field arranged in the virtual space. The described game program. 前記第1アクション処理ステップは、前記プレイヤオブジェクトが所持しているアイテムと前記他のオブジェクトの種類との組み合わせに応じて、当該プレイヤオブジェクトと当該他のオブジェクトとの間で行う動作を決定するステップを含む、請求項1または2に記載のゲームプログラム。   The first action processing step includes a step of determining an action to be performed between the player object and the other object according to a combination of an item possessed by the player object and the type of the other object. A game program according to claim 1 or 2, comprising: 前記プレイヤオブジェクト位置更新ステップは、前記指示オブジェクト検出ステップで前記指示オブジェクトを検出しないとき、前記入力座標または前記仮想入力座標に基づいてメモリに記憶された前記プレイヤオブジェクト位置データを更新するステップを含む、請求項1または2に記載のゲームプログラム。   The player object position update step includes a step of updating the player object position data stored in a memory based on the input coordinates or the virtual input coordinates when the pointing object is not detected in the pointing object detection step. The game program according to claim 1 or 2. 前記第1判定領域設定ステップは、前記プレイヤオブジェクトが所持しているアイテムに応じて、前記第1の判定領域の大きさを変更するステップを含む、請求項1または2に記載のゲームプログラム。   The game program according to claim 1, wherein the first determination area setting step includes a step of changing a size of the first determination area according to an item possessed by the player object. 前記第1の判定領域は、前記プレイヤオブジェクトの仮想配置座標に基づいて、前記プレイヤオブジェクトの正面に対して左右所定角度の範囲で前記仮想空間に設定されることを特徴とする、請求項1または2に記載のゲームプログラム。   The first determination area is set in the virtual space within a range of a predetermined left and right angle with respect to the front of the player object based on the virtual arrangement coordinates of the player object. 2. The game program according to 2. 前記ゲームプログラムは、
前記プレイヤオブジェクトの位置を基準として、前記仮想空間に前記第1の判定領域とは異なった第2の判定領域を設定する第2判定領域設定ステップ、および
前記指示オブジェクト検出ステップで検出した指示オブジェクトが当該指示オブジェクトの仮想配置座標に基づいて前記第1の判定領域外で前記第2の判定領域内に配置された特定のオブジェクトであるとき、当該特定のオブジェクトと前記プレイヤオブジェクトとの間で前記第1アクション処理ステップが行う動作とは異なった別の動作を当該特定のオブジェクトと前記プレイヤオブジェクトとの間で行う第2アクション処理ステップを、さらに前記コンピュータに実行させる、請求項1または2に記載のゲームプログラム。
The game program is
A second determination area setting step for setting a second determination area different from the first determination area in the virtual space with reference to the position of the player object; and the pointing object detected in the pointing object detection step When the specific object is arranged outside the first determination area and within the second determination area based on the virtual arrangement coordinates of the pointing object, the first object is inserted between the specific object and the player object. 3. The computer according to claim 1, further causing the computer to execute a second action processing step of performing another operation different from the operation performed by the one action processing step between the specific object and the player object. Game program.
前記ゲームプログラムは、前記指示オブジェクト検出ステップで検出した指示オブジェクトが前記プレイヤオブジェクトであるとき、前記他のオブジェクトの仮想配置座標に基づいて前記第1の判定領域内に配置された当該他のオブジェクトと当該プレイヤオブジェクトとの間で所定の動作を行うプレイヤアクション処理ステップを、さらに前記コンピュータに実行させる、請求項1または2に記載のゲームプログラム。   When the pointing object detected in the pointing object detection step is the player object, the game program includes the other object arranged in the first determination area based on the virtual placement coordinates of the other object. The game program according to claim 1, further causing the computer to execute a player action processing step for performing a predetermined action with the player object. プレイヤオブジェクトおよび少なくとも1つの他のオブジェクトが存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面上に表示し、プレイヤの操作に応じて前記表示画面上の座標系における入力座標を出力するポインティングデバイスによって操作されるゲーム装置であって、
記憶手段と、
前記プレイヤオブジェクトおよび前記他のオブジェクトの前記仮想空間における位置をそれぞれ示す仮想配置座標を前記記憶手段に記憶する仮想配置座標記憶制御手段と、
前記プレイヤオブジェクトの仮想配置座標に基づいて、前記仮想空間における前記プレイヤオブジェクトの位置を基準とする第1の判定領域を設定する第1判定領域設定手段、
前記ポインティングデバイスより出力される入力座標を検出する検出手段と、
前記入力座標が前記仮想空間に配置された前記プレイヤオブジェクトまたは他のオブジェクトと前記表示画面において重なるとき、当該オブジェクトをプレイヤによって指示された指示オブジェクトとして検出する指示オブジェクト検出手段と、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれる前記他のオブジェクトであると判断したとき、当該指示オブジェクトと前記プレイヤオブジェクトとの間で所定の動作を実行する第1アクション処理手段と、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれないと判断したとき、前記表示画面上の前記入力座標と重なる前記仮想空間における点の方向へ前記プレイヤオブジェクトが移動するように、前記記憶手段に記憶された前記プレイヤオブジェクトの仮想配置座標を更新するプレイヤオブジェクト位置更新手段と、
前記記憶手段に記憶された各仮想配置座標に基づいて、前記プレイヤオブジェクトおよび前記他のオブジェクトを前記表示画面に表示する表示制御手段とを備える、ゲーム装置。
A game image representing at least a part of the virtual space where the player object and at least one other object are present is displayed on the display screen, and input coordinates in the coordinate system on the display screen are output according to the operation of the player. A game device operated by a pointing device,
Storage means;
Virtual placement coordinate storage control means for storing in the storage means virtual placement coordinates respectively indicating the positions of the player object and the other object in the virtual space;
First determination area setting means for setting a first determination area based on the position of the player object in the virtual space based on the virtual arrangement coordinates of the player object;
Detecting means for detecting input coordinates output from the pointing device;
An indication object detection means for detecting the object as an indication object instructed by the player when the input coordinates overlap with the player object or other objects arranged in the virtual space on the display screen;
When it is determined that the instruction object is the other object included in the first determination area based on the virtual arrangement coordinates of the instruction object, a predetermined action is performed between the instruction object and the player object. First action processing means to execute;
When it is determined that the pointing object is not included in the first determination area based on the virtual arrangement coordinates of the pointing object, the player moves toward the point in the virtual space that overlaps the input coordinates on the display screen. Player object position updating means for updating virtual placement coordinates of the player object stored in the storage means so that the object moves;
A game apparatus comprising: display control means for displaying the player object and the other object on the display screen based on each virtual arrangement coordinate stored in the storage means.
プレイヤオブジェクトおよび少なくとも1つの他のオブジェクトが存在する仮想空間の少なくとも一部を表現したゲーム画像を表示画面上に表示し、プレイヤの操作に応じて前記表示画面上の座標系における入力座標を出力するポインティングデバイスによって操作されるゲーム装置であって、
記憶手段と、
前記プレイヤオブジェクトおよび前記他のオブジェクトの前記仮想空間における位置をそれぞれ示す仮想配置座標を前記記憶手段に記憶する仮想配置座標記憶制御手段と、
前記プレイヤオブジェクトの仮想配置座標に基づいて、前記仮想空間における前記プレイヤオブジェクトの位置を基準とする第1の判定領域を設定する第1判定領域設定手段、
前記入力座標が出力されたとき、前記表示画面上の当該入力座標に重なる前記仮想空間における仮想入力座標を算出する仮想入力座標算出手段と、
前記仮想入力座標算出手段によって算出される仮想入力座標が前記仮想空間に配置された前記プレイヤオブジェクトまたは他のオブジェクトと重なるとき、当該オブジェクトをプレイヤによって指示された指示オブジェクトとして検出する指示オブジェクト検出手段と、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれる前記他のオブジェクトであると判断したとき、当該指示オブジェクトと前記プレイヤオブジェクトとの間で所定の動作を実行する第1アクション処理手段と、
前記指示オブジェクトの仮想配置座標に基づいて当該指示オブジェクトが前記第1の判定領域内に含まれないと判断したとき、前記仮想入力座標に基づいた方向へ前記プレイヤオブジェクトが移動するように、当該仮想入力座標に基づいて前記記憶手段に記憶された前記プレイヤオブジェクトの仮想配置座標を更新するプレイヤオブジェクト位置更新手段と、
前記記憶手段に記憶された各仮想配置座標に基づいて、前記プレイヤオブジェクトおよび前記他のオブジェクトを前記表示画面に表示する表示制御手段とを備える、ゲーム装置
A game image representing at least a part of the virtual space where the player object and at least one other object are present is displayed on the display screen, and input coordinates in the coordinate system on the display screen are output according to the operation of the player. A game device operated by a pointing device,
Storage means;
Virtual placement coordinate storage control means for storing in the storage means virtual placement coordinates respectively indicating the positions of the player object and the other object in the virtual space;
First determination area setting means for setting a first determination area based on the position of the player object in the virtual space based on the virtual arrangement coordinates of the player object;
Virtual input coordinate calculation means for calculating virtual input coordinates in the virtual space overlapping the input coordinates on the display screen when the input coordinates are output;
Indicating object detection means for detecting, when the virtual input coordinates calculated by the virtual input coordinate calculating means overlap with the player object or another object arranged in the virtual space, the object as an instruction object instructed by the player; ,
When it is determined that the instruction object is the other object included in the first determination area based on the virtual arrangement coordinates of the instruction object, a predetermined action is performed between the instruction object and the player object. First action processing means to execute;
When it is determined that the instruction object is not included in the first determination area based on the virtual arrangement coordinates of the instruction object, the virtual object is moved so that the player object moves in a direction based on the virtual input coordinates. Player object position updating means for updating virtual placement coordinates of the player object stored in the storage means based on input coordinates;
A game apparatus comprising: display control means for displaying the player object and the other object on the display screen based on each virtual arrangement coordinate stored in the storage means.
JP2008186384A 2008-07-17 2008-07-17 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND METHOD Active JP4743721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008186384A JP4743721B2 (en) 2008-07-17 2008-07-17 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008186384A JP4743721B2 (en) 2008-07-17 2008-07-17 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND METHOD

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005141562A Division JP4312737B2 (en) 2005-05-13 2005-05-13 GAME PROGRAM AND GAME DEVICE

Publications (3)

Publication Number Publication Date
JP2008259880A true JP2008259880A (en) 2008-10-30
JP2008259880A5 JP2008259880A5 (en) 2008-12-11
JP4743721B2 JP4743721B2 (en) 2011-08-10

Family

ID=39982783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008186384A Active JP4743721B2 (en) 2008-07-17 2008-07-17 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND METHOD

Country Status (1)

Country Link
JP (1) JP4743721B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176313A (en) * 2009-01-28 2010-08-12 Toshiba Corp Information-processing device and information-processing method
JP2010273885A (en) * 2009-05-28 2010-12-09 Nintendo Co Ltd Game program and game apparatus
JP2012033043A (en) * 2010-07-30 2012-02-16 Toshiba Corp Information display device and information display method
JP2018097517A (en) * 2016-12-12 2018-06-21 株式会社コロプラ Information processing method, device, and program for causing computer to execute the information processing method
JPWO2018135304A1 (en) * 2017-01-18 2019-11-21 ソニー株式会社 Information processing apparatus, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1195650A (en) * 1997-09-22 1999-04-09 Casio Comput Co Ltd Control device of living body image display, method of controlling living body image display, and medium on which living body image display processing program is recorded
JP2002000939A (en) * 2000-06-19 2002-01-08 Sega Corp Electronic game device, method therefor and storage medium
JP2003150978A (en) * 2001-11-09 2003-05-23 Sony Corp Three-dimensional virtual space display method, program, and recording medium storing program
WO2004020061A1 (en) * 2002-08-28 2004-03-11 Sega Toys, Ltd. Game apparatus
JP2006102274A (en) * 2004-10-06 2006-04-20 Namco Ltd Game system, program and information storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1195650A (en) * 1997-09-22 1999-04-09 Casio Comput Co Ltd Control device of living body image display, method of controlling living body image display, and medium on which living body image display processing program is recorded
JP2002000939A (en) * 2000-06-19 2002-01-08 Sega Corp Electronic game device, method therefor and storage medium
JP2003150978A (en) * 2001-11-09 2003-05-23 Sony Corp Three-dimensional virtual space display method, program, and recording medium storing program
WO2004020061A1 (en) * 2002-08-28 2004-03-11 Sega Toys, Ltd. Game apparatus
JP2006102274A (en) * 2004-10-06 2006-04-20 Namco Ltd Game system, program and information storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176313A (en) * 2009-01-28 2010-08-12 Toshiba Corp Information-processing device and information-processing method
JP2010273885A (en) * 2009-05-28 2010-12-09 Nintendo Co Ltd Game program and game apparatus
JP2012033043A (en) * 2010-07-30 2012-02-16 Toshiba Corp Information display device and information display method
US8466894B2 (en) 2010-07-30 2013-06-18 Kabushiki Kaisha Toshiba Apparatus and method for displaying information
JP2018097517A (en) * 2016-12-12 2018-06-21 株式会社コロプラ Information processing method, device, and program for causing computer to execute the information processing method
JPWO2018135304A1 (en) * 2017-01-18 2019-11-21 ソニー株式会社 Information processing apparatus, information processing method, and program
JP7124715B2 (en) 2017-01-18 2022-08-24 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP4743721B2 (en) 2011-08-10

Similar Documents

Publication Publication Date Title
JP4863435B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4312737B2 (en) GAME PROGRAM AND GAME DEVICE
US7922588B2 (en) Storage medium having game program stored thereon and game apparatus
US9354839B2 (en) Storage medium storing object movement controlling program and information processing apparatus
US8146018B2 (en) Gesture-based control of multiple game characters and other animated objects
JP4445898B2 (en) GAME PROGRAM AND GAME DEVICE USING INPUT TO POINTING DEVICE
US20060109259A1 (en) Storage medium storing image display program, image display processing apparatus and image display method
JP5048271B2 (en) GAME PROGRAM AND GAME DEVICE
JP2007102503A (en) Image generation device and method, program and recoding medium
JP5210547B2 (en) Movement control program and movement control apparatus
JP4743721B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND METHOD
JP2005245619A (en) Game device and game program
JP2009223904A (en) Image generation device and method, program, and recording medium
JP4695919B2 (en) GAME PROGRAM AND GAME DEVICE
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP4469709B2 (en) Image processing program and image processing apparatus
JP2006122285A (en) Three-dimensional image processor, game device, three-dimensional image processing program and game program
JP5449432B2 (en) GAME PROGRAM AND GAME DEVICE
JP2006102524A (en) Game system, program and information storage medium
JP2006102274A (en) Game system, program and information storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4743721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250