JP5331259B2 - Information processing program, information processing apparatus, information processing system, and information processing method - Google Patents

Information processing program, information processing apparatus, information processing system, and information processing method Download PDF

Info

Publication number
JP5331259B2
JP5331259B2 JP2013004426A JP2013004426A JP5331259B2 JP 5331259 B2 JP5331259 B2 JP 5331259B2 JP 2013004426 A JP2013004426 A JP 2013004426A JP 2013004426 A JP2013004426 A JP 2013004426A JP 5331259 B2 JP5331259 B2 JP 5331259B2
Authority
JP
Japan
Prior art keywords
coordinate
information processing
coordinates
game
designated coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013004426A
Other languages
Japanese (ja)
Other versions
JP2013090941A (en
Inventor
隆一 中田
保仁 藤澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2013004426A priority Critical patent/JP5331259B2/en
Publication of JP2013090941A publication Critical patent/JP2013090941A/en
Application granted granted Critical
Publication of JP5331259B2 publication Critical patent/JP5331259B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game program for properly changing game processing such as the point of view of a game image displayed on a display screen or an operation method, in a game device operated using a pointing device capable of remotely outputting data for coordinate designation to a predetermined detection surface, and to provide a game device and a game system. <P>SOLUTION: A coordinate on the detection surface is acquired using data output from the pointing device, and instructed coordinate-related processing that is game processing using the acquired coordinate is performed. On the other hand, instructed coordinate-unrelated processing that is game processing not using the acquired coordinate is performed. Whether the coordinate within a predetermined area in the detection surface is acquired is detected, and, according to the detection, the instructed coordinate-related processing and the instructed coordinate-unrelated processing are switched and executed. <P>COPYRIGHT: (C)2013,JPO&amp;INPIT

Description

本発明は、情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関し、より特定的には、所定の検出面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いて操作する装置で実行される情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。 The present invention relates to an information processing program, an information processing apparatus, an information processing system, and relates to an information processing method, and more particularly, capable of outputting a pointing device data for designating coordinates remotely with respect to a predetermined detection surface the information processing program executed in the equipment you operate with, the information processing apparatus, an information processing system, and an information processing method.

従来、所定の検出面としての表示画面に対して遠隔から座標指定するポインティングデバイスを用いて操作するゲーム装置がある(例えば、特許文献1参照)。上記特許文献1で開示されたビデオゲームは、銃20により表示画面3A上の位置を指定してターゲットを射撃するゲームを進行するものであり、フットスイッチ70を操作することによって表示画面3Aに表示されるゲーム画像の視点を変更する。   2. Description of the Related Art Conventionally, there is a game apparatus that is operated using a pointing device that remotely designates coordinates on a display screen as a predetermined detection surface (see, for example, Patent Document 1). The video game disclosed in Patent Document 1 is a game in which a gun 20 is used to designate a position on the display screen 3A to shoot a target, and is displayed on the display screen 3A by operating the foot switch 70. Change the viewpoint of the game image to be played.

また、他にも表示画面に表示するゲーム画像の視点を変更するゲーム装置がある(例えば、特許文献2および3参照)。上記特許文献2で開示された電子遊戯機器は、プレイヤの姿勢を検出し、当該姿勢に応じて表示画面に表示するゲーム画像の視点を変更する。上記特許文献3で開示されたビデオゲーム装置は、例えばプレイヤキャラクタの表示位置および挙動に応じて表示画面に表示するゲーム画像の視点を変更する。具体的には、当該ビデオゲーム装置は、プレイヤの操作に応じて、プレイヤキャラクタがゲーム空間内を移動中のときは俯瞰視点(プレイヤキャラクタの上部後方に位置するゲーム空間内の視点)とし、プレイヤキャラクタが停止しているときは主観視点(プレイヤキャラクタの位置とほぼ一致するゲーム空間内の視点)とし、プレイヤキャラクタがゲーム空間内の特定場所に潜入したときも同様に主観視点としている。   In addition, there is a game device that changes the viewpoint of the game image displayed on the display screen (see, for example, Patent Documents 2 and 3). The electronic game machine disclosed in Patent Document 2 detects the posture of the player and changes the viewpoint of the game image displayed on the display screen according to the posture. The video game device disclosed in Patent Document 3 changes the viewpoint of the game image displayed on the display screen according to the display position and behavior of the player character, for example. Specifically, when the player character is moving in the game space, the video game apparatus has an overhead viewpoint (a viewpoint in the game space located at the upper rear of the player character) in response to the player's operation. When the character is stopped, a subjective viewpoint (a viewpoint in the game space that substantially coincides with the position of the player character) is used, and when the player character infiltrates a specific place in the game space, the subjective viewpoint is also used.

一方、ゲーム画像の視点とは異なり、装置に対する操作方法を変更するゲーム装置がある(例えば、特許文献4〜6参照)。上記特許文献4で開示された手持ち型液晶ゲーム機は、実行するゲームが縦長画面用ゲームか横長画面用ゲームかに応じて、装置に対する操作方法を変更するものである。上記特許文献5で開示された情報配信装置は、キー操作とその操作に対する応答をユーザが定義することによって、操作方法を変更するものである。上記特許文献6で開示されたゲーム装置は、プレイヤの操作に応じて生成される操作信号に対応して行われるゲーム制御を、操作部50の姿勢に応じて変更するものである。   On the other hand, unlike the viewpoint of a game image, there is a game device that changes an operation method for the device (see, for example, Patent Documents 4 to 6). The hand-held liquid crystal game machine disclosed in Patent Document 4 changes the operation method for the device depending on whether the game to be executed is a portrait screen game or a landscape screen game. The information distribution apparatus disclosed in Patent Document 5 changes an operation method by a user defining a key operation and a response to the operation. The game device disclosed in Patent Document 6 changes game control performed in response to an operation signal generated in response to a player's operation, according to the attitude of the operation unit 50.

特開平11−90043号公報Japanese Patent Laid-Open No. 11-90043 特開平7−116343号公報Japanese Patent Laid-Open No. 7-116343 特開平11−272841号公報Japanese Patent Laid-Open No. 11-272841 特開平10−235014号公報Japanese Patent Laid-Open No. 10-2335014 特開2001−109714号公報JP 2001-109714 A 特開2003−251070号公報JP 2003-251070 A

しかしながら、上記特許文献1で開示されたビデオゲームは、表示画面に表示するゲーム画像の視点を変更するためにはフットスイッチを操作する必要があるため、操作性が悪い。また、上記特許文献2で開示された電子遊戯機器および上記特許文献3で開示されたビデオゲーム装置は、キーやジョイスティック等をプレイヤが操作することによってゲーム入力を行うものであるため、検出面に対して遠隔から座標指定するポインティングデバイスを用いて操作するゲーム装置にそのまま適用しても好適とならない。   However, the video game disclosed in Patent Document 1 has poor operability because it is necessary to operate the foot switch in order to change the viewpoint of the game image displayed on the display screen. In addition, since the electronic game machine disclosed in Patent Document 2 and the video game device disclosed in Patent Document 3 perform game input by a player operating a key, a joystick, or the like, On the other hand, it is not suitable to be applied as it is to a game apparatus operated using a pointing device for specifying coordinates from a remote location.

また、上記特許文献4で開示された手持ち型液晶ゲーム機は、当該ゲーム機で実行するゲームの種類に応じて操作方法を変更するものであり、同じゲームの実行中に適宜操作方法を変更するものではない。上記特許文献5で開示された情報配信装置は、ユーザがその都度キー操作とその操作に対する応答を定義することが必要であり操作が煩雑となる。また、特許文献6で開示されたゲーム装置は、方向キーやボタン等をプレイヤが操作することによってゲーム入力を行うものであるため、検出面に対して遠隔から座標指定するポインティングデバイスを用いて操作するゲーム装置にそのまま適用しても好適とならない。   The hand-held liquid crystal game machine disclosed in Patent Document 4 changes the operation method in accordance with the type of game executed on the game machine, and changes the operation method as appropriate during execution of the same game. It is not a thing. The information distribution apparatus disclosed in Patent Document 5 requires a user to define a key operation and a response to the operation each time, and the operation becomes complicated. In addition, the game device disclosed in Patent Document 6 performs game input by a player operating a direction key, a button, or the like. Therefore, the game device is operated using a pointing device that remotely designates coordinates on a detection surface. Even if it is applied to the game device as it is, it is not suitable.

それ故に、本発明の目的は、上述の課題のうち少なくとも1つを解決することであり、所定の検出面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いて操作する装置において、表示画面に表示する画像の視点や操作方法等の処理を適宜変更する情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法を提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to solve at least one of the above-mentioned problems, and to operate using a pointing device capable of outputting data for remotely designating coordinates for a predetermined detection surface. in that equipment, the information processing program appropriately changing the processing, such as viewpoint and operating methods of the images that displays on the display screen, the information processing apparatus is to provide an information processing system, and an information processing method.

上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。   In order to achieve the above object, the present invention adopts the following configuration. Note that the reference numerals in parentheses, step numbers, and the like indicate correspondence relationships with embodiments described later in order to help understanding of the present invention, and do not limit the scope of the present invention.

第1の発明は、所定の検出面に対して遠隔から座標指示するためのデータを出力可能なポインティングデバイス(7、74、8)を用いたゲーム装置(3)のコンピュータ(30)で実行されるゲームプログラム(GP)である。ゲームプログラムは、座標取得ステップ(S51)、指示座標関連処理ステップ(S90〜S93)、指示座標非関連処理ステップ(S86、S87、S92、S93)、検出ステップ(S54)、および切替ステップ(S55〜S85、S88、S89)をコンピュータに実行させる。座標取得ステップは、ポインティングデバイスから出力されたデータを用いて検出面上の座標(Db3)を取得する。指示座標関連処理ステップは、座標取得ステップで取得された座標を用いたゲーム処理である指示座標関連処理をおこなう(図16、図17、図20)。指示座標非関連処理ステップは、座標取得ステップで取得された座標を用いないゲーム処理である指示座標非関連処理をおこなう(図14、図15、図19)。検出ステップは、座標取得ステップにより検出面における所定領域(所定範囲)内の座標が取得された(図10〜図12)か否か(図8、図9)を検出する。切替ステップは、検出ステップによる検出に応じて、指示座標関連処理ステップと、指示座標非関連処理ステップとを切り替えて実行する。   The first invention is executed by a computer (30) of a game apparatus (3) using a pointing device (7, 74, 8) capable of outputting data for remotely instructing coordinates on a predetermined detection surface. Game program (GP). The game program includes a coordinate acquisition step (S51), designated coordinate related processing steps (S90 to S93), designated coordinate non-related processing steps (S86, S87, S92, S93), a detection step (S54), and a switching step (S55 to S55). S85, S88, and S89) are executed by the computer. In the coordinate acquisition step, the coordinates (Db3) on the detection surface are acquired using the data output from the pointing device. The designated coordinate related processing step performs designated coordinate related processing, which is game processing using the coordinates acquired in the coordinate acquisition step (FIGS. 16, 17, and 20). The designated coordinate unrelated processing step performs designated coordinate unrelated processing, which is a game process that does not use the coordinates acquired in the coordinate acquisition step (FIGS. 14, 15, and 19). In the detection step, it is detected whether or not the coordinates within the predetermined region (predetermined range) on the detection surface have been acquired (FIGS. 10 to 12) (FIGS. 8 and 9). The switching step is executed by switching between the designated coordinate related processing step and the designated coordinate non-related processing step according to the detection by the detection step.

ポインティングデバイスは、所定の検出面に対して遠隔から(すなわち、検出面から離れた位置から)座標指示するためのデータを出力することが可能なものであり、代表的には、プレイヤが把持するハウジングにより指される検出面上の位置を取得するためのデータを出力するものである。例えば、プレイヤに把持されるハウジングの所定位置(端部など)から所定方向(例えば、ハウジングの姿勢に応じて定まる方向であり、ハウジングの長手方向など)に伸ばした直線が所定の検出面と交わる位置(すなわち、当該検出面上に設定される検出座標系における座標)を取得するためのデータを出力するものが挙げられる。また、ポインティングデバイスからの検出出力データと指示座標との関係が固定的な関係であるようなものであるのが好ましい(すなわち、ポインティングデバイスから出力されるデータに応じて直前に取得された指示座標に対する変化を決定するのではなく、ポインティングデバイスから出力されるデータに応じて一意に、または、一対一に指示座標が取得されるものが好ましい)。また、検出面はゲーム画像が表示される表示画面であってもよいし、検出面が表示画面と異なっていても良いが、後者の場合には、検出面上の座標と表示画面上の座標との対応関係を設定するのが好ましい(言い換えると、前者は表示画面上の座標をそのまま検出するものであり、後者は表示画面と異なる検出面上の座標を検出し、検出面上の座標を表示画面上の座標に変換するものである)。また、検出面と表示画面とが一致する場合、検出可能な最大領域は、表示画面(またはゲーム画像が表示される表示領域)と一致する領域であっても良いし、当該表示画面(または表示領域)よりも大きな領域であっても良いし、小さい領域であってもよい。また、検出面が表示画面と一致する場合、所定領域は表示画面(またはゲーム画像が表示される表示領域)と一致する領域であってもよいし、より大きな領域であってもよいし、小さい領域であってもよい。また、「所定領域」は、検出可能な最大領域より小さな領域であってもよいし、当該最大領域であってもよい。後者の場合、検出ステップは、座標取得ステップにより座標が取得されたか、それとも、取得できなかったかを検出する。   The pointing device is capable of outputting data for instructing coordinates with respect to a predetermined detection surface remotely (that is, from a position away from the detection surface), and is typically held by a player. Data for acquiring the position on the detection surface pointed by the housing is output. For example, a straight line extending from a predetermined position (such as an end portion) of the housing held by the player in a predetermined direction (for example, a direction determined according to the attitude of the housing, such as the longitudinal direction of the housing) intersects a predetermined detection surface. There is one that outputs data for acquiring a position (that is, coordinates in a detection coordinate system set on the detection surface). Further, it is preferable that the relationship between the detection output data from the pointing device and the designated coordinates is a fixed relationship (that is, the designated coordinates obtained immediately before according to the data output from the pointing device). It is preferable that the designated coordinates are acquired uniquely or one-to-one according to the data output from the pointing device, instead of determining the change with respect to. The detection surface may be a display screen on which a game image is displayed, or the detection surface may be different from the display screen. In the latter case, the coordinates on the detection surface and the coordinates on the display screen are used. (In other words, the former detects coordinates on the display screen as they are, the latter detects coordinates on a detection surface different from the display screen, and coordinates on the detection surface. To convert to coordinates on the display screen). When the detection surface and the display screen match, the maximum detectable region may be a region that matches the display screen (or the display region where the game image is displayed), or the display screen (or display). The area may be larger than (area) or may be smaller. When the detection surface matches the display screen, the predetermined area may be an area that matches the display screen (or a display area where the game image is displayed), a larger area, or a small area. It may be a region. Further, the “predetermined area” may be an area smaller than the maximum detectable area or the maximum area. In the latter case, the detection step detects whether the coordinates have been acquired by the coordinate acquisition step or whether they have not been acquired.

また、ポインティングデバイスは、ハードウェアにより指示座標を算出してもよいし、ハードウェアにより検出した検出値をソフトウェア処理することにより指示座標を算出してもよい。また、後者の場合、当該ソフトウェア処理を、ポインティングデバイス内蔵のソフトウェアにより処理してもよいし、ゲームアプリケーション内のソフトウェア処理によりおこなってもよい。   Further, the pointing device may calculate the indicated coordinates by hardware, or may calculate the indicated coordinates by performing software processing on the detection value detected by the hardware. In the latter case, the software processing may be performed by software built in the pointing device, or may be performed by software processing in the game application.

また、指示座標関連処理ステップは、座標取得ステップにより所定領域内の座標が取得されたときに限り、当該取得された座標を用いてゲーム処理をおこなってもよい。この場合、検出ステップが判断に用いる所定領域(第1領域)と、指示座標関連処理ステップがゲーム処理に用いる所定領域(第2領域)は同じであっても良いし、異なっていても良いが、異なる場合には、第1領域は第2領域を含みさらに当該第2領域の周辺領域を含む領域であることが好ましい。例えば、第1領域を検出可能な最大領域とし(この場合、検出ステップは、座標が取得されたかそれとも取得できなかったかを判断する)、第2領域をゲーム画像が表示される表示領域としてもよい。なお、所定の検出面は、現実に存在しない面であって現実の空間中に仮想的に設定される面であってもかまわないし、表示画面など現実に存在する面であってもかまわない。   Further, the designated coordinate-related processing step may perform the game process using the acquired coordinates only when the coordinates in the predetermined area are acquired by the coordinate acquisition step. In this case, the predetermined area (first area) used in the determination by the detection step and the predetermined area (second area) used in the game process by the designated coordinate related processing step may be the same or different. If different, the first region is preferably a region including the second region and further including a peripheral region of the second region. For example, the first area may be set as the maximum detectable area (in this case, the detection step determines whether coordinates are acquired or not acquired), and the second area may be set as a display area where a game image is displayed. . The predetermined detection surface may be a surface that does not actually exist and that is virtually set in the real space, or may be a surface that actually exists such as a display screen.

第2の発明は、上記第1の発明において、検出ステップでは、座標取得ステップにより検出面における座標が取得できたか否か(S52)が検出される。   In a second aspect based on the first aspect, in the detection step, it is detected whether or not the coordinates on the detection surface have been acquired by the coordinate acquisition step (S52).

第3の発明は、上記第1の発明において、表示制御ステップ(S93)を、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間(S)に配置された仮想カメラ(C)から見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップは、第1仮想カメラ制御ステップ(S86)を含む。第1仮想カメラ制御ステップは、ゲームパラメータ(Ph)に基づいて第1の演算をすることによって仮想カメラのパラメータを決定する(図15)。指示座標関連処理ステップは、第2仮想カメラ制御ステップ(S90)を含む。第2仮想カメラ制御ステップは、ゲームパラメータに基づいて第1の演算とは異なった第2の演算をすることによって仮想カメラのパラメータを決定する(図17)。   In a third aspect based on the first aspect, the computer is further caused to execute the display control step (S93). The display control step displays a game image viewed from the virtual camera (C) arranged in the virtual three-dimensional game space (S) on the display screen. The designated coordinate unrelated processing step includes a first virtual camera control step (S86). In the first virtual camera control step, the virtual camera parameters are determined by performing a first calculation based on the game parameter (Ph) (FIG. 15). The designated coordinate related processing step includes a second virtual camera control step (S90). The second virtual camera control step determines the parameters of the virtual camera by performing a second calculation different from the first calculation based on the game parameters (FIG. 17).

第4の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップは、第1仮想カメラ制御ステップを含む。第1仮想カメラ制御ステップは、仮想3次元ゲーム空間に存在するプレイヤキャラクタを客観的に眺めたゲーム画像が生成されるように、仮想カメラのパラメータを決定する。指示座標関連処理ステップは、第2仮想カメラ制御ステップを含む。第2仮想カメラ制御ステップは、プレイヤキャラクタが主観的に仮想3次元ゲーム空間を眺めたゲーム画像が生成されるように、仮想カメラのパラメータを決定する。なお、典型的には、第1仮想カメラ制御ステップでは、プレイヤキャラクタおよびその全周方向の仮想ゲーム空間が撮影されるようにされ、第2仮想カメラ制御ステップでは、プレイヤキャラクタの位置から所定方向(多くても180°以下の範囲の方向)の仮想ゲーム空間が撮影されるように設定される。   In a fourth aspect based on the first aspect, the display control step is further executed by a computer. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. The designated coordinate unrelated processing step includes a first virtual camera control step. In the first virtual camera control step, parameters of the virtual camera are determined so that a game image in which the player character existing in the virtual three-dimensional game space is objectively viewed is generated. The designated coordinate related processing step includes a second virtual camera control step. In the second virtual camera control step, the parameters of the virtual camera are determined so that a game image in which the player character subjectively views the virtual three-dimensional game space is generated. Typically, in the first virtual camera control step, the player character and the virtual game space in the entire circumferential direction are photographed. In the second virtual camera control step, a predetermined direction (from the position of the player character) It is set so that a virtual game space in a direction of a range of 180 ° or less at most is photographed.

第5の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップは、第1仮想カメラ制御ステップを含む。第1仮想カメラ制御ステップは、仮想カメラの注視点がそのプレイヤキャラクタの位置(Ph)とほぼ一致するように仮想カメラのパラメータを決定する。指示座標関連処理ステップは、第2仮想カメラ制御ステップを含む。第2仮想カメラ制御ステップは、仮想カメラの視点がそのプレイヤキャラクタの位置とほぼ一致するように仮想カメラのパラメータを決定する。なお、指示座標非関連処理ステップにおいて、仮想カメラの注視点とプレイヤキャラクタの位置との距離が、仮想カメラの視点とプレイヤキャラクタの位置との距離よりも3次元仮想ゲーム空間において小さくなるように、仮想カメラのパラメータを決定し、指示座標関連処理ステップにおいて、仮想カメラの視点とプレイヤキャラクタの位置との距離が、仮想カメラの注視点とプレイヤキャラクタの位置との距離よりも小さくなるように、仮想カメラのパラメータを決定するのが好ましい。   In a fifth aspect based on the first aspect, the computer further executes a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. The designated coordinate unrelated processing step includes a first virtual camera control step. The first virtual camera control step determines the parameters of the virtual camera so that the gazing point of the virtual camera substantially coincides with the position (Ph) of the player character. The designated coordinate related processing step includes a second virtual camera control step. In the second virtual camera control step, the parameters of the virtual camera are determined so that the viewpoint of the virtual camera substantially coincides with the position of the player character. In the designated coordinate unrelated processing step, the distance between the virtual camera's point of sight and the position of the player character is smaller in the three-dimensional virtual game space than the distance between the viewpoint of the virtual camera and the position of the player character. The virtual camera parameters are determined, and in the designated coordinate related processing step, the virtual camera is so arranged that the distance between the virtual camera viewpoint and the player character position is smaller than the distance between the virtual camera gaze point and the player character position. Preferably, the camera parameters are determined.

第6の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップでは、仮想カメラの視点からプレイヤキャラクタの位置までの距離が、指示座標関連処理ステップで決定されるその距離より長くなるように仮想カメラのパラメータが決定される。   In a sixth aspect based on the first aspect, the computer further executes a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. In the designated coordinate non-related processing step, the parameters of the virtual camera are determined so that the distance from the viewpoint of the virtual camera to the position of the player character is longer than the distance determined in the designated coordinate related processing step.

第7の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップでは、プレイヤキャラクタの進行方向または向き(Pd)に対して横方向から仮想3次元ゲーム空間を眺めたゲーム画像が生成されるように仮想カメラのパラメータが決定される。指示座標関連処理ステップでは、プレイヤキャラクタの進行方向または向きに向かって仮想3次元ゲーム空間を眺めたゲーム画像が生成されるように仮想カメラのパラメータが決定される。なお、指示座標非関連処理ステップでは、仮想カメラの向きを仮想水平面上に投影した方向が、キャラクタの進行方向またはキャラクタの向き(顔または体が向いている方向)を当該仮想水平面上に投影した方向に略直交するようにし、指示座標関連処理ステップでは、これらの投影2方向が略一致するようにする。   In a seventh aspect based on the first aspect, the computer further executes a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. In the designated coordinate unrelated processing step, the parameters of the virtual camera are determined so that a game image in which the virtual three-dimensional game space is viewed from the lateral direction with respect to the traveling direction or direction (Pd) of the player character is generated. In the designated coordinate related processing step, the parameters of the virtual camera are determined so that a game image in which the virtual three-dimensional game space is viewed in the moving direction or direction of the player character is generated. In the designated coordinate non-related processing step, the direction in which the direction of the virtual camera is projected on the virtual horizontal plane is the direction in which the character is traveling or the direction of the character (the direction in which the face or body is facing) is projected on the virtual horizontal plane. The directions are substantially orthogonal to each other, and in the designated coordinate-related processing step, these two projection directions are substantially matched.

第8の発明は、上記第1〜第7の発明の何れかにおいて、ポインティングデバイスは、方向指示部(72)を備える。方向指示部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作によって方向指示可能である。指示座標非関連処理ステップでは、方向指示部からの操作データに応じてプレイヤキャラクタが仮想3次元ゲーム空間において移動制御される。   In an eighth aspect based on any one of the first to seventh aspects, the pointing device includes a direction indicating section (72). The direction instructing unit can instruct a direction by a player's operation, separately from a pointing operation for specifying coordinates from a remote location. In the designated coordinate non-related processing step, the player character is controlled to move in the virtual three-dimensional game space in accordance with the operation data from the direction designating unit.

第9の発明は、上記第1の発明において、ポインティングデバイスは、入力部(72、701)を備える。入力部は、遠隔から座標指定するポインティング操作(74)とは別に、プレイヤによる操作を検出可能である。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部が発生した操作データに基づいて所定のゲーム処理が実行される(図19)。指示座標関連処理ステップでは、指示座標関連処理に加えて、入力部が発生した同じ操作データに基づいて所定のゲーム処理とは異なるゲーム処理が実行される(図20)。ポインティングデバイスは、プレイヤによって把持されるハウジングを含み、入力部はそのハウジングに設けられることが好ましい。「入力部」は、押下操作を検出する、例えば操作スイッチや十字キー、傾倒操作を検出する例えばジョイスティック、タッチ操作を検出する例えばタッチパネル、プレイヤがハウジングを動かす操作に応じて当該ハウジングに生じる加速度を検出する例えば加速度センサなどであり、ハウジングの表面に設けられても良いし、内部に設けられても良い。また、「入力部」は、プレイヤ操作を単独で検出可能なデバイスを用いた操作部(すなわち、ハウジング外に設けられる他のデバイスを用いずに、ハウジング表面または内部に設けられるそれのみでプレイヤ操作を検出可能なデバイスを用いた操作部)であるのが好ましい。   In a ninth aspect based on the first aspect, the pointing device includes an input unit (72, 701). The input unit can detect an operation by the player separately from the pointing operation (74) for designating coordinates from a remote location. In the designated coordinate non-related process step, as the designated coordinate non-related process, a predetermined game process is executed based on the operation data generated by the input unit (FIG. 19). In the designated coordinate related process step, in addition to the designated coordinate related process, a game process different from the predetermined game process is executed based on the same operation data generated by the input unit (FIG. 20). The pointing device preferably includes a housing held by the player, and the input unit is preferably provided in the housing. The “input unit” detects a pressing operation, for example, an operation switch or a cross key, a joystick for detecting a tilting operation, for example, a touch panel for detecting a touch operation, an acceleration generated in the housing in accordance with an operation for moving the housing by the player. For example, it is an acceleration sensor to detect, and may be provided on the surface of the housing or may be provided inside. In addition, the “input unit” is an operation unit using a device that can detect the player operation independently (that is, the player operation is performed only on the surface of the housing or inside the housing without using other devices provided outside the housing). It is preferable that the operation unit is a device using a device capable of detecting.

第10の発明は、上記第1の発明において、ポインティングデバイスは、プレイヤによって把持されるハウジング(71)を含む。ハウジングの表面の異なる位置には、プレイヤによる操作を検出可能な第1入力部および第2入力部(72)が設けられる。指示座標非関連処理ステップでは、指示座標非関連処理として、第1入力部が発生した操作データに基づいて所定のゲーム処理が実行される。指示座標関連処理ステップでは、指示座標関連処理に加えて、第2入力部が発生した操作データに基づいて所定のゲーム処理と同じゲーム処理が実行される。   In a tenth aspect based on the first aspect, the pointing device includes a housing (71) held by the player. A first input portion and a second input portion (72) capable of detecting an operation by the player are provided at different positions on the surface of the housing. In the designated coordinate non-related process step, as the designated coordinate non-related process, a predetermined game process is executed based on the operation data generated by the first input unit. In the designated coordinate related process step, in addition to the designated coordinate related process, the same game process as the predetermined game process is executed based on the operation data generated by the second input unit.

第11の発明は、上記第8の発明において、指示座標関連処理ステップでは、さらに第1入力部が発生した操作データに基づいて所定のゲーム処理とは異なるゲーム処理が実行される。   In an eleventh aspect based on the eighth aspect, in the designated coordinate related processing step, a game process different from the predetermined game process is executed based on operation data generated by the first input unit.

第12の発明は、上記第1の発明において、ポインティングデバイスは、入力部を備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤによる操作を検出可能である。指示座標関連処理ステップでは、指示座標関連処理として、座標取得ステップで取得された座標に基づいて所定のゲームパラメータが決定される。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部が発生した操作データに基づいてゲームパラメータが決定される。   In a twelfth aspect based on the first aspect, the pointing device includes an input unit. The input unit can detect an operation by the player separately from a pointing operation for specifying coordinates from a remote location. In the designated coordinate related processing step, as the designated coordinate related processing, a predetermined game parameter is determined based on the coordinates acquired in the coordinate acquisition step. In the designated coordinate non-related processing step, as designated coordinate non-related processing, a game parameter is determined based on operation data generated by the input unit.

第13の発明は、上記第12の発明において、ゲームパラメータは、仮想3次元ゲーム空間における方向を示す方向パラメータである。入力部は、方向指示可能な入力部である。指示座標関連処理ステップでは、指示座標関連処理として、座標取得ステップで取得された座標に基づいて方向パラメータが決定される。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部により指示された方向に基づいて方向パラメータが決定される。なお、指示座標非関連処理では、例えば、加速度センサ、傾きセンサ、方向センサの出力に対応して方向パラメータを決定したり(すなわち、加速度センサにより検出された現実世界における加速度や、傾きセンサ、方向センサにより検出された現実世界における角速度や方向に応じて仮想世界の方向パラメータを決定する)、ジョイスティックの傾きに対応して方向パラメータを決定したり、方向パラメータの変化を決定したりする。また、指示座標関連処理では、例えば、仮想3次元ゲーム空間におけるプレイヤキャラクタの位置と、ポインティングデバイスから出力されたデータに応じて取得された座標に対応する画面座標と重なる仮想3次元ゲーム空間における位置とに基づいて(例えば、両者を結ぶ方向に)、仮想ゲーム空間における方向パラメータを決定する。   In a thirteenth aspect based on the twelfth aspect, the game parameter is a direction parameter indicating a direction in the virtual three-dimensional game space. The input unit is an input unit capable of direction indication. In the designated coordinate related processing step, the direction parameter is determined based on the coordinates acquired in the coordinate acquisition step as the designated coordinate related processing. In the designated coordinate unrelated processing step, the direction parameter is determined based on the direction designated by the input unit as the designated coordinate unrelated process. Note that in the instruction coordinate unrelated processing, for example, a direction parameter is determined corresponding to the output of the acceleration sensor, the tilt sensor, and the direction sensor (that is, the acceleration in the real world detected by the acceleration sensor, the tilt sensor, the direction, etc.). The direction parameter of the virtual world is determined according to the angular velocity and direction in the real world detected by the sensor), the direction parameter is determined according to the inclination of the joystick, and the change of the direction parameter is determined. In the designated coordinate related processing, for example, the position in the virtual three-dimensional game space that overlaps the position of the player character in the virtual three-dimensional game space and the screen coordinates corresponding to the coordinates acquired according to the data output from the pointing device. Based on (for example, in the direction connecting the two), the direction parameter in the virtual game space is determined.

第14の発明は、上記第1の発明において、検出面は、ゲーム画像が表示される表示画面(2)に対応して設定される。ポインティングデバイスは、表示画面に対して遠隔から座標指示するためのデータを出力可能なものである。ゲームプログラムは、表示制御ステップおよびゲーム空間座標算出ステップ(S92)を、さらにコンピュータに実行させる。表示制御ステップは、ゲーム空間を表現したゲーム画像を表示画面に表示する。ゲーム空間座標算出ステップは、座標取得ステップで取得された座標がゲーム画像上で重なるゲーム空間の対応座標(Dc1)を算出する。指示座標関連処理ステップでは、指示座標関連処理として、ゲーム空間座標算出ステップで算出された仮想3次元ゲーム空間の位置に応じた処理が行われる。   In a fourteenth aspect based on the first aspect, the detection surface is set corresponding to the display screen (2) on which the game image is displayed. The pointing device can output data for instructing coordinates on the display screen from a remote location. The game program causes the computer to further execute a display control step and a game space coordinate calculation step (S92). The display control step displays a game image representing the game space on the display screen. The game space coordinate calculation step calculates a corresponding coordinate (Dc1) of the game space in which the coordinates acquired in the coordinate acquisition step overlap on the game image. In the designated coordinate related processing step, as the designated coordinate related processing, processing according to the position of the virtual three-dimensional game space calculated in the game space coordinate calculating step is performed.

第15の発明は、上記第1の発明において、ポインティングデバイスは、入力部を、さらに備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作に応じた操作データを発生する。指示座標関連処理ステップでは、指示座標関連処理に加えて、入力部からの操作データに基づいて、指示座標関連処理におけるゲーム処理とは異なるゲーム処理がおこなわれる。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときであっても、入力部から所定の操作データが出力されているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続される。   In a fifteenth aspect based on the first aspect, the pointing device further includes an input unit. The input unit generates operation data corresponding to the operation of the player, separately from the pointing operation for specifying coordinates from a remote location. In the designated coordinate related process step, in addition to the designated coordinate related process, a game process different from the game process in the designated coordinate related process is performed based on the operation data from the input unit. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, even when the transition is detected by the detection step, when the predetermined operation data is output from the input unit, the instruction coordinate related processing step is not switched to the instruction coordinate unrelated processing step and executed. The execution of the designated coordinate related processing step is continued.

第16の発明は、上記第1の発明において、ポインティングデバイスは、入力部を、さらに備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作に応じた操作データを発生する。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部からの操作データに基づいてゲーム処理がおこなわれる。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出されない状態からその検出がされる状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときであっても、入力部から所定の操作データが出力されているときには、指示座標非関連処理ステップから指示座標関連処理ステップに切り替えて実行されず、指示座標非関連処理ステップの実行が継続される。   In a sixteenth aspect based on the first aspect, the pointing device further includes an input unit. The input unit generates operation data corresponding to the operation of the player, separately from the pointing operation for specifying coordinates from a remote location. In the designated coordinate non-related processing step, game processing is performed based on operation data from the input unit as designated coordinate non-related processing. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is not detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is performed. In the switching step, even when the transition is detected by the detection step, when the predetermined operation data is output from the input unit, the instruction coordinate non-related processing step is not switched to the designated coordinate related processing step. The execution of the designated coordinate unrelated processing step is continued.

第17の発明は、上記第1の発明において、ポインティングデバイスは、入力部を、さらに備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作に応じた操作データを発生する。ゲームプログラムは、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときに、入力部から所定の操作データが出力されているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続され、かつ、座標取得ステップにより取得される座標に応じて仮想カメラの視線方向が変更される。なお、座標取得ステップによって座標が取得されない場合には、最後に取得された座標に基づいて仮想カメラの視線方向を変更してもよい。また、座標取得ステップによって最後に取得された所定領域内の座標に基づいて仮想カメラの視線方向を変更してもよい。また、仮想カメラの視点の位置をそのままにして視線方向を変更してもよい。   In a seventeenth aspect based on the first aspect, the pointing device further includes an input unit. The input unit generates operation data corresponding to the operation of the player, separately from the pointing operation for specifying coordinates from a remote location. The game program further causes the computer to execute a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, when the transition is detected by the detection step and the predetermined operation data is output from the input unit, the switching is not performed by switching from the designated coordinate related processing step to the designated coordinate non-related processing step. The execution of the related processing step is continued, and the line-of-sight direction of the virtual camera is changed according to the coordinates acquired by the coordinate acquisition step. In addition, when a coordinate is not acquired by a coordinate acquisition step, you may change the visual line direction of a virtual camera based on the coordinate acquired last. Further, the line-of-sight direction of the virtual camera may be changed based on the coordinates in the predetermined area last acquired by the coordinate acquisition step. Further, the line-of-sight direction may be changed with the position of the viewpoint of the virtual camera as it is.

第18の発明は、上記第1の発明において、ゲームプログラムは、プレイヤキャラクタ動作制御ステップ(S92)を、さらにコンピュータに実行させる。プレイヤキャラクタ動作制御ステップは、プレイヤの操作に応じて、仮想ゲーム世界に存在するプレイヤキャラクタを動作させる。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときに、プレイヤキャラクタが特定の動作をしているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続される。   In an eighteenth aspect based on the first aspect, the game program causes the computer to further execute a player character action control step (S92). In the player character movement control step, the player character existing in the virtual game world is moved according to the operation of the player. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, when a transition is detected in the detection step, and the player character is performing a specific motion, the instruction coordinate related processing step is not executed by switching from the specified coordinate related processing step to the specified coordinate non-related processing step. Step execution continues.

第19の発明は、上記第1の発明において、ポインティングデバイスは、プレイヤによって把持されるハウジングを含む。ハウジングは、動きセンサが設けられる。ゲームプログラムは、データ取得ステップ(S51)および動き処理ステップを、さらにコンピュータに実行させる。データ取得ステップは、動きセンサが検出して出力されたデータ(Da4)を取得する。動き処理ステップは、動きデータ取得ステップによって取得されたデータに基づいて所定のゲーム処理をおこなう。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときであっても、動きセンサが所定の閾値以上の出力を示しているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続される。なお、動きセンサは、自身または自身が収納されるハウジングの動きが取得可能なデータを検出可能なものであり、例えば、ハウジングに生じる所定の直線方向の加速度を検出する加速度センサである。   In a nineteenth aspect based on the first aspect, the pointing device includes a housing held by the player. The housing is provided with a motion sensor. The game program further causes the computer to execute a data acquisition step (S51) and a motion processing step. In the data acquisition step, data (Da4) detected and output by the motion sensor is acquired. The motion processing step performs a predetermined game process based on the data acquired by the motion data acquisition step. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, even when a transition is detected in the detection step, when the motion sensor indicates an output equal to or greater than a predetermined threshold, the instruction coordinate related processing step is switched to the instruction coordinate non-related processing step. Instead, the execution of the designated coordinate related processing step is continued. Note that the motion sensor is capable of detecting data that can acquire the motion of itself or a housing in which the motion sensor is housed. For example, the motion sensor is an acceleration sensor that detects acceleration in a predetermined linear direction generated in the housing.

第20の発明は、所定の検出面に対して遠隔から座標指示するためのデータを出力することが可能なポインティングデバイスを用いたゲーム装置である。ゲーム装置は、座標取得手段、指示座標関連処理手段、指示座標非関連処理手段、検出手段、および切替手段を備える。座標取得手段は、ポインティングデバイスから出力されたデータを用いて検出面上の座標を取得する。指示座標関連処理手段は、座標取得手段で取得された座標を用いたゲーム処理である指示座標関連処理をおこなう。指示座標非関連処理手段は、座標取得手段で取得された座標を用いないゲーム処理である指示座標非関連処理をおこなう。検出手段は、座標取得手段により検出面における所定領域内の座標が取得されたか否かを検出する。切替手段は、検出手段による検出に応じて、指示座標関連処理手段と、指示座標非関連処理手段とを切り替えて実行する。   A twentieth invention is a game apparatus using a pointing device capable of outputting data for instructing coordinates to a predetermined detection surface from a remote location. The game apparatus includes coordinate acquisition means, designated coordinate related processing means, designated coordinate non-related processing means, detection means, and switching means. The coordinate acquisition unit acquires the coordinates on the detection surface using the data output from the pointing device. The designated coordinate related processing means performs designated coordinate related processing, which is game processing using the coordinates acquired by the coordinate acquisition means. The designated coordinate non-related processing means performs designated coordinate non-related processing which is a game process that does not use the coordinates acquired by the coordinate acquiring means. The detecting means detects whether or not coordinates within a predetermined area on the detection surface have been acquired by the coordinate acquiring means. The switching means switches between the designated coordinate related processing means and the designated coordinate non-related processing means in accordance with detection by the detecting means.

第21の発明は、所定の検出面に対して遠隔から座標指示するためのデータを出力することが可能なポインティングデバイスを用いたゲーム装置を含むゲームシステムである。ポインティングデバイスは、プレイヤによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部からその長軸方向に伸ばした直線が検出面と交わる位置を指示座標として取得するためのデータを出力するものである。ハウジングには、長軸方向に沿った両側部にそれぞれ操作キーが設けられる。ゲーム装置は、座標取得手段、指示座標関連処理手段、指示座標非関連処理手段、検出手段、および切替手段を備える。座標取得手段は、ポインティングデバイスから出力されたデータに基づいて、検出面上の座標を取得する。指示座標関連処理手段は、座標取得手段で取得された座標を用いたゲーム処理である指示座標関連処理をおこなう。指示座標非関連処理手段は、座標取得手段で取得された座標を用いず、両側部の操作キーから出力された操作データを用いたゲーム処理である指示座標非関連処理をおこなう。検出手段は、座標取得手段により検出面における所定領域内の座標が取得されたか否かを検出する。切替手段は、検出手段による検出に応じて、指示座標関連処理手段と、指示座標非関連処理手段とを切り替えて実行する。   A twenty-first invention is a game system including a game apparatus using a pointing device capable of outputting data for remotely instructing coordinates on a predetermined detection surface. The pointing device includes a vertically long housing that is gripped by the player, and data for acquiring a position where a straight line extending in the major axis direction from the end in the major axis direction intersects with the detection surface as instruction coordinates. Output. The housing is provided with operation keys on both sides along the long axis direction. The game apparatus includes coordinate acquisition means, designated coordinate related processing means, designated coordinate non-related processing means, detection means, and switching means. The coordinate acquisition unit acquires the coordinates on the detection surface based on the data output from the pointing device. The designated coordinate related processing means performs designated coordinate related processing, which is game processing using the coordinates acquired by the coordinate acquisition means. The designated coordinate non-related processing means performs designated coordinate non-related processing which is a game process using operation data output from the operation keys on both sides without using the coordinates acquired by the coordinate acquisition means. The detecting means detects whether or not coordinates within a predetermined area on the detection surface have been acquired by the coordinate acquiring means. The switching means switches between the designated coordinate related processing means and the designated coordinate non-related processing means in accordance with detection by the detecting means.

上記第1の発明によれば、ポインティングデバイスを用いてプレイヤが座標指定することによりゲーム処理をおこなうゲームにおいて、ポインティングデバイスの出力に応じてゲーム処理内容が異なったそれぞれのモードに自動的に変更される。したがって、プレイヤにバリエーションに富んだ操作性のよい操作環境を提供できる。   According to the first aspect of the present invention, in a game in which game processing is performed by a player specifying coordinates using a pointing device, the game processing content is automatically changed according to the output of the pointing device. The Therefore, it is possible to provide the player with an operation environment rich in variations and good operability.

上記第2の発明によれば、ポインティングデバイスの出力に応じて検出面における座標が取得できた場合と、検出面における座標が取得できなかった場合とによって、ゲーム処理内容が異なったそれぞれのモードに自動的に変更される。   According to the second aspect, the game processing contents differ depending on whether the coordinates on the detection surface can be acquired according to the output of the pointing device or the coordinates on the detection surface cannot be acquired. Automatically changed.

上記第3の発明によれば、ポインティングデバイスの出力に応じて、視点が異なったそれぞれのゲーム画像に自動的に変更される。したがって、プレイヤにバリエーションに富んだゲーム画像を操作性のよい操作環境で変更することができる。   According to the third aspect, the game image is automatically changed to each game image having a different viewpoint according to the output of the pointing device. Therefore, it is possible to change game images rich in variations in the player in an operation environment with good operability.

上記第4〜第7の発明によれば、ポインティングデバイスの出力に応じて、ゲーム空間における仮想カメラのパラメータが変更されるため、例えば、プレイヤは主観的画像と客観的画像とを容易に切り替えることができる。また、プレイヤキャラクタの周辺の状況を眺めることができるゲーム画像と、プレイヤキャラクタから見た視界を眺めることができるゲーム画像とがポインティングデバイスの出力に応じて切り替わるため、プレイヤがゲーム状況に応じたゲーム画像の切り替えを操作性よく行うことができる。   According to the fourth to seventh inventions, since the parameters of the virtual camera in the game space are changed according to the output of the pointing device, for example, the player can easily switch between the subjective image and the objective image. Can do. In addition, since the game image that allows the player character to see the situation around the player character and the game image that allows the user character to see the field of view viewed from the player character are switched according to the output of the pointing device, the game according to the game situation Images can be switched with good operability.

上記第8の発明によれば、ポインティングデバイスからの出力から取得される検出座標が取得できないとき、方向指示部を用いてプレイヤキャラクタを移動させることができる。   According to the eighth aspect, when the detected coordinates acquired from the output from the pointing device cannot be acquired, the player character can be moved using the direction instruction unit.

上記第9の発明によれば、同じ操作部に対して同じ操作をしてもポインティングデバイスの出力に応じて異なるゲーム処理となるため、プレイヤにバリエーションに富んだ操作環境で変更することができる。また、例えば、プレイヤがポインティングデバイスを把持する方向に応じて操作部に対するゲーム処理を適切に割り当てることができる。   According to the ninth aspect, even if the same operation is performed on the same operation unit, different game processes are performed according to the output of the pointing device. Further, for example, the game process for the operation unit can be appropriately assigned according to the direction in which the player holds the pointing device.

上記第10および第11の発明によれば、ポインティングデバイスの出力に応じて、同じゲーム処理を異なる操作部を用いておこなうこととなるため、プレイヤにバリエーションに富んだ操作環境で変更することができる。また、例えば、プレイヤがポインティングデバイスを把持する方向に応じて所定のゲーム処理を指示する操作部をプレイヤが操作しやすい操作部に適切に割り当てることができる。   According to the tenth and eleventh aspects of the invention, the same game process is performed using different operation units in accordance with the output of the pointing device, so that the player can change in an operation environment rich in variations. . In addition, for example, an operation unit that instructs a predetermined game process according to a direction in which the player holds the pointing device can be appropriately assigned to an operation unit that is easy for the player to operate.

上記第12の発明によれば、ポインティングデバイスからの出力から取得される検出座標が取得できないときでも他の入力部を用いて同様のゲーム処理を行うことができる。   According to the twelfth aspect, even when the detection coordinates acquired from the output from the pointing device cannot be acquired, the same game process can be performed using the other input unit.

上記第13の発明によれば、ポインティングデバイスからの出力から取得される検出座標に応じて方向パラメータを算出する際、当該検出座標が取得できないときでも他の入力部を用いて同様の方向パラメータを算出することができる。   According to the thirteenth aspect, when calculating the direction parameter according to the detected coordinate acquired from the output from the pointing device, even when the detected coordinate cannot be acquired, the same direction parameter is calculated using another input unit. Can be calculated.

上記第14の発明によれば、ポインティングデバイスからの出力から取得される検出座標に応じて直接ゲーム空間内の位置を指示するようなゲーム操作が可能となる。   According to the fourteenth aspect, it is possible to perform a game operation that directly indicates a position in the game space in accordance with the detected coordinates acquired from the output from the pointing device.

上記第15および第16の発明によれば、プレイヤが操作部を操作中のときはゲーム処理が切り替わらないため、プレイヤの操作が混乱することを防止することができる。   According to the fifteenth and sixteenth aspects, since the game process is not switched when the player is operating the operation unit, the player's operation can be prevented from being confused.

上記第17の発明によれば、所定の操作部を操作しながら表示画面外等を座標指定することによって、視線方向の変更処理を両立させることができる。   According to the seventeenth aspect of the invention, it is possible to achieve both line-of-sight change processing by specifying coordinates outside the display screen while operating a predetermined operation unit.

上記第18の発明によれば、プレイヤキャラクタが特定の動作中のときはゲーム処理が切り替わらないため、プレイヤに混乱を与えることを防止することができる。   According to the eighteenth aspect, since the game process is not switched when the player character is in a specific motion, it is possible to prevent the player from being confused.

上記第19の発明によれば、プレイヤがポインティングデバイス全体を移動させることによって加速度などを生じさせているとき(例えば、ポインティングデバイスを振り上げる等)、ポインティングデバイスの座標指定位置が所定領域から逸脱することもある。この逸脱に応じて、ゲーム処理を移行してしまうとプレイヤの操作に混乱が生じる。したがって、加速度データが所定の閾値以上の出力(加速度など)を示しているときは移行を禁止することによって、このようなゲーム処理の変更を防止することができる。   According to the nineteenth aspect, when the player causes acceleration or the like by moving the entire pointing device (for example, swinging up the pointing device), the coordinate designation position of the pointing device deviates from the predetermined area. Sometimes. If the game process is shifted in accordance with this deviation, the player's operation is confused. Therefore, when the acceleration data indicates an output (acceleration or the like) equal to or higher than a predetermined threshold, such a change in the game process can be prevented by prohibiting the transition.

また、本発明のゲーム装置やゲームシステムによれば、上述したゲームプログラムと同様の効果を得ることができる。   Further, according to the game device or the game system of the present invention, it is possible to obtain the same effect as the above-described game program.

さらに、ポインティングデバイスを縦持ちして操作性よく座標指定によるゲーム操作を可能にし、ポインティングデバイスを横持ちして操作性よく両側の操作キーによるゲーム操作を可能にし、縦持ちと横持ちとを切り替える際の自然な動きに自動的に連動して適切なゲーム処理に切り替えることができる。   In addition, the pointing device can be held vertically to enable game operations by specifying coordinates, and the pointing device can be held sideways to enable game operations using the operation keys on both sides, switching between vertical holding and horizontal holding. It is possible to switch to an appropriate game process automatically in conjunction with the natural movement at the time.

本発明の一実施形態に係るゲームシステム1を説明するための外観図1 is an external view for explaining a game system 1 according to an embodiment of the present invention. 図1のゲーム装置3の機能ブロック図Functional block diagram of the game apparatus 3 of FIG. 図1のコントローラ7の上面後方から見た斜視図The perspective view seen from the upper surface back of the controller 7 of FIG. 図3のコントローラ7を下面前方から見た斜視図The perspective view which looked at the controller 7 of FIG. 3 from the lower surface front 図3のコントローラ7の上筐体を外した状態を示す斜視図The perspective view which shows the state which removed the upper housing | casing of the controller 7 of FIG. 図3のコントローラ7の下筐体を外した状態を示す斜視図The perspective view which shows the state which removed the lower housing | casing of the controller 7 of FIG. 図3のコントローラ7の構成を示すブロック図The block diagram which shows the structure of the controller 7 of FIG. 図3のコントローラ7を用いて第1操作モードでゲーム操作するときの状態を概説する図解図An illustrative view outlining the state when a game is operated in the first operation mode using the controller 7 of FIG. 第1操作モードにおいてプレイヤがコントローラ7を横持ちにして両手で把持した状態をコントローラ7の側面側から見た一例An example of a state in which the player holds the controller 7 sideways and is gripped with both hands in the first operation mode, as viewed from the side of the controller 7 図3のコントローラ7を用いて第2操作モードでゲーム操作するときの状態を概説する図解図An illustrative view outlining the state when the game is operated in the second operation mode using the controller 7 of FIG. 第2操作モードにおいて、プレイヤがコントローラ7を右手で把持した状態をコントローラ7の前面側から見た一例An example in which the player holds the controller 7 with his right hand in the second operation mode as seen from the front side of the controller 7 第2操作モードにおいて、プレイヤがコントローラ7を右手で把持した状態をコントローラ7の左側面側から見た一例An example of a state in which the player holds the controller 7 with the right hand as viewed from the left side of the controller 7 in the second operation mode. マーカ8Lおよび8Rと撮像情報演算部74との視野角を説明するための図The figure for demonstrating the viewing angle of the markers 8L and 8R and the imaging information calculating part 74 第1操作モードでモニタ2に表示される客観的画像によるゲーム画像の一例An example of a game image by an objective image displayed on the monitor 2 in the first operation mode 客観的画像における仮想カメラCの位置をプレイヤキャラクタPの上方から見た俯瞰概略図Schematic overhead view of the position of the virtual camera C in the objective image as seen from above the player character P 第2操作モードでモニタ2に表示される主観的画像によるゲーム画像の一例An example of a game image by a subjective image displayed on the monitor 2 in the second operation mode 主観的画像における仮想カメラCの位置をプレイヤキャラクタPの横から見た概略図Schematic view of the position of the virtual camera C in the subjective image as seen from the side of the player character P ゲーム装置3のメインメモリ33に記憶される主なデータを示す図The figure which shows the main data memorize | stored in the main memory 33 of the game device 3 メインメモリ33に記憶される第1操作テーブルデータDc4の一例を示す図The figure which shows an example of the 1st operation table data Dc4 memorize | stored in the main memory 33 メインメモリ33に記憶される第2操作テーブルデータDc5の一例を示す図The figure which shows an example of 2nd operation table data Dc5 memorize | stored in the main memory 33 ゲーム装置3において実行されるゲーム処理の前半の流れを示すフローチャートThe flowchart which shows the flow of the first half of the game process performed in the game device 3 ゲーム装置3において実行されるゲーム処理の後半の流れを示すフローチャートThe flowchart which shows the flow of the second half of the game process performed in the game device 3

図1を参照して、本発明の一実施形態に係るゲームシステム1について説明する。なお、図1は、当該ゲームシステム1を説明するための外観図である。以下、据置型ゲーム装置を一例にして、本発明のゲームシステム1について説明する。   A game system 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an external view for explaining the game system 1. Hereinafter, the game system 1 of the present invention will be described using a stationary game apparatus as an example.

図1において、当該ゲームシステム1は、家庭用テレビジョン受像機等のスピーカ2aを備えたディスプレイ(以下、モニタと記載する)2に、接続コードを介して接続される据置型ゲーム装置(以下、単にゲーム装置と記載する)3および当該ゲーム装置3に操作情報を与えるコントローラ7によって構成される。ゲーム装置3は、接続端子を介して受信ユニット6が接続される。受信ユニット6は、コントローラ7から無線送信される送信データを受信し、コントローラ7とゲーム装置3とは無線通信によって接続される。また、ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例の光ディスク4が脱着される。ゲーム装置3の上部主面には、当該ゲーム装置3の電源ON/OFFスイッチ、ゲーム処理のリセットスイッチ、およびゲーム装置3上部の蓋を開くOPENスイッチが設けられている。ここで、プレイヤがOPENスイッチを押下することによって上記蓋が開き、光ディスク4の脱着が可能となる。   In FIG. 1, the game system 1 includes a stationary game apparatus (hereinafter referred to as a monitor) 2 connected to a display (hereinafter referred to as a monitor) 2 having a speaker 2a such as a home television receiver via a connection cord. 3) and a controller 7 that gives operation information to the game apparatus 3. The game apparatus 3 is connected to the receiving unit 6 via a connection terminal. The receiving unit 6 receives transmission data wirelessly transmitted from the controller 7, and the controller 7 and the game apparatus 3 are connected by wireless communication. Further, an optical disk 4 as an example of an information storage medium that can be used interchangeably with the game apparatus 3 is attached to and detached from the game apparatus 3. An upper main surface of the game apparatus 3 is provided with a power ON / OFF switch of the game apparatus 3, a game process reset switch, and an OPEN switch for opening the lid of the upper part of the game apparatus 3. Here, when the player presses the OPEN switch, the lid is opened, and the optical disk 4 can be attached and detached.

また、ゲーム装置3には、セーブデータ等を固定的に記憶するバックアップメモリ等を搭載する外部メモリカード5が必要に応じて着脱自在に装着される。ゲーム装置3は、光ディスク4に記憶されたゲームプログラム等を実行することによって、その結果をゲーム画像としてモニタ2に表示する。さらに、ゲーム装置3は、外部メモリカード5に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2に表示することもできる。そして、ゲーム装置3のプレイヤは、モニタ2に表示されたゲーム画像を見ながら、コントローラ7を操作することによって、ゲーム進行を楽しむことができる。   Further, an external memory card 5 equipped with a backup memory or the like for storing save data or the like in a fixed manner is detachably attached to the game apparatus 3 as necessary. The game apparatus 3 displays a result as a game image on the monitor 2 by executing a game program or the like stored on the optical disc 4. Furthermore, the game apparatus 3 can reproduce the game state executed in the past by using the save data stored in the external memory card 5 and display the game image on the monitor 2. Then, the player of the game apparatus 3 can enjoy the progress of the game by operating the controller 7 while viewing the game image displayed on the monitor 2.

コントローラ7は、その内部に備える通信部75(後述)から受信ユニット6が接続されたゲーム装置3へ、例えばBluetooth(ブルートゥース;登録商標)の技術を用いて送信データを無線送信する。コントローラ7は、主にモニタ2に表示されるゲーム空間に登場するプレイヤオブジェクトを操作するための操作手段である。コントローラ7は、複数の操作ボタン、キー、およびスティック等の操作部が設けられている。また、後述により明らかとなるが、コントローラ7は、当該コントローラ7から見た画像を撮像する撮像情報演算部74を備えている。また、撮像情報演算部74の撮像対象の一例として、モニタ2の表示画面近傍に2つのLEDモジュール(以下、マーカと記載する)8Lおよび8Rが設置される。これらマーカ8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力する。   The controller 7 wirelessly transmits transmission data from a communication unit 75 (described later) provided therein to the game apparatus 3 to which the receiving unit 6 is connected, using, for example, Bluetooth (registered trademark) technology. The controller 7 is an operation means for operating a player object appearing in a game space mainly displayed on the monitor 2. The controller 7 is provided with an operation unit such as a plurality of operation buttons, keys, and sticks. Further, as will be apparent from the description below, the controller 7 includes an imaging information calculation unit 74 that captures an image viewed from the controller 7. In addition, as an example of an imaging target of the imaging information calculation unit 74, two LED modules (hereinafter referred to as markers) 8L and 8R are installed near the display screen of the monitor 2. These markers 8L and 8R each output infrared light toward the front of the monitor 2.

次に、図2を参照して、ゲーム装置3の構成について説明する。なお、図2は、ゲーム装置3の機能ブロック図である。   Next, the configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a functional block diagram of the game apparatus 3.

図2において、ゲーム装置3は、各種プログラムを実行する例えばリスク(RISC)CPU(セントラルプロセッシングユニット)30を備える。CPU30は、図示しないブートROMに記憶された起動プログラムを実行し、メインメモリ33等のメモリの初期化等を行った後、光ディスク4に記憶されているゲームプログラムの実行し、そのゲームプログラムに応じたゲーム処理等を行うものである。CPU30には、メモリコントローラ31を介して、GPU(Graphics Processing Unit)32、メインメモリ33、DSP(Digital Signal Processor)34、およびARAM(Audio RAM)35が接続される。また、メモリコントローラ31には、所定のバスを介して、コントローラI/F(インターフェース)36、ビデオI/F37、外部メモリI/F38、オーディオI/F39、およびディスクI/F41が接続され、それぞれ受信ユニット6、モニタ2、外部メモリカード5、スピーカ2a、およびディスクドライブ40が接続されている。   In FIG. 2, the game apparatus 3 includes, for example, a risk (RISC) CPU (Central Processing Unit) 30 that executes various programs. The CPU 30 executes a startup program stored in a boot ROM (not shown), initializes a memory such as the main memory 33, and the like, then executes a game program stored in the optical disc 4, and according to the game program Game processing and the like. A GPU (Graphics Processing Unit) 32, a main memory 33, a DSP (Digital Signal Processor) 34, and an ARAM (Audio RAM) 35 are connected to the CPU 30 via a memory controller 31. The memory controller 31 is connected to a controller I / F (interface) 36, a video I / F 37, an external memory I / F 38, an audio I / F 39, and a disk I / F 41 via a predetermined bus. The receiving unit 6, the monitor 2, the external memory card 5, the speaker 2a, and the disk drive 40 are connected.

GPU32は、CPU30の命令に基づいて画像処理を行うものあり、例えば、3Dグラフィックスの表示に必要な計算処理を行う半導体チップで構成される。GPU32は、図示しない画像処理専用のメモリやメインメモリ33の一部の記憶領域を用いて画像処理を行う。GPU32は、これらを用いてモニタ2に表示すべきゲーム画像データやムービ映像を生成し、適宜メモリコントローラ31およびビデオI/F37を介してモニタ2に出力する。   The GPU 32 performs image processing based on an instruction from the CPU 30, and is configured by a semiconductor chip that performs calculation processing necessary for displaying 3D graphics, for example. The GPU 32 performs image processing using a memory dedicated to image processing (not shown) and a partial storage area of the main memory 33. The GPU 32 generates game image data and movie video to be displayed on the monitor 2 using these, and outputs them to the monitor 2 through the memory controller 31 and the video I / F 37 as appropriate.

メインメモリ33は、CPU30で使用される記憶領域であって、CPU30の処理に必要なゲームプログラム等を適宜記憶する。例えば、メインメモリ33は、CPU30によって光ディスク4から読み出されたゲームプログラムや各種データ等を記憶する。このメインメモリ33に記憶されたゲームプログラムや各種データ等がCPU30によって実行される。   The main memory 33 is a storage area used by the CPU 30 and stores game programs and the like necessary for the processing of the CPU 30 as appropriate. For example, the main memory 33 stores a game program read from the optical disc 4 by the CPU 30 and various data. The game program and various data stored in the main memory 33 are executed by the CPU 30.

DSP34は、ゲームプログラム実行時にCPU30において生成されるサウンドデータ等を処理するものであり、そのサウンドデータ等を記憶するためのARAM35が接続される。ARAM35は、DSP34が所定の処理(例えば、先読みしておいたゲームプログラムやサウンドデータの記憶)を行う際に用いられる。DSP34は、ARAM35に記憶されたサウンドデータを読み出し、メモリコントローラ31およびオーディオI/F39を介してモニタ2に備えるスピーカ2aに出力させる。   The DSP 34 processes sound data generated by the CPU 30 when the game program is executed, and is connected to an ARAM 35 for storing the sound data. The ARAM 35 is used when the DSP 34 performs a predetermined process (for example, storage of a pre-read game program or sound data). The DSP 34 reads the sound data stored in the ARAM 35 and outputs the sound data to the speaker 2 a included in the monitor 2 via the memory controller 31 and the audio I / F 39.

メモリコントローラ31は、データ転送を統括的に制御するものであり、上述した各種I/Fが接続される。コントローラI/F36は、例えば4つのコントローラI/F36a〜36dで構成され、それらが有するコネクタを介して嵌合可能な外部機器とゲーム装置3とを通信可能に接続する。例えば、受信ユニット6は、上記コネクタと嵌合し、コントローラI/F36を介してゲーム装置3と接続される。上述したように受信ユニット6は、コントローラ7からの送信データを受信し、コントローラI/F36を介して当該送信データをCPU30へ出力する。ビデオI/F37には、モニタ2が接続される。外部メモリI/F38には、外部メモリカード5が接続され、その外部メモリカード5に設けられたバックアップメモリ等とアクセス可能となる。オーディオI/F39にはモニタ2に内蔵されるスピーカ2aが接続され、DSP34がARAM35から読み出したサウンドデータやディスクドライブ40から直接出力されるサウンドデータをスピーカ2aから出力可能に接続される。ディスクI/F41には、ディスクドライブ40が接続される。ディスクドライブ40は、所定の読み出し位置に配置された光ディスク4に記憶されたデータを読み出し、ゲーム装置3のバスやオーディオI/F39に出力する。   The memory controller 31 controls the overall data transfer and is connected to the various I / Fs described above. The controller I / F 36 includes, for example, four controller I / Fs 36a to 36d, and connects the external device and the game apparatus 3 that can be fitted to each other via a connector included in the controller I / F 36 so as to communicate with each other. For example, the receiving unit 6 is fitted with the connector and connected to the game apparatus 3 via the controller I / F 36. As described above, the receiving unit 6 receives the transmission data from the controller 7 and outputs the transmission data to the CPU 30 via the controller I / F 36. A monitor 2 is connected to the video I / F 37. An external memory card 5 is connected to the external memory I / F 38 and can access a backup memory or the like provided in the external memory card 5. A speaker 2a built in the monitor 2 is connected to the audio I / F 39 so that sound data read out from the ARAM 35 by the DSP 34 or sound data directly output from the disk drive 40 can be output from the speaker 2a. A disk drive 40 is connected to the disk I / F 41. The disk drive 40 reads data stored on the optical disk 4 arranged at a predetermined reading position, and outputs the data to the bus of the game apparatus 3 and the audio I / F 39.

図3および図4を参照して、コントローラ7について説明する。なお、図3は、コントローラ7の上面後方から見た斜視図である。図4は、コントローラ7を下面前方から見た斜視図である。   The controller 7 will be described with reference to FIGS. 3 and 4. FIG. 3 is a perspective view of the controller 7 as viewed from the upper rear side. FIG. 4 is a perspective view of the controller 7 as viewed from the lower front side.

図3および図4において、コントローラ7は、例えばプラスチック成型によって形成されたハウジング71を有しており、当該ハウジング71に複数の操作部72が設けられている。ハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。   3 and 4, the controller 7 includes a housing 71 formed by plastic molding, for example, and the housing 71 is provided with a plurality of operation units 72. The housing 71 has a substantially rectangular parallelepiped shape whose longitudinal direction is the front-rear direction, and is a size that can be gripped with one hand of an adult or a child as a whole.

ハウジング71上面の中央前面側に、十字キー72aが設けられる。この十字キー72aは、十字型の4方向プッシュスイッチであり、4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。プレイヤが十字キー72aのいずれかの操作部分を押下することによって前後左右いずれかの方向を選択される。例えばプレイヤが十字キー72aを操作することによって、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、カーソルの移動方向を指示したりすることができる。   A cross key 72 a is provided on the center front side of the upper surface of the housing 71. The cross key 72a is a cross-shaped four-way push switch, and operation portions corresponding to the four directions (front / rear and left / right) are arranged at 90 ° intervals on the protrusions of the cross. The player selects one of the front, rear, left and right directions by pressing one of the operation portions of the cross key 72a. For example, when the player operates the cross key 72a, it is possible to instruct the moving direction of the player character or the like appearing in the virtual game world, or to instruct the moving direction of the cursor.

なお、十字キー72aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。例えば、十字方向に4つのプッシュスイッチを配設し、プレイヤによって押下されたプッシュスイッチに応じて操作信号を出力する操作部を設けてもかまわない。さらに、上記4つのプッシュスイッチとは別に、上記十字方向が交わる位置にセンタスイッチを配設し、4つのプッシュスイッチとセンタスイッチとを複合した操作部を設けてもかまわない。また、ハウジング71上面から突出した傾倒可能なスティック(いわゆる、ジョイスティック)を倒すことによって、傾倒方向に応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。さらに、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力する操作部を、上記十字キー72aの代わりに設けてもかまわない。また、タッチパッドを、上記十字キー72aの代わりに設けてもかまわない。   Note that the cross key 72a is an operation unit that outputs an operation signal in response to the above-described direction input operation of the player, but may be an operation unit of another mode. For example, four push switches may be provided in the cross direction, and an operation unit that outputs an operation signal according to the push switch pressed by the player may be provided. Further, apart from the four push switches, a center switch may be provided at a position where the cross direction intersects, and an operation unit in which the four push switches and the center switch are combined may be provided. An operation unit that outputs an operation signal in accordance with the tilt direction by tilting a tiltable stick (so-called joystick) protruding from the upper surface of the housing 71 may be provided instead of the cross key 72a. Furthermore, an operation unit that outputs an operation signal corresponding to the sliding direction by sliding a horizontally movable disk-shaped member may be provided instead of the cross key 72a. Further, a touch pad may be provided instead of the cross key 72a.

ハウジング71上面の十字キー72aより後面側に、複数の操作ボタン72b〜72gが設けられる。操作ボタン72b〜72gは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン72b〜72gに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン72b〜72dには、1番ボタン、2番ボタン、およびAボタン等としての機能が割り当てられる。また、操作ボタン72e〜72gには、マイナスボタン、ホームボタン、およびプラスボタン等としての機能が割り当てられる。これら操作ボタン72a〜72gは、ゲーム装置3が実行するゲームプログラムに応じてそれぞれの操作機能が割り当てられ、後述により明らかとなるがプレイヤがコントローラ7を操作する向きに応じてそれぞれ割り当てられる操作機能が切り替わる。なお、図3に示した配置例では、操作ボタン72b〜72dは、ハウジング71上面の中央前後方向に沿って並設されている。また、操作ボタン72e〜72gは、ハウジング71上面の左右方向に沿って操作ボタン72bおよび72dの間に並設されている。そして、操作ボタン72fは、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   A plurality of operation buttons 72 b to 72 g are provided on the rear surface side of the cross key 72 a on the upper surface of the housing 71. The operation buttons 72b to 72g are operation units that output operation signals assigned to the operation buttons 72b to 72g when the player presses the button head. For example, functions as a first button, a second button, and an A button are assigned to the operation buttons 72b to 72d. Further, functions as a minus button, a home button, a plus button, and the like are assigned to the operation buttons 72e to 72g. These operation buttons 72 a to 72 g are assigned with respective operation functions according to the game program executed by the game apparatus 3, and as will become apparent later, the operation functions assigned according to the direction in which the player operates the controller 7. Switch. In the arrangement example shown in FIG. 3, the operation buttons 72 b to 72 d are arranged side by side along the center front-rear direction on the upper surface of the housing 71. Further, the operation buttons 72e to 72g are arranged in parallel between the operation buttons 72b and 72d along the left-right direction of the upper surface of the housing 71. The operation button 72f is a type of button whose upper surface is buried in the upper surface of the housing 71 and is not accidentally pressed by the player.

また、ハウジング71上面の十字キー72aより前面側に、操作ボタン72hが設けられる。操作ボタン72hは、遠隔からゲーム装置3本体の電源をオン/オフする電源スイッチである。この操作ボタン72hも、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   An operation button 72h is provided on the front surface side of the cross key 72a on the upper surface of the housing 71. The operation button 72h is a power switch for remotely turning on / off the game apparatus 3 main body. This operation button 72h is also a type of button whose upper surface is buried in the upper surface of the housing 71 and that the player does not accidentally press.

また、ハウジング71上面の操作ボタン72cより後面側に、複数のLED702が設けられる。ここで、コントローラ7は、他のコントローラ7と区別するためにコントローラ種別(番号)が設けられている。例えば、LED702は、コントローラ7に現在設定されている上記コントローラ種別をプレイヤに通知するために用いられる。具体的には、コントローラ7から受信ユニット6へ送信データを送信する際、上記コントローラ種別に応じて複数のLED702のうち、種別に対応するLEDが点灯する。   A plurality of LEDs 702 are provided on the rear surface side of the operation button 72 c on the upper surface of the housing 71. Here, the controller 7 is provided with a controller type (number) to distinguish it from other controllers 7. For example, the LED 702 is used to notify the player of the controller type currently set in the controller 7. Specifically, when transmission data is transmitted from the controller 7 to the receiving unit 6, the LED corresponding to the type among the plurality of LEDs 702 is turned on according to the controller type.

また、ハウジング71上面には、操作ボタン72bおよび操作ボタン72e〜72gの間に後述するスピーカ(図5のスピーカ706)からの音を外部に放出するための音抜き孔が形成されている。   Further, on the upper surface of the housing 71, a sound release hole is formed between the operation button 72b and the operation buttons 72e to 72g for emitting sound from a speaker (speaker 706 in FIG. 5) described later to the outside.

一方、ハウジング71下面には、凹部が形成されている。後述で明らかとなるが、ハウジング71下面の凹部は、プレイヤがコントローラ7の前面をマーカ8Lおよび8Rに向けて片手で把持したときに、当該プレイヤの人差し指や中指が位置するような位置に形成される。そして、上記凹部の後面側傾斜面には、操作ボタン72iが設けられる。操作ボタン72iは、例えばBボタンとして機能する操作部である。なお、後述により明らかとなるが、操作ボタン72iについても、プレイヤがコントローラ7を操作する向きに応じて割り当てられる操作機能が切り替わる。   On the other hand, a recess is formed on the lower surface of the housing 71. As will be described later, the recess on the lower surface of the housing 71 is formed at a position where the player's index finger or middle finger is positioned when the player grips the front surface of the controller 7 with one hand toward the markers 8L and 8R. The And the operation button 72i is provided in the rear surface side inclined surface of the said recessed part. The operation button 72i is an operation unit that functions as a B button, for example. As will become apparent from the description below, the operation function assigned to the operation button 72i is also switched according to the direction in which the player operates the controller 7.

また、ハウジング71前面には、撮像情報演算部74の一部を構成する撮像素子743が設けられる。ここで、撮像情報演算部74は、コントローラ7が撮像した画像データを解析してその中で輝度が高い場所を判別してその場所の重心位置やサイズなどを検出するためのシステムであり、例えば、最大200フレーム/秒程度のサンプリング周期であるため比較的高速なコントローラ7の動きでも追跡して解析することができる。この撮像情報演算部74の詳細な構成については、後述する。また、ハウジング70の後面には、コネクタ73が設けられている。コネクタ73は、例えば32ピンのエッジコネクタであり、例えば接続ケーブルと嵌合して接続するために利用される。   An imaging element 743 that constitutes a part of the imaging information calculation unit 74 is provided on the front surface of the housing 71. Here, the imaging information calculation unit 74 is a system for analyzing the image data captured by the controller 7 to determine a location where the luminance is high and detecting the position of the center of gravity, the size, and the like of the location. Since the maximum sampling period is about 200 frames / second, even a relatively fast movement of the controller 7 can be tracked and analyzed. The detailed configuration of the imaging information calculation unit 74 will be described later. A connector 73 is provided on the rear surface of the housing 70. The connector 73 is a 32-pin edge connector, for example, and is used for fitting and connecting with a connection cable, for example.

次に、図5および図6を参照して、コントローラ7の内部構造について説明する。なお、図5は、コントローラ7の上筐体(ハウジング71の一部)を外した状態を後面側から見た斜視図である。図6は、コントローラ7の下筐体(ハウジング71の一部)を外した状態を前面側から見た斜視図である。ここで、図6に示す基板700は、図5に示す基板700の裏面から見た斜視図となっている。   Next, the internal structure of the controller 7 will be described with reference to FIGS. FIG. 5 is a perspective view of a state in which the upper casing (a part of the housing 71) of the controller 7 is removed as viewed from the rear side. FIG. 6 is a perspective view of a state in which the lower casing (a part of the housing 71) of the controller 7 is removed as seen from the front side. Here, the substrate 700 shown in FIG. 6 is a perspective view seen from the back surface of the substrate 700 shown in FIG.

図5において、ハウジング71の内部には基板700が固設されており、当該基板700の上主面上に操作ボタン72a〜72h、加速度センサ701、LED702、およびアンテナ754等が設けられる。そして、これらは、基板700等に形成された配線(図示せず)によってマイコン751等(図6、図7参照)に接続される。また、図示しない無線モジュール753(図7参照)およびアンテナ754によって、コントローラ7がワイヤレスコントローラとして機能する。なお、ハウジング71内部には図示しない水晶振動子703が設けられており、後述するマイコン751の基本クロックを生成する。また、基板700の上主面上に、スピーカ706およびアンプ708が設けられる。加速度センサ701が、基板700の中央部ではなく周辺部に設けられていることにより、コントローラ7の長手方向を軸とした回転に応じて、重力加速度の方向変化に加え、遠心力による成分の含まれる加速度を検出することができるので、所定の演算により、検出される加速度データからコントローラ7の回転を良好な感度で判定することができる。   In FIG. 5, a substrate 700 is fixed inside the housing 71, and operation buttons 72a to 72h, an acceleration sensor 701, an LED 702, an antenna 754, and the like are provided on the upper main surface of the substrate 700. These are connected to the microcomputer 751 and the like (see FIGS. 6 and 7) by wiring (not shown) formed on the substrate 700 and the like. Further, the controller 7 functions as a wireless controller by a wireless module 753 (see FIG. 7) and an antenna 754 (not shown). A quartz oscillator 703 (not shown) is provided inside the housing 71 and generates a basic clock for the microcomputer 751 described later. A speaker 706 and an amplifier 708 are provided on the upper main surface of the substrate 700. Since the acceleration sensor 701 is provided in the peripheral portion instead of the central portion of the substrate 700, in addition to the change in the direction of gravity acceleration in accordance with the rotation about the longitudinal direction of the controller 7, the component due to the centrifugal force is included. Therefore, the rotation of the controller 7 can be determined with a good sensitivity from the detected acceleration data by a predetermined calculation.

一方、図6において、基板700の下主面上の前端縁に撮像情報演算部74が設けられる。撮像情報演算部74は、コントローラ7の前方から順に赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744によって構成されており、それぞれ基板700の下主面に取り付けられる。また、基板700の下主面上の後端縁にコネクタ73が取り付けられる。さらに、基板700の下主面上にサウンドIC707およびマイコン751が設けられている。サウンドIC707は、基板700等に形成された配線によってマイコン751およびアンプ708と接続され、ゲーム装置3から送信されたサウンドデータに応じてアンプ708を介してスピーカ706に音声信号を出力する。そして、基板700の下主面上には、バイブレータ704が取り付けられる。このバイブレータ704は、例えば振動モータやソレノイドである。バイブレータ704が作動することによってコントローラ7に振動が発生するので、それを把持しているプレイヤの手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。バイブレータ704は、ハウジング71のやや前方寄りに配置されるため、プレイヤが把持している状態において、ハウジング71が大きく振動することになり、振動を感じやすくなる。   On the other hand, in FIG. 6, an imaging information calculation unit 74 is provided at the front edge on the lower main surface of the substrate 700. The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744 in order from the front of the controller 7, and each is attached to the lower main surface of the substrate 700. A connector 73 is attached to the rear edge on the lower main surface of the substrate 700. Further, a sound IC 707 and a microcomputer 751 are provided on the lower main surface of the substrate 700. The sound IC 707 is connected to the microcomputer 751 and the amplifier 708 through wiring formed on the substrate 700 or the like, and outputs an audio signal to the speaker 706 via the amplifier 708 according to the sound data transmitted from the game apparatus 3. A vibrator 704 is attached on the lower main surface of the substrate 700. The vibrator 704 is, for example, a vibration motor or a solenoid. Since the vibration is generated in the controller 7 by the operation of the vibrator 704, the vibration is transmitted to the hand of the player holding it, and a so-called vibration-compatible game can be realized. Since the vibrator 704 is arranged slightly forward of the housing 71, the housing 71 vibrates greatly when the player is holding it, and it is easy to feel the vibration.

次に、図7を参照して、コントローラ7の内部構成について説明する。なお、図7は、コントローラ7の構成を示すブロック図である。   Next, the internal configuration of the controller 7 will be described with reference to FIG. FIG. 7 is a block diagram showing the configuration of the controller 7.

図7において、コントローラ7は、上述した操作部72、撮像情報演算部74、加速度センサ701、スピーカ706、サウンドIC707、およびアンプ708の他に、その内部に通信部75を備えている。   In FIG. 7, the controller 7 includes a communication unit 75 in addition to the above-described operation unit 72, imaging information calculation unit 74, acceleration sensor 701, speaker 706, sound IC 707, and amplifier 708.

撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744を含んでいる。赤外線フィルタ741は、コントローラ7の前方から入射する光から赤外線のみを通過させる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ出射する。撮像素子743は、例えばCMOSセンサやあるいはCCDのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像して画像データを生成する。撮像素子743で生成された画像データは、画像処理回路744で処理される。具体的には、画像処理回路744は、撮像素子743から得られた画像データを処理して高輝度部分を検知し、それらの位置座標や面積を検出した結果を示す処理結果データを通信部75へ出力する。なお、これらの撮像情報演算部74は、コントローラ7のハウジング71に固設されており、ハウジング71自体の方向を変えることによってその撮像方向を変更することができる。後述により明らかとなるが、この撮像情報演算部74から出力される処理結果データに基づいて、コントローラ7の位置や動きに応じた信号を得ることができる。   The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744. The infrared filter 741 allows only infrared rays to pass from light incident from the front of the controller 7. The lens 742 condenses the infrared light that has passed through the infrared filter 741 and outputs the condensed infrared light to the image sensor 743. The imaging element 743 is a solid-state imaging element such as a CMOS sensor or a CCD, for example, and images the infrared rays collected by the lens 742. Therefore, the image sensor 743 captures only the infrared light that has passed through the infrared filter 741 and generates image data. Image data generated by the image sensor 743 is processed by an image processing circuit 744. Specifically, the image processing circuit 744 processes the image data obtained from the image sensor 743 to detect high-luminance portions, and transmits processing result data indicating the result of detecting the position coordinates and area of the communication unit 75. Output to. The imaging information calculation unit 74 is fixed to the housing 71 of the controller 7, and the imaging direction can be changed by changing the direction of the housing 71 itself. As will be apparent from the following description, a signal corresponding to the position and movement of the controller 7 can be obtained based on the processing result data output from the imaging information calculation unit 74.

コントローラ7は、3軸(X、Y、Z軸)の加速度センサ701を備えていることが好ましい。この3軸の加速度センサ701は、3方向、すなわち、上下方向、左右方向、および前後方向で直線加速度を検知する。また、他の実施形態においては、ゲーム処理に用いる制御信号の種類によっては、上下および左右方向(または他の対になった方向)のそれぞれに沿った直線加速度のみを検知する2軸の加速度検出手段を使用してもよい。例えば、この3軸または2軸の加速度センサ701は、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能であるタイプのものでもよい。加速度センサ701は、シリコン微細加工されたMEMS(Micro Electro Mechanical Systems:微小電子機械システム)の技術に基づいた静電容量式(静電容量結合式)であってもよい。しかしながら、既存の加速度検出手段の技術(例えば、圧電方式や圧電抵抗方式)あるいは将来開発される他の適切な技術を用いて3軸または2軸の加速度センサ701が提供されてもよい。   The controller 7 preferably includes a triaxial (X, Y, Z axis) acceleration sensor 701. The three-axis acceleration sensor 701 detects linear acceleration in three directions, that is, an up-down direction, a left-right direction, and a front-rear direction. In other embodiments, depending on the type of control signal used in the game process, biaxial acceleration detection that detects only linear acceleration along each of the vertical and horizontal directions (or other paired directions). Means may be used. For example, the triaxial or biaxial acceleration sensor 701 may be of the type available from Analog Devices, Inc. or ST Microelectronics NV. The acceleration sensor 701 may be a capacitance type (capacitive coupling type) based on a MEMS (Micro Electro Mechanical Systems) technique in which silicon is finely processed. However, the triaxial or biaxial acceleration sensor 701 may be provided by using existing acceleration detecting means technology (for example, a piezoelectric method or a piezoresistive method) or other appropriate technology developed in the future.

当業者には公知であるように、加速度センサ701に用いられるような加速度検出手段は、加速度センサの持つ各軸に対応する直線に沿った加速度(直線加速度)のみを検知することができる。つまり、加速度センサ701からの直接の出力は、その2軸または3軸のそれぞれに沿った直線加速度(静的または動的)を示す信号である。このため、加速度センサ701は、非直線状(例えば、円弧状)の経路に沿った動き、回転、回転運動、角変位、傾斜、位置、または姿勢等の物理特性を直接検知することはできない。   As known to those skilled in the art, the acceleration detection means used in the acceleration sensor 701 can detect only the acceleration (linear acceleration) along a straight line corresponding to each axis of the acceleration sensor. That is, the direct output from the acceleration sensor 701 is a signal indicating linear acceleration (static or dynamic) along each of the two or three axes. For this reason, the acceleration sensor 701 cannot directly detect physical characteristics such as movement, rotation, rotational movement, angular displacement, inclination, position, or posture along a non-linear (for example, arc) path.

しかしながら、加速度センサ701から出力される加速度の信号に対して追加の処理を行うことによって、コントローラ7に関するさらなる情報を推測または算出することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、静的な加速度(重力加速度)が検知されると、加速度センサ701からの出力を用いて、傾斜角度と検知された加速度とを用いた演算によって重力ベクトルに対する対象(コントローラ7)の傾きをそれぞれ推測することができる。このように、加速度センサ701をマイコン751(または他のプロセッサ)と組み合わせて用いることによって、コントローラ7の傾き、姿勢または位置を決定することができる。同様に、加速度センサ701を備えるコントローラ7が、例えばユーザの手で動的に加速されてそれぞれ動かされる場合に、加速度センサ701によって生成される加速度信号を処理することによって、コントローラ7のさまざまな動きおよび/または位置をそれぞれ算出または推測することができる。他の実施例では、加速度センサ701は、信号をマイコン751に出力する前に内蔵の加速度検出手段から出力される加速度信号に対して所望の処理を行うための、組込み式の信号処理装置または他の種類の専用の処理装置を備えていてもよい。例えば、組込み式または専用の処理装置は、加速度センサが静的な加速度(例えば、重力加速度)を検出するためのものである場合、検知された加速度信号をそれに相当する傾斜角に変換するものであってもよい。加速度センサ701でそれぞれ検知された加速度を示すデータは通信部75に出力される。   However, it is easy for those skilled in the art to estimate or calculate further information regarding the controller 7 by performing additional processing on the acceleration signal output from the acceleration sensor 701 from the description of the present specification. Will understand. For example, when static acceleration (gravity acceleration) is detected, the output of the acceleration sensor 701 is used to calculate the inclination of the target (controller 7) with respect to the gravity vector by calculation using the inclination angle and the detected acceleration. Each can be guessed. Thus, by using the acceleration sensor 701 in combination with the microcomputer 751 (or other processor), the inclination, posture or position of the controller 7 can be determined. Similarly, when the controller 7 including the acceleration sensor 701 is dynamically accelerated, for example, by a user's hand and moved, the various movements of the controller 7 are processed by processing the acceleration signal generated by the acceleration sensor 701. And / or position can be calculated or inferred, respectively. In another embodiment, the acceleration sensor 701 is a built-in signal processing device or the like for performing desired processing on the acceleration signal output from the built-in acceleration detection means before outputting the signal to the microcomputer 751. This type of processing device may be provided. For example, a built-in or dedicated processing device converts the detected acceleration signal into a corresponding tilt angle when the acceleration sensor is for detecting static acceleration (for example, gravitational acceleration). There may be. Data indicating the acceleration detected by the acceleration sensor 701 is output to the communication unit 75.

他の実施形態の例では、加速度センサ701の代わりに、回転素子または振動素子などを内蔵したジャイロセンサを用いてもよい。この実施形態で使用されるMEMSジャイロセンサの一例として、アナログ・デバイセズ株式会社から入手可能なものがある。加速度センサ701と異なり、ジャイロセンサは、それが内蔵する少なくとも一つのジャイロ素子の軸を中心とした回転(または角速度)を直接検知することができる。このように、ジャイロセンサと加速度センサとは基本的に異なるので、個々の用途のためにいずれの装置が選択されるかによって、これらの装置からの出力信号に対して行う処理を適宜変更する必要がある。   In an example of another embodiment, a gyro sensor incorporating a rotation element or a vibration element may be used instead of the acceleration sensor 701. An example of a MEMS gyro sensor used in this embodiment is available from Analog Devices, Inc. Unlike the acceleration sensor 701, the gyro sensor can directly detect rotation (or angular velocity) about the axis of at least one gyro element incorporated therein. As described above, since the gyro sensor and the acceleration sensor are basically different from each other, it is necessary to appropriately change the processing to be performed on the output signals from these devices depending on which device is selected for each application. There is.

具体的には、加速度センサの代わりにジャイロセンサを用いて傾きや姿勢を算出する場合には、大幅な変更を行う。すなわち、ジャイロセンサを用いる場合、検出開始の状態において傾きの値を初期化する。そして、当該ジャイロセンサから出力される角速度データを積分する。次に、初期化された傾きの値からの傾きの変化量を算出する。この場合、算出される傾きは、角度に対応する値が算出されることになる。一方、加速度センサによって傾きを算出する場合には、重力加速度のそれぞれの軸に関する成分の値を、所定の基準と比較することによって傾きを算出するので、算出される傾きはベクトルで表すことが可能であり、初期化を行わずとも、加速度検出手段を用いて検出される絶対的な方向を検出することが可能である。また、傾きとして算出される値の性質は、ジャイロセンサが用いられる場合には角度であるのに対して、加速度センサが用いられる場合にはベクトルであるという違いがある。したがって、加速度センサに代えてジャイロセンサが用いられる場合、当該傾きのデータに対して、2つのデバイスの違いを考慮した所定の変換を行う必要がある。加速度検出手段とジャイロスコープとの基本的な差異と同様にジャイロスコープの特性は当業者に公知であるので、本明細書ではさらなる詳細を省略する。ジャイロセンサは、回転を直接検知できることによる利点を有する一方、一般的には、加速度センサは、本実施形態で用いるようなコントローラに適用される場合、ジャイロセンサに比べて費用効率が良いという利点を有する。   Specifically, when the inclination or posture is calculated using a gyro sensor instead of the acceleration sensor, a significant change is made. That is, when the gyro sensor is used, the inclination value is initialized in the detection start state. Then, the angular velocity data output from the gyro sensor is integrated. Next, a change amount of the inclination from the initialized inclination value is calculated. In this case, the calculated inclination is a value corresponding to the angle. On the other hand, when the inclination is calculated by the acceleration sensor, the inclination is calculated by comparing the value of the component relating to each axis of the gravitational acceleration with a predetermined reference, so the calculated inclination can be expressed by a vector. Thus, it is possible to detect the absolute direction detected using the acceleration detecting means without performing initialization. In addition, the property of the value calculated as the inclination is an angle when a gyro sensor is used, but a vector when an acceleration sensor is used. Therefore, when a gyro sensor is used instead of the acceleration sensor, it is necessary to perform predetermined conversion in consideration of the difference between the two devices with respect to the tilt data. Since the characteristics of the gyroscope as well as the basic differences between the acceleration detection means and the gyroscope are known to those skilled in the art, further details are omitted here. While the gyro sensor has the advantage of being able to directly detect rotation, in general, the acceleration sensor has the advantage of being more cost effective than the gyro sensor when applied to a controller as used in this embodiment. Have.

通信部75は、マイクロコンピュータ(Micro Computer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。また、マイコン751は、アンテナ754を介して無線モジュール753が受信したゲーム装置3からのデータに応じて、サウンドIC707およびバイブレータ704の動作を制御する。サウンドIC707は、通信部75を介してゲーム装置3から送信されたサウンドデータ等を処理する。   The communication unit 75 includes a microcomputer (microcomputer) 751, a memory 752, a wireless module 753, and an antenna 754. The microcomputer 751 controls the wireless module 753 that wirelessly transmits transmission data while using the memory 752 as a storage area during processing. The microcomputer 751 controls the operations of the sound IC 707 and the vibrator 704 in accordance with data from the game apparatus 3 received by the wireless module 753 via the antenna 754. The sound IC 707 processes sound data transmitted from the game apparatus 3 via the communication unit 75.

コントローラ7に設けられた操作部72からの操作信号(キーデータ)、加速度センサ701からの加速度信号(X、Y、およびZ軸方向加速度データ;以下、単に加速度データと記載する)、および撮像情報演算部74からの処理結果データは、マイコン751に出力される。マイコン751は、入力した各データ(キーデータ、加速度データ、処理結果データ)を受信ユニット6へ送信する送信データとして一時的にメモリ752に格納する。ここで、通信部75から受信ユニット6への無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60秒を単位として行われることが一般的であるので、それよりも短い周期で送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥース(Bluetooth;登録商標)で構成される通信部75の送信間隔は5msである。マイコン751は、受信ユニット6への送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばブルートゥース(登録商標)の技術に基づいて、所定周波数の搬送波を用いて操作情報で変調し、その電波信号をアンテナ754から放射する。つまり、コントローラ7に設けられた操作部72からのキーデータ、加速度センサ701からの加速度データ、および撮像情報演算部74からの処理結果データが無線モジュール753で電波信号に変調されてコントローラ7から送信される。そして、ゲーム装置3の受信ユニット6でその電波信号を受信し、ゲーム装置3で当該電波信号を復調や復号することによって、一連の操作情報(キーデータ、加速度データ、および処理結果データ)を取得する。そして、ゲーム装置3のCPU30は、取得した操作情報とゲームプログラムとに基づいて、ゲーム処理を行う。なお、ブルートゥース(登録商標)の技術を用いて通信部75を構成する場合、通信部75は、他のデバイスから無線送信された送信データを受信する機能も備えることができる。   An operation signal (key data) from the operation unit 72 provided in the controller 7, an acceleration signal from the acceleration sensor 701 (X, Y, and Z-axis direction acceleration data; hereinafter simply referred to as acceleration data), and imaging information The processing result data from the calculation unit 74 is output to the microcomputer 751. The microcomputer 751 temporarily stores each input data (key data, acceleration data, processing result data) in the memory 752 as transmission data to be transmitted to the receiving unit 6. Here, the wireless transmission from the communication unit 75 to the receiving unit 6 is performed every predetermined cycle, but since the game processing is generally performed in units of 1/60 seconds, it is shorter than that. It is necessary to transmit at periodic intervals. Specifically, the processing unit of the game is 16.7 ms (1/60 seconds), and the transmission interval of the communication unit 75 configured by Bluetooth (registered trademark) is 5 ms. When the transmission timing to the receiving unit 6 comes, the microcomputer 751 outputs the transmission data stored in the memory 752 as a series of operation information and outputs it to the wireless module 753. The wireless module 753 then modulates the operation information using a carrier wave having a predetermined frequency based on, for example, Bluetooth (registered trademark) technology, and radiates the radio signal from the antenna 754. That is, key data from the operation unit 72 provided in the controller 7, acceleration data from the acceleration sensor 701, and processing result data from the imaging information calculation unit 74 are modulated into radio signals by the wireless module 753 and transmitted from the controller 7. Is done. The reception unit 6 of the game apparatus 3 receives the radio signal, and the game apparatus 3 demodulates and decodes the radio signal to obtain a series of operation information (key data, acceleration data, and processing result data). To do. And CPU30 of the game device 3 performs a game process based on the acquired operation information and a game program. When the communication unit 75 is configured using Bluetooth (registered trademark) technology, the communication unit 75 can also have a function of receiving transmission data wirelessly transmitted from other devices.

次に、ゲーム装置3が行う具体的な処理を説明する前に、本ゲーム装置3で行うゲームの概要について説明する。当該ゲームでは、少なくとも2つの操作モード(第1操作モード、第2操作モード)が設定され、それぞれモニタ2に表示するゲーム画像の視点が切り替えられる。   Next, before describing specific processing performed by the game apparatus 3, an outline of a game performed by the game apparatus 3 will be described. In the game, at least two operation modes (first operation mode and second operation mode) are set, and the viewpoint of the game image displayed on the monitor 2 is switched.

図8は、当該ゲームに設定された第1操作モードによってプレイヤがコントローラ7を操作している一例である。図9は、第1操作モードにおいてプレイヤがコントローラ7を横持ちにして両手で把持した状態をコントローラ7の側面側から見た一例である。図8および図9に示すように、第1操作モードでは、例えばコントローラ7の長軸方向を横にして両手でコントローラ7をプレイヤが把持して操作する。具体的には、プレイヤは、左手でコントローラ7の前面側を持ち、右手でコントローラ7の後面側を持って、左右の指で操作部72(例えば、十字キー72a、操作ボタン72b〜72g)を押下することによってゲーム操作を行う。この場合、コントローラ7の側面(図8および図9の例では右側面)がモニタ2の表示画面と対向するようにコントローラ7が把持される。例えば、プレイヤは、両手のひらをそれぞれコントローラ7の前面および後面に添え、人差し指、中指、薬指、小指をコントローラ7下面に添える。そして、両手の親指をコントローラ7の上面に設けられた操作部72(例えば、十字キー72a付近や操作ボタン72b〜72d付近)に添える。このとき、コントローラ7が縦長形状であり、当該長手方向の一方端部に十字キー72aが配設されているため、プレイヤがコントローラ7を横持ちしたときに一方の手の親指等で十字キー72aの操作がやりやすくなる。また、操作ボタン72bや操作ボタン72cは、当該長手方向の他方端部に配設されているため、横持ちしたときに他方の手の親指等で操作がやりやすくなる。一方、操作ボタン72iは、図9に示すようにプレイヤがコントローラ7を横持ちしたとき、プレイヤの死角となりコントローラ7の凹部の後面側傾斜面に配設されているために操作が難しく、操作ボタン72iからプレイヤの指が自然と離れる状態となる。このように第1操作モードでは、プレイヤがコントローラ7を横持ちで把持した状態で、十字キー72aや操作ボタン72b〜72d等の操作部72を容易に操作することができる。   FIG. 8 shows an example in which the player operates the controller 7 in the first operation mode set for the game. FIG. 9 is an example of a state in which the player holds the controller 7 sideways and grips it with both hands in the first operation mode, as viewed from the side of the controller 7. As shown in FIGS. 8 and 9, in the first operation mode, for example, the player holds and operates the controller 7 with both hands with the long axis direction of the controller 7 being horizontal. Specifically, the player holds the front side of the controller 7 with the left hand, holds the rear side of the controller 7 with the right hand, and uses the left and right fingers to operate the operation unit 72 (for example, the cross key 72a and the operation buttons 72b to 72g). A game operation is performed by pressing the button. In this case, the controller 7 is gripped so that the side surface of the controller 7 (the right side surface in the examples of FIGS. 8 and 9) faces the display screen of the monitor 2. For example, the player attaches both palms to the front and rear surfaces of the controller 7, and attaches an index finger, middle finger, ring finger, and little finger to the lower surface of the controller 7. Then, the thumbs of both hands are attached to the operation unit 72 (for example, the vicinity of the cross key 72a or the operation buttons 72b to 72d) provided on the upper surface of the controller 7. At this time, since the controller 7 has a vertically long shape and the cross key 72a is disposed at one end portion in the longitudinal direction, the cross key 72a with the thumb of one hand or the like when the player holds the controller 7 sideways. The operation of becomes easier. Further, since the operation button 72b and the operation button 72c are disposed at the other end portion in the longitudinal direction, the operation can be easily performed with the thumb of the other hand when the user holds the device sideways. On the other hand, the operation button 72i is difficult to operate because it is a blind spot of the player when the player holds the controller 7 as shown in FIG. The player's finger is naturally separated from 72i. Thus, in the first operation mode, the operation unit 72 such as the cross key 72a and the operation buttons 72b to 72d can be easily operated in a state where the player holds the controller 7 sideways.

図10は、当該ゲームに設定された第2操作モードによってプレイヤがコントローラ7を操作している一例である。図11は、第2操作モードにおいて、プレイヤがコントローラ7を右手で把持した状態をコントローラ7の前面側から見た一例である。図12は、第2操作モードにおいて、プレイヤがコントローラ7を右手で把持した状態をコントローラ7の左側面側から見た一例である。図10〜図12に示すように、第2操作モードでゲームをプレイするためには、コントローラ7の前面(撮像情報演算部74が撮像する光の入射口側)がモニタ2の表示画面と対向するようにプレイヤが一方の手(例えば右手)でコントローラ7を把持する。そして、プレイヤの親指をコントローラ7の上面(例えば、操作ボタン72d付近)に添え、プレイヤの人差し指をコントローラ7下面の凹部(例えば、操作ボタン72i付近)に添えたとき、コントローラ7の前面に設けられている撮像情報演算部74の光入射口がプレイヤの前方方向に露出する。一方、モニタ2の表示画面近傍には、2つのマーカ8Lおよび8Rが設置される。これらマーカ8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力し、撮像情報演算部74の撮像対象となる。マーカ8Lおよび8Rは、モニタ2に一体的に設けられても良いし、モニタ2とは別体で設けられてモニタ2の近く(モニタ2の上や下など)に載置されて使用されるものであってもよい。なお、このようなコントローラ7に対する把持状態は、プレイヤの左手であっても同様に行えることは言うまでもない。   FIG. 10 shows an example in which the player operates the controller 7 in the second operation mode set for the game. FIG. 11 is an example of a state in which the player holds the controller 7 with the right hand as viewed from the front side of the controller 7 in the second operation mode. FIG. 12 is an example of a state in which the player holds the controller 7 with the right hand as viewed from the left side of the controller 7 in the second operation mode. As shown in FIGS. 10 to 12, in order to play the game in the second operation mode, the front surface of the controller 7 (the light entrance side imaged by the imaging information calculation unit 74) faces the display screen of the monitor 2. Thus, the player holds the controller 7 with one hand (for example, the right hand). When the player's thumb is attached to the upper surface of the controller 7 (for example, near the operation button 72d) and the player's index finger is attached to a concave portion (for example, near the operation button 72i) of the controller 7, it is provided on the front surface of the controller 7. The light incident port of the imaging information calculation unit 74 is exposed in the forward direction of the player. On the other hand, in the vicinity of the display screen of the monitor 2, two markers 8L and 8R are installed. These markers 8 </ b> L and 8 </ b> R each output infrared light toward the front of the monitor 2 and become imaging targets of the imaging information calculation unit 74. The markers 8L and 8R may be provided integrally with the monitor 2 or may be provided separately from the monitor 2 and placed near the monitor 2 (such as above or below the monitor 2) for use. It may be a thing. It goes without saying that such a gripping state with respect to the controller 7 can be similarly performed even with the left hand of the player.

このように、第2操作モードにおいて、コントローラ7は、プレイヤが片手で把持した状態で操作ボタン72dおよび72i等の操作部72を容易に操作することができる。さらに、プレイヤがコントローラ7を片手で把持したとき、当該コントローラ7の前面に設けられている撮像情報演算部74の光入射口が露出するため、上述した2つのマーカ8Lおよび8Rからの赤外光を容易に当該光入射口から取り入れることができる。つまり、プレイヤは、撮像情報演算部74の機能を阻害することなくコントローラ7を片手で把持することができる。ここで、コントローラ7が縦長形状であり、当該長手方向の端部前面に撮像情報演算部74の光入射口が配設されているため、撮像情報演算部74を利用してプレイヤがコントローラ7で指し示すような操作に好適である。一方、操作ボタン72iは、図12に示すようにプレイヤがコントローラ7を縦持ちしたとき、コントローラ7の凹部の後面側傾斜面に配設されているためにプレイヤの指で容易に操作できる。このように第2操作モードでは、プレイヤがコントローラ7を縦持ちで把持した状態で、撮像情報演算部74や操作部72を容易に操作することができる。   As described above, in the second operation mode, the controller 7 can easily operate the operation units 72 such as the operation buttons 72d and 72i in a state where the player holds with one hand. Further, when the player holds the controller 7 with one hand, the light incident port of the imaging information calculation unit 74 provided on the front surface of the controller 7 is exposed, so the infrared light from the two markers 8L and 8R described above. Can be easily taken in from the light entrance. That is, the player can hold the controller 7 with one hand without hindering the function of the imaging information calculation unit 74. Here, since the controller 7 has a vertically long shape, and the light incident port of the imaging information calculation unit 74 is disposed in front of the longitudinal end portion, the player uses the imaging information calculation unit 74 to control the player. It is suitable for the operation to point. On the other hand, when the player holds the controller 7 vertically as shown in FIG. 12, the operation button 72 i can be easily operated with the player's finger because it is disposed on the rear inclined surface of the concave portion of the controller 7. Thus, in the second operation mode, the imaging information calculation unit 74 and the operation unit 72 can be easily operated in a state where the player holds the controller 7 while holding the controller 7 vertically.

ここで、図13に示すように、マーカ8Lおよび8Rは、それぞれ視野角θ1を有している。また、撮像素子743は、視野角θ2を有している。例えば、マーカ8Lおよび8Rの視野角θ1は共に34°(半値角)であり、撮像素子743の視野角θ2は41°である。そして、撮像素子743の視野角θ2の中にマーカ8Lおよび8Rが共に存在し、マーカ8Lの視野角θ1の中でかつマーカ8Rの視野角θ1の中に撮像素子743が存在するとき、ゲーム装置3は、2つのマーカ8Lおよび8Rによる高輝度点に関する位置データを用いてコントローラ7の位置を算出する。   Here, as shown in FIG. 13, the markers 8L and 8R each have a viewing angle θ1. Further, the image sensor 743 has a viewing angle θ2. For example, the viewing angles θ1 of the markers 8L and 8R are both 34 ° (half-value angle), and the viewing angle θ2 of the image sensor 743 is 41 °. When the markers 8L and 8R are both present in the viewing angle θ2 of the imaging device 743, and the imaging device 743 is present in the viewing angle θ1 of the marker 8R and in the viewing angle θ1 of the marker 8R, the game device 3 calculates the position of the controller 7 using the position data relating to the high luminance point by the two markers 8L and 8R.

プレイヤがその前面がモニタ2に向くようにコントローラ7を把持することによって、撮像情報演算部74には2つのマーカ8Lおよび8Rが出力した赤外光が入射する。そして、赤外線フィルタ741およびレンズ742を介して、入射した赤外光を撮像素子743が撮像し、当該撮像画像を画像処理回路744が処理する。ここで、撮像情報演算部74では、マーカ8Lおよび8Rから出力される赤外線成分を検出することで、上記撮像画像における当該マーカ8Lおよび8Rの位置情報(対象画像の位置)や面積、直径、幅等のサイズ情報を取得する。具体的には、画像処理回路744は、撮像素子743が撮像した画像データを解析して、まず面積情報からマーカ8Lおよび8Rからの赤外光ではあり得ない画像を除外し、さらに輝度が高い点をマーカ8Lおよび8Rそれぞれの位置として判別する。そして、撮像情報演算部74は、判別されたそれらの輝点の重心位置等の位置情報を取得し、上記処理結果データとして出力する。ここで、上記処理結果データである位置情報は、撮像画像における所定の基準点(例えば、撮像画像の中央や左上隅)を原点とした座標値として出力するものでもよく、所定のタイミングにおける輝点位置を基準点として、当該基準位置からの現在の輝点位置の差をベクトルとして出力するものでもよい。つまり、上記対象画像の位置情報は、撮像素子743が撮像した撮像画像に対して所定の基準点を設定した場合に、当該基準点に対する差として用いられるパラメータである。このような位置情報をゲーム装置3へ送信することによって、ゲーム装置3では、基準からの上記位置情報の差に基づいて、マーカ8Lおよび8Rに対する撮像情報演算部74、すなわちコントローラ7の動き、姿勢、位置等に応じた信号の変化量を得ることができる。具体的には、コントローラ7が動かされることによって、通信部75から送信される画像内の高輝度点の位置が変化するため、高輝度点の位置の変化に対応させた方向入力や座標入力を行うことで、3次元空間に対してコントローラ7の移動方向に沿った方向入力や座標入力を行うことができる。なお、後述するゲーム処理動作例では、撮像情報演算部74が撮像画像におけるマーカ8Lおよび8Rの対象画像それぞれの重心位置の座標を少なくとも取得し、上記処理結果データとして出力する例を用いる。   When the player holds the controller 7 so that the front surface thereof faces the monitor 2, infrared light output from the two markers 8 </ b> L and 8 </ b> R enters the imaging information calculation unit 74. Then, the imaging device 743 captures the incident infrared light through the infrared filter 741 and the lens 742, and the image processing circuit 744 processes the captured image. Here, the imaging information calculation unit 74 detects the infrared component output from the markers 8L and 8R, whereby position information (position of the target image), area, diameter, and width of the markers 8L and 8R in the captured image. Get size information. Specifically, the image processing circuit 744 analyzes the image data captured by the image sensor 743, and first excludes images that cannot be infrared light from the markers 8L and 8R from the area information, and further increases the luminance. The point is determined as the position of each of the markers 8L and 8R. Then, the imaging information calculation unit 74 acquires position information such as the barycentric position of the determined bright spots and outputs it as the processing result data. Here, the position information as the processing result data may be output as a coordinate value with a predetermined reference point in the captured image (for example, the center or upper left corner of the captured image) as the origin, and a bright spot at a predetermined timing The position may be used as a reference point, and the difference in the current bright spot position from the reference position may be output as a vector. That is, the position information of the target image is a parameter used as a difference with respect to the reference point when a predetermined reference point is set for the captured image captured by the image sensor 743. By transmitting such position information to the game apparatus 3, in the game apparatus 3, based on the difference of the position information from the reference, the imaging information calculation unit 74 for the markers 8L and 8R, that is, the movement and posture of the controller 7 The amount of change in signal according to the position or the like can be obtained. Specifically, since the position of the high luminance point in the image transmitted from the communication unit 75 is changed by moving the controller 7, direction input or coordinate input corresponding to the change in the position of the high luminance point is performed. By doing so, it is possible to perform direction input and coordinate input along the moving direction of the controller 7 in the three-dimensional space. In the game processing operation example to be described later, an example is used in which the imaging information calculation unit 74 acquires at least the coordinates of the center of gravity of each of the target images of the markers 8L and 8R in the captured image and outputs it as the processing result data.

このように、コントローラ7の撮像情報演算部74によって、固定的に設置されたマーカ(実施例では、2つのマーカ8Lおよび8Rからの赤外光)を撮像することによって、ゲーム装置3におけるゲーム処理において、コントローラ7から出力されるデータを処理してコントローラ7の動き、姿勢、位置等に対応した操作が可能となり、ボタンを押下するような操作ボタンや操作キーとは異なった直感的な操作入力となる。また、上述したように上記マーカ8Lおよび8Rは、モニタ2の表示画面近傍に設置されているため、マーカ8Lおよび8Rに対する位置をモニタ2の表示画面に対するコントローラ7の動き、姿勢、位置等に換算することも容易に行うことができる。つまり、コントローラ7の動き、姿勢、位置等による処理結果データは、モニタ2の表示画面に直接作用する操作入力として用いることができる。したがって、第2操作モードでは、プレイヤがコントローラ7を把持した手をモニタ2の表示画面に対して動かすことによって、プレイヤの手の運動が表示画面に直接的に作用する操作入力を備えることができ、コントローラ7が表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスとして機能する。   As described above, the image processing unit 74 of the controller 7 captures a fixedly installed marker (in the embodiment, infrared light from the two markers 8L and 8R), thereby performing game processing in the game apparatus 3. In this case, the data output from the controller 7 is processed so that the operation corresponding to the movement, posture, position, etc. of the controller 7 can be performed. It becomes. Further, as described above, since the markers 8L and 8R are installed in the vicinity of the display screen of the monitor 2, the position with respect to the markers 8L and 8R is converted into the movement, posture, position, etc. of the controller 7 with respect to the display screen of the monitor 2. It is also easy to do. That is, the processing result data based on the movement, posture, position, and the like of the controller 7 can be used as an operation input that directly acts on the display screen of the monitor 2. Therefore, in the second operation mode, it is possible to provide an operation input in which the movement of the player's hand acts directly on the display screen by moving the hand holding the controller 7 with respect to the display screen of the monitor 2. The controller 7 functions as a pointing device that can output data for remotely designating coordinates on the display screen.

また、上記第1操作モードおよび第2操作モード何れにおいても、上述したようにコントローラ7に設けられた加速度センサ701からの出力(加速度データ)を用いることによって、コントローラ7の傾き、姿勢、または位置を決定することができる。つまり、プレイヤがコントローラ7を把持した手を上下左右等に動かすことによって、コントローラ7は、プレイヤの手の運動や向きに応じた操作入力手段として機能する。   Further, in any of the first operation mode and the second operation mode, by using the output (acceleration data) from the acceleration sensor 701 provided in the controller 7 as described above, the tilt, posture, or position of the controller 7 is used. Can be determined. That is, when the player moves his / her hand holding the controller 7 up / down / left / right, etc., the controller 7 functions as an operation input means corresponding to the movement and orientation of the player's hand.

また、本実施例のゲームでは、第1操作モードおよび第2操作モードに応じて、それぞれモニタ2に表示するゲーム画像(客観的画像、主観的画像)が切り替えられる。なお、客観的画像とは、プレイヤキャラクタおよびその周辺の仮想ゲーム空間を客観的に眺めた画像であり、主観的画像とは、プレイヤキャラクタから仮想ゲーム空間を主観的に見た画像である。   In the game of the present embodiment, the game images (objective image and subjective image) displayed on the monitor 2 are switched according to the first operation mode and the second operation mode. The objective image is an image obtained by objectively viewing the player character and the surrounding virtual game space, and the subjective image is an image obtained by subjectively viewing the virtual game space from the player character.

図14は、上記第1操作モードでモニタ2に表示される客観的画像の一例である。図15は、客観的画像を生成する際の仮想カメラCの位置をプレイヤキャラクタPの上方から見た俯瞰概略図である。図14に示すように、上記第1操作モードにおいて、上記処理結果データを除くコントローラ7から受信した操作情報(キーデータ、加速度データ)に応じて、モニタ2にアクションゲーム等が表現される。具体的には、上記第1操作モードでは、プレイヤキャラクタPの横方向(プレイヤキャラクタの向きを基準とする横方向、または、プレイヤキャラクタの進行方向を基準とする横方向)の比較的遠方に位置する仮想ゲーム空間内の視点からプレイヤキャラクタP(またはその付近)を注視点とした仮想ゲーム空間が、3次元のゲーム画像としてモニタ2に表現される(このゲーム画像を客観的画像と記載する)。そして、プレイヤが操作するプレイヤキャラクタPおよび敵キャラクタE等が仮想ゲーム空間Sに配置されてモニタ2に表現される。図14に示すように、上記第1操作モードで設定される客観的画像によれば、プレイヤキャラクタPの全身が表現され、当該プレイヤキャラクタPを含むゲーム世界を客観的に広く見渡した視界がゲーム画像で生成される。   FIG. 14 is an example of an objective image displayed on the monitor 2 in the first operation mode. FIG. 15 is a bird's-eye schematic view of the position of the virtual camera C when generating an objective image as viewed from above the player character P. As shown in FIG. 14, in the first operation mode, an action game or the like is represented on the monitor 2 in accordance with operation information (key data, acceleration data) received from the controller 7 excluding the processing result data. Specifically, in the first operation mode, the player character P is positioned relatively far in the lateral direction (the lateral direction with respect to the player character's orientation or the lateral direction with respect to the traveling direction of the player character). The virtual game space with the gazing point at the player character P (or its vicinity) from the viewpoint in the virtual game space to be displayed is represented on the monitor 2 as a three-dimensional game image (this game image is described as an objective image) . Then, a player character P, an enemy character E, and the like operated by the player are arranged in the virtual game space S and expressed on the monitor 2. As shown in FIG. 14, according to the objective image set in the first operation mode, the whole body of the player character P is represented, and a field of view over which the game world including the player character P is objectively widened is a game. Generated with images.

図15を用いて、客観的画像を生成する際の仮想カメラCのパラメータ設定の一例について説明する。空間Sには予めルートRが設定されており、プレイヤキャラクタPはルートR上を移動可能に設定されている。すなわち、十字キー72aの左を押下することにより、プレイヤキャラクタPはルートR上を左に進み、十字キー72aの右を押下することにより、プレイヤキャラクタPはルートR上を右に進む。そして、仮想カメラCの注視点は、空間SにおけるプレイヤキャラクタPの現在位置Ph(例えば、プレイヤキャラクタPにおける頭部の位置座標(xh,yh,zh))に設定される。なお、仮想カメラCの注視点を、現在位置Phからある距離だけ離れた点(例えば、プレイヤキャラクタPの前方方向または進行方向、やプレイヤキャラクタPによる攻撃方向(銃の向いている方向など))やルートR上に沿ってある距離だけ離れた点などに設定してもよい。ただし、この場合でも、仮想カメラCによって撮影されるゲーム空間の範囲に対して、上記ある距離が十分小さいことが好ましく、また、注視点からプレイヤキャラクタPまでの距離が、視点からプレイヤキャラクタPまでの距離よりも小さくするのが好ましい。   An example of parameter settings for the virtual camera C when generating an objective image will be described with reference to FIG. A route R is set in the space S in advance, and the player character P is set to be movable on the route R. That is, when the left side of the cross key 72a is pressed, the player character P moves on the route R to the left, and when the right side of the cross key 72a is pressed, the player character P moves on the route R to the right. The gazing point of the virtual camera C is set to the current position Ph of the player character P in the space S (for example, the position coordinates (xh, yh, zh) of the head of the player character P). Note that the point of sight of the virtual camera C is a point away from the current position Ph by a certain distance (for example, the forward direction or the traveling direction of the player character P, the attack direction by the player character P (the direction in which the gun is facing, etc.)) Or a point separated by a certain distance along the route R. However, even in this case, it is preferable that the certain distance is sufficiently small with respect to the range of the game space photographed by the virtual camera C, and the distance from the gazing point to the player character P is from the viewpoint to the player character P. It is preferable to make it smaller than the distance.

一方、仮想カメラCの視点は、プレイヤキャラクタPの位置Ph(xh,yh,zh)のそれぞれ(すなわち、ルートR上の点のそれぞれ)に対応して決定される仮想ゲーム空間の点Cph(xcp,ycp,zcp)を基準とし、プレイヤキャラクタPの方向(当該方向は、例えば、プレイヤキャラクタPの前方方向または進行方向であるが、プレイヤキャラクタPによる攻撃方向であってもよい)Pdに応じて当該基準からずれた位置に設定される。具体的には、視点から注視点までの方向および視点と注視点との距離のそれぞれが、ルートR上の点のそれぞれに対応して予め設定されており、位置Ph(xh,yh,zh)から当該位置に対応する上記方向に上記距離だけ離れた点を点Cph(xcp,ycp,zcp)とする。例えば、点Cphから注視点までの方向は、ルートRに対して垂直な水平方向に設定されている。また、点Cphと注視点との距離は、所定距離(例えば、プレイヤキャラクタPの肩幅など)の数倍(例えば、8倍程度)に設定されている。そして、仮想カメラCの視点は、プレイヤキャラクタPの方向Pd(当該方向は、例えば、プレイヤキャラクタPによる攻撃方向(プレイヤキャラクタPが所持する銃Gの銃口方向)であるが、プレイヤキャラクタの前方方向または進行方向であってもよい)と逆方向(つまり、後方)に点Cphから上記所定距離の数倍(例えば、5倍程度)ずらした位置に設定される。   On the other hand, the viewpoint of the virtual camera C is a point Cph (xcp) in the virtual game space determined corresponding to each position Ph (xh, yh, zh) of the player character P (that is, each point on the route R). , Ycp, zcp) based on the direction Pd of the player character P (the direction is, for example, the forward direction or the traveling direction of the player character P, but may be the attacking direction by the player character P). It is set at a position deviating from the reference. Specifically, the direction from the viewpoint to the gazing point and the distance between the gazing point and the gazing point are set in advance corresponding to each point on the route R, and the position Ph (xh, yh, zh) Let a point Cph (xcp, ycp, zcp) be a distance from the distance in the direction corresponding to the position by the distance. For example, the direction from the point Cph to the gazing point is set to a horizontal direction perpendicular to the route R. Further, the distance between the point Cph and the gazing point is set to several times (for example, about 8 times) a predetermined distance (for example, the shoulder width of the player character P). The viewpoint of the virtual camera C is the direction Pd of the player character P (the direction is, for example, the attack direction by the player character P (the muzzle direction of the gun G possessed by the player character P)), but the forward direction of the player character Alternatively, it may be set in a position shifted several times (for example, about 5 times) the predetermined distance from the point Cph in the opposite direction (that is, backward) to the traveling direction.

なお、仮想カメラCの視点を、点Cphに設定してもよい。また、本実施例では、プレイヤキャラクタPの位置のそれぞれ(ルートR上の点のそれぞれ)に対応して上述の方向と距離とが設定されるので、ゲーム空間の状況やゲームの状況に応じて、上述の方向や距離を任意に変更できる。ただし、上記方向や距離を固定して、例えば、ルートRの軌跡方向またはプレイヤキャラクタPの前方方向や進行方向を基準とする方向(略垂直な方向など)を視線方向としたり、視点から注視点までの距離を一定にしたりしてもよい。   Note that the viewpoint of the virtual camera C may be set to the point Cph. Further, in the present embodiment, the above-described direction and distance are set corresponding to each of the positions of the player character P (each of the points on the route R), so that depending on the situation of the game space and the situation of the game The above direction and distance can be arbitrarily changed. However, with the above direction and distance fixed, for example, a direction (such as a substantially vertical direction) based on the trajectory direction of the route R or the forward direction or the traveling direction of the player character P is used as the line-of-sight direction, or from the viewpoint. The distance up to may be made constant.

なお、上述した客観的画像における仮想カメラCの位置および方向は、第1操作モードにおける基本設定であり、第1操作モードにおけるコントローラ7への操作に応じて仮想カメラCが当該基本位置から移動することもある。ただし、第1操作モードでは、基本位置から移動したとしても、空間Sを比較的遠方からプレイヤキャラクタPの配置位置またはその近傍を注視点として客観的に広く見渡した画像を生成しており、本発明ではこのような画像を客観的画像と定義する。   Note that the position and direction of the virtual camera C in the objective image described above are basic settings in the first operation mode, and the virtual camera C moves from the basic position in response to an operation on the controller 7 in the first operation mode. Sometimes. However, in the first operation mode, even if the player moves from the basic position, an image is generated that is objectively overlooked from the distant position of the space S with the position of the player character P or the vicinity thereof as a gazing point. In the invention, such an image is defined as an objective image.

なお、上述ではプレイヤキャラクタPの横方向の比較的遠方を視点とし、プレイヤキャラクタPの現在位置を注視点として仮想空間を撮影したが、プレイヤキャラクタPの後方の比較的遠方を視点とし、プレイヤキャラクタPの現在位置を注視点として仮想ゲーム空間を撮影してもよい。また、上述では、主に、視点および注視点の水平面における位置について説明したが、視点および注視点の高さ方向の位置は、プレイヤキャラクタPの現在位置と一致していてもよいし、それより高い位置に設定してもよい(場合によっては低い位置に設置してもよい)。   In the above description, the virtual space is photographed with the viewpoint of a relatively far side of the player character P and the current position of the player character P as a gazing point. The virtual game space may be photographed with the current position of P as the gazing point. In the above description, the positions of the viewpoint and the gazing point in the horizontal plane have been mainly described. However, the positions of the viewpoint and the gazing point in the height direction may coincide with the current position of the player character P. It may be set at a high position (in some cases, it may be installed at a low position).

図16は、上記第2操作モードでモニタ2に表示される主観的画像の一例である。図17は、主観的画像を生成する際の仮想カメラCの位置をプレイヤキャラクタPの横から見た概略図である。図16に示すように、上記第2操作モードにおいて、コントローラ7から受信した操作情報(キーデータ、加速度データ、処理結果データ)に応じて、モニタ2にアクションゲーム等が表現される。具体的には、上記第2操作モードでは、空間Sを、当該プレイヤキャラクタPの位置とほぼ一致する仮想ゲーム空間内の視点から見た仮想ゲーム空間が3次元のゲーム画像としてモニタ2に表現される(このゲーム画像を主観的画像と記載する)。図16に示すように、上記第2操作モードで設定される主観的画像によれば、プレイヤキャラクタPの一部が表現され、当該プレイヤキャラクタPが空間Sを主観的に見ているような視界がゲーム画像で生成される。   FIG. 16 is an example of a subjective image displayed on the monitor 2 in the second operation mode. FIG. 17 is a schematic view of the position of the virtual camera C when the subjective image is generated as viewed from the side of the player character P. As shown in FIG. 16, in the second operation mode, an action game or the like is represented on the monitor 2 according to operation information (key data, acceleration data, processing result data) received from the controller 7. Specifically, in the second operation mode, the virtual game space viewed from the viewpoint in the virtual game space that substantially matches the position of the player character P is represented on the monitor 2 as a three-dimensional game image. (This game image is described as a subjective image). As shown in FIG. 16, according to the subjective image set in the second operation mode, a field of view in which a part of the player character P is represented and the player character P is subjectively looking at the space S. Is generated with a game image.

図17を用いて、主観的画像における仮想カメラCの位置の一例について説明する。仮想カメラCの注視点は、空間SにおけるプレイヤキャラクタPの位置Phを基準に、プレイヤキャラクタPの前方に設定される。具体的には、仮想カメラCの注視点の水平方向位置は、プレイヤキャラクタPにおける頭部の位置座標Ph(xh,yh,zh)から正面(プレイヤキャラクタPの前方方向または進行方向)に所定距離(例えば、プレイヤキャラクタPの肩幅)だけ離れた位置から、さらにプレイヤキャラクタPの攻撃方向(プレイヤキャラクタが所持する銃Gの銃口方向)に上記所定距離の数倍(例えば、4倍程度)ずらした位置(図示T1)に設定される。また、仮想カメラCの注視点の垂直方向位置は、位置座標Ph(xh,yh,zh)から下方に上記所定距離の数分の1(例えば、1/4程度)ずらした位置(図示T2)に設定される。   An example of the position of the virtual camera C in the subjective image will be described with reference to FIG. The gazing point of the virtual camera C is set in front of the player character P with reference to the position Ph of the player character P in the space S. Specifically, the horizontal position of the gazing point of the virtual camera C is a predetermined distance from the position coordinates Ph (xh, yh, zh) of the head of the player character P to the front (forward direction or traveling direction of the player character P). The position is further shifted by several times (for example, about 4 times) the predetermined distance from the position separated by (for example, the shoulder width of the player character P) in the attack direction of the player character P (muzzle direction of the gun G possessed by the player character). The position (T1 in the figure) is set. Further, the vertical position of the gazing point of the virtual camera C is a position (T2 in the figure) shifted downward from the position coordinates Ph (xh, yh, zh) by a fraction (for example, about 1/4) of the predetermined distance. Set to

一方、仮想カメラCの視点は、空間SにおけるプレイヤキャラクタPの位置Phを基準に、プレイヤキャラクタPの後方近傍に設定される。具体的には、仮想カメラCの視点の水平方向位置は、位置座標Ph(xh,yh,zh)から正面に上記所定距離だけ離れた位置から、プレイヤキャラクタPによる攻撃方向(プレイヤキャラクタPが所持する銃Gの銃口方向)の逆方向に上記所定距離の数倍(例えば、2倍程度)ずらした位置(図示V1;実質的には、位置座標Phから上記所定距離程度だけ後方に離れた位置)に設定される。また、仮想カメラCの視点の垂直方向位置は、位置座標Ph(xh,yh,zh)から上方にプレイヤキャラクタPの頭部の大きさ程度(上記所定距離の1/4程度)ずらした位置(図示V2)に設定される。なお、仮想カメラCの視点の水平方向位置を、上記V2の位置から、さらに、プレイヤキャラクタPの右方向または左方向(プレイヤキャラクタPの向いている方向または進行方向に対して直交右方向または直交左方向)に上記所定距離の半分程度だけずらした位置を視点に設定してもよい。また、第1操作モードにおいてルートR上を右方向に進行している状態で第2操作モードに切り替わったときは、プレイヤキャラクタPの上記直交右方向にずらし、第1操作モードにおいてルートR上を左方向に進行している状態で第2操作モードに切り替わったときは、プレイヤキャラクタPの上記直交左方向にずらしてもよい。   On the other hand, the viewpoint of the virtual camera C is set near the rear of the player character P with reference to the position Ph of the player character P in the space S. Specifically, the horizontal position of the viewpoint of the virtual camera C is determined by the player character P's attack direction (possibly possessed by the player character P from a position that is a predetermined distance away from the position coordinate Ph (xh, yh, zh) in front. A position shifted by several times (for example, about twice) the predetermined distance in the direction opposite to the muzzle direction of the gun G to be operated (illustrated V1; substantially, a position separated backward from the position coordinate Ph by the predetermined distance). ). Further, the vertical position of the viewpoint of the virtual camera C is shifted from the position coordinates Ph (xh, yh, zh) by about the size of the head of the player character P (about ¼ of the predetermined distance) ( V2) shown in the figure. Note that the horizontal position of the viewpoint of the virtual camera C is further changed from the position of V2 to the right or left direction of the player character P (rightward or orthogonal to the direction or direction of travel of the player character P). A position shifted by about half the predetermined distance in the left direction may be set as the viewpoint. In addition, when switching to the second operation mode while moving right on the route R in the first operation mode, the player character P is shifted to the right direction, and on the route R in the first operation mode. When the player character P is switched to the second operation mode while proceeding in the left direction, the player character P may be shifted in the left-right direction.

なお、図17において、プレイヤキャラクタPの頭部の位置Phから左右に延びる線は、プレイヤキャラクタPの視線方向(仮想カメラCの視線方向とは異なる)を示すものである。上述ではプレイヤキャラクタPの視線方向は水平方向であるとして説明したが、実際には、状況によってプレイヤキャラクタPの視線方向は上下に傾いた方向になる。プレイヤキャラクタPの視線方向が上下に傾いている場合、図17の当該左右に延びる線も傾いて、仮想カメラCの注視点は、当該左右に延びる線上の点(PhからT1だけ離れた点)から下方にT2だけずらした点となり、仮想カメラCの視点は、当該左右に延びる線上の点(PhからV1だけ離れた点)から上方にV2だけずらした点となる。   In FIG. 17, a line extending left and right from the position Ph of the head of the player character P indicates the line-of-sight direction of the player character P (different from the line-of-sight direction of the virtual camera C). In the above description, it has been described that the line-of-sight direction of the player character P is the horizontal direction. When the line-of-sight direction of the player character P is tilted up and down, the line extending left and right in FIG. 17 is also tilted, and the gazing point of the virtual camera C is a point on the line extending left and right (a point away from Ph by T1). The point of the virtual camera C is shifted downward by V2 from the point on the line extending left and right (the point separated from Ph by V1).

また、上述した主観的画像における仮想カメラCの位置および方向は、第2操作モードにおける基本設定であり、第2操作モードにおけるコントローラ7への操作に応じて仮想カメラCが当該基本位置から移動することもある。ただし、第2操作モードでは、基本位置から移動したとしても、プレイヤキャラクタPの位置の近傍または一致する位置を視点としており、本発明ではこのようなゲーム画像を主観的画像と定義する。   Further, the position and direction of the virtual camera C in the subjective image described above are basic settings in the second operation mode, and the virtual camera C moves from the basic position in response to an operation on the controller 7 in the second operation mode. Sometimes. However, in the second operation mode, even if the player character P is moved from the basic position, the position near or coincides with the position of the player character P is regarded as a viewpoint, and in the present invention, such a game image is defined as a subjective image.

図14と図16とを比較すれば明らかなように、客観的画像によるゲーム画像は、プレイヤキャラクタPの周辺の空間Sが広く見渡せるため、プレイヤキャラクタPが空間Sを移動するときに好適な画像である。一方、主観的画像によるゲーム画像は、プレイヤキャラクタPが空間Sを見ているような視界であるため、敵キャラクタEを銃Gでシューティングするようなシチュエーションで好適な画像である。さらに、プレイヤがコントローラ7を把持した手をモニタ2の表示画面に対して動かすことによって、照準カーソルTの位置(射撃位置)を直接的に指示し、操作ボタン72dや操作ボタン72i(図3参照)の押下に応じて、プレイヤキャラクタPが所持する銃Gが照準カーソルTに向かって射撃されるように制御することによって、あたかもプレイヤ自身が敵キャラクタEを射撃しているような操作感覚が得られる。   As apparent from a comparison between FIG. 14 and FIG. 16, the game image based on the objective image is a suitable image when the player character P moves in the space S because the space S around the player character P can be widely viewed. It is. On the other hand, the game image based on the subjective image is an image suitable for the situation where the enemy character E is shot with the gun G because the player character P is in the field of view as if looking at the space S. Further, the position of the aiming cursor T (shooting position) is directly indicated by moving the hand holding the controller 7 by the player with respect to the display screen of the monitor 2, and the operation buttons 72d and 72i (see FIG. 3). ) Is controlled so that the gun G possessed by the player character P is fired toward the aiming cursor T, thereby obtaining an operational feeling as if the player is shooting the enemy character E. It is done.

次に、ゲームシステム1において行われるゲーム処理の詳細を説明する。まず、図18〜図20を参照して、ゲーム処理において用いられる主なデータについて説明する。なお、図18は、ゲーム装置3のメインメモリ33に記憶される主なプログラムおよびデータの一例を示す図である。図19は、メインメモリ33に記憶される第1操作テーブルデータDc4の一例を示す図である。図20は、メインメモリ33に記憶される第2操作テーブルデータDc5の一例を示す図である。   Next, the details of the game process performed in the game system 1 will be described. First, main data used in the game process will be described with reference to FIGS. FIG. 18 is a diagram illustrating an example of main programs and data stored in the main memory 33 of the game apparatus 3. FIG. 19 is a diagram illustrating an example of the first operation table data Dc4 stored in the main memory 33. FIG. 20 is a diagram illustrating an example of the second operation table data Dc5 stored in the main memory 33.

図18に示すように、メインメモリ33には、ゲームプログラムGP、操作情報Da、操作状態情報Db、およびゲーム情報Dc等が記憶される。なお、メインメモリ33には、図18に示す情報に含まれるデータの他、ゲームに登場するプレイヤキャラクタに関する他のデータ、敵キャラクタのデータ、およびゲーム空間に関するデータ(地形データ等)等、ゲーム処理に必要なデータが記憶される。   As shown in FIG. 18, the main memory 33 stores a game program GP, operation information Da, operation state information Db, game information Dc, and the like. In the main memory 33, in addition to the data included in the information shown in FIG. 18, other data related to the player character appearing in the game, enemy character data, and game space data (terrain data, etc.) Necessary data is stored.

ゲームプログラムGPは、CPU30が処理に必要なプログラムを光ディスク4から読み出して適宜記憶するものであり、ゲーム処理(後述するステップ50〜ステップ94)を定義するプログラムである。このゲームプログラムGPの実行開始によってゲーム処理が開始される。   The game program GP is a program that the CPU 30 reads a program necessary for processing from the optical disc 4 and stores it appropriately, and is a program that defines game processing (step 50 to step 94 described later). Game processing is started by the start of execution of the game program GP.

操作情報Daは、コントローラ7から送信データとして送信されてくる一連の操作情報であり、最新の操作情報に更新される。操作情報Daには、上述の処理結果データに相当する第1座標データDa1および第2座標データDa2が含まれる。第1座標データDa1は、撮像素子743が撮像した撮像画像に対して、2つのマーカ8Lおよび8Rのうちの一方の画像の位置(撮像画像内における位置)を表す座標のデータである。第2座標データDa2は、他方のマーカの画像の位置(撮像画像内における位置)を表す座標のデータである。例えば、マーカの画像の位置は、撮像画像におけるXY座標系によって表される。   The operation information Da is a series of operation information transmitted as transmission data from the controller 7, and is updated to the latest operation information. The operation information Da includes first coordinate data Da1 and second coordinate data Da2 corresponding to the processing result data described above. The first coordinate data Da1 is coordinate data representing the position (position in the captured image) of one of the two markers 8L and 8R with respect to the captured image captured by the image sensor 743. The second coordinate data Da2 is coordinate data representing the position of the image of the other marker (position in the captured image). For example, the position of the marker image is represented by an XY coordinate system in the captured image.

また、操作情報Daには、撮像画像から得られる処理結果データの一例の座標データ(第1座標データDa1および第2座標データDa2)の他、操作部72から得られるキーデータDa3および加速度センサ701から得られる加速度データDa4等が含まれる。なお、ゲーム装置3に備える受信ユニット6は、コントローラ7から所定間隔例えば5msごとに送信される操作情報Daを受信し、受信ユニット6に備える図示しないバッファに蓄えられる。その後、ゲーム処理間隔である例えば1フレーム毎(1/60秒)に読み出され、その最新の情報がメインメモリ33に記憶される。   The operation information Da includes coordinate data (first coordinate data Da1 and second coordinate data Da2) as an example of processing result data obtained from the captured image, as well as key data Da3 and acceleration sensor 701 obtained from the operation unit 72. The acceleration data Da4 obtained from the above is included. The receiving unit 6 provided in the game apparatus 3 receives operation information Da transmitted from the controller 7 at a predetermined interval, for example, every 5 ms, and is stored in a buffer (not shown) provided in the receiving unit 6. Thereafter, the game processing interval is read, for example, every frame (1/60 seconds), and the latest information is stored in the main memory 33.

操作状態情報Dbは、コントローラ7の操作状態を撮像画像に基づいて判断した情報である。操作状態情報Dbは、撮像画像に含まれる対象画像(マーカ)の位置や向きから得られるデータであり、具体的には、方向データDb1、中点データDb2、スクリーン座標データDb3、チェックカウンタデータDb4、および有効フラグデータDb5等を含む。方向データDb1は、第1座標データDa1から第2座標データDa2への方向を示すデータである。例えば、方向データDb1は、第1座標データDa1の位置を始点とし第2座標データDa2の位置を終点とするベクトルのデータとする。中点データDb2は、第1座標データDa1と第2座標データDa2との中点の座標を示す。ここで、2つのマーカ(マーカ8Lおよび8R)の画像を1つの対象画像としてみた場合、中点データDb2は、対象画像の位置を示すことになる。スクリーン座標データDb3は、モニタ2の表示画面に対してコントローラ7が指し示している位置を示すスクリーン座標系の位置データであり、方向データDb1および中点データDb2を用いて算出される。チェックカウンタデータDb4は、チェックカウンタ値CCを示すデータである。チェックカウンタ値CCは、コントローラ7が指し示している位置が連続して所定範囲内であった回数を正の整数で示し、連続して所定範囲外であった回数を負の整数で示す。有効フラグデータDb5は、有効フラグfの状態を示すデータである。有効フラグfは、コントローラ7からの処理結果データをゲーム処理に用いることが可能な状態であるときに有効(true)に設定され、処理結果データをゲーム処理に用いることができない状態であるときに無効(false)に設定される。   The operation state information Db is information obtained by determining the operation state of the controller 7 based on the captured image. The operation state information Db is data obtained from the position and orientation of the target image (marker) included in the captured image. Specifically, the direction data Db1, the midpoint data Db2, the screen coordinate data Db3, and the check counter data Db4. And valid flag data Db5 and the like. The direction data Db1 is data indicating a direction from the first coordinate data Da1 to the second coordinate data Da2. For example, the direction data Db1 is vector data having the position of the first coordinate data Da1 as the start point and the position of the second coordinate data Da2 as the end point. The midpoint data Db2 indicates the coordinates of the midpoint between the first coordinate data Da1 and the second coordinate data Da2. Here, when the images of two markers (markers 8L and 8R) are viewed as one target image, the midpoint data Db2 indicates the position of the target image. The screen coordinate data Db3 is position data in the screen coordinate system indicating the position indicated by the controller 7 with respect to the display screen of the monitor 2, and is calculated using the direction data Db1 and the midpoint data Db2. The check counter data Db4 is data indicating the check counter value CC. The check counter value CC indicates the number of times that the position indicated by the controller 7 is continuously within a predetermined range by a positive integer, and indicates the number of times that the position is continuously outside the predetermined range by a negative integer. The valid flag data Db5 is data indicating the state of the valid flag f. The valid flag f is set to true when the processing result data from the controller 7 can be used for game processing, and when the processing result data cannot be used for game processing. Set to invalid.

ゲーム情報Dcは、指示位置データDc1、プレイヤキャラクタ位置データDc2、仮想カメラデータDc3、第1操作テーブルデータDc4、第2操作テーブルデータDc5、および画像データDc6等が含まれる。指示位置データDc1は、スクリーン座標データDb3に基づいて、表示画面に表示される仮想3次元ゲーム画像上において、当該スクリーン座標に対応する(重なる)仮想ゲーム空間の位置を示す座標データである。プレイヤキャラクタ位置データDc2は、プレイヤキャラクタPが配置される仮想ゲーム空間の位置を示す座標データである。仮想カメラデータDc3は、仮想カメラCが配置される仮想ゲーム空間の視点位置および視線方向を示すデータである。第1操作テーブルデータDc4および第2操作テーブルデータDc5は、第1操作モードおよび第2操作モードでそれぞれ操作手段に対応するゲーム制御処理内容を示すデータである。画像データDc6は、プレイヤキャラクタ画像データ、他のキャラクタ画像データ、背景画像データ等を含み、仮想ゲーム空間にプレイヤキャラクタや他のキャラクタを配置してゲーム画像を生成するためのデータである。   The game information Dc includes designated position data Dc1, player character position data Dc2, virtual camera data Dc3, first operation table data Dc4, second operation table data Dc5, image data Dc6, and the like. The designated position data Dc1 is coordinate data indicating the position of the virtual game space corresponding to (overlapping with) the screen coordinates on the virtual three-dimensional game image displayed on the display screen based on the screen coordinate data Db3. The player character position data Dc2 is coordinate data indicating the position of the virtual game space where the player character P is placed. The virtual camera data Dc3 is data indicating the viewpoint position and line-of-sight direction of the virtual game space where the virtual camera C is arranged. The first operation table data Dc4 and the second operation table data Dc5 are data indicating game control process contents corresponding to the operation means in the first operation mode and the second operation mode, respectively. The image data Dc6 includes player character image data, other character image data, background image data, and the like, and is data for arranging a player character and other characters in the virtual game space to generate a game image.

図19を参照して、第1操作テーブルデータDc4の一例について説明する。第1操作テーブルデータDc4は、上述した第1操作モードにおいてプレイヤの操作に対応したゲーム制御処理内容が記述された第1操作テーブルを示すデータである。例えば、第1操作テーブルには、プレイヤが十字キー(操作ボタン72a)の上下方向の突出片(コントローラ7を横持ちするとプレイヤから見て左右方向の突出片)を押下することに応じて、仮想ゲーム空間をプレイヤキャラクタPが左右に移動することが記述されている。プレイヤが十字キーの左方向の突出片(コントローラ7を横持ちするとプレイヤから見て下方向の突出片)を押下することに応じて、仮想ゲーム空間でプレイヤキャラクタPがしゃがむ動作をすることが記述されている。プレイヤが1番ボタン(操作ボタン72b)を押下することに応じて、プレイヤキャラクタPが第1ビームを撃つことが記述されている。プレイヤが1番ボタンを所定時間継続して押下(長押し)した後、1番ボタンの押下をやめる(離す、リリースする)ことに応じて、プレイヤキャラクタPがチャージした後に第1ビームを撃つことが記述されている。プレイヤが十字キーの右方向の突出片(コントローラ7を横持ちするとプレイヤから見て上方向の突出片)を押下しながら、1番ボタンを押下することに応じて、プレイヤキャラクタPが第1ビームとは異なった第2ビームを撃つことが記述されている。プレイヤが2番ボタン(操作ボタン72c)を押下することに応じて、仮想ゲーム空間をプレイヤキャラクタPがジャンプすることが記述されている。プレイヤがAボタン(操作ボタン72d)を押下することに応じて、仮想カメラCとプレイヤキャラクタPとの距離を長くすることが記述されている。そして、加速度データDa4を用いて算出されたコントローラ7の傾きに応じて、プレイヤキャラクタPが所持する銃Gの銃口方向(プレイヤキャラクタPの攻撃方向であり、弾の発射方向)を変更することが記述されている(すなわち、弾の発射方向パラメータが決定される)。具体的には、たとえば、横持ち時にコントローラの左端を上に持ち上げたとき、弾の発射方向がプレイヤキャラクタの位置から左上方向になるように設定される。   An example of the first operation table data Dc4 will be described with reference to FIG. The first operation table data Dc4 is data indicating a first operation table in which game control processing content corresponding to the player's operation is described in the first operation mode described above. For example, in the first operation table, the virtual key is displayed in response to the player pressing down a vertical protruding piece of the cross key (operation button 72a) (a horizontal protruding piece when viewed from the player when the controller 7 is held sideways). It is described that the player character P moves left and right in the game space. It is described that the player character P crouches in the virtual game space in response to the player pressing the left-side protruding piece of the cross key (when the controller 7 is held sideways, the downward protruding piece as viewed from the player). Has been. It is described that the player character P shoots the first beam in response to the player pressing the first button (the operation button 72b). Shooting the first beam after the player character P is charged in response to the player depressing (long-pressing) the No. 1 button for a predetermined time (stopping and releasing) the No. 1 button. Is described. In response to the player pressing the first button while pressing the right-side protruding piece of the cross key (the protruding piece upward when viewed from the player when the controller 7 is held sideways), the player character P receives the first beam. It is described to shoot a second beam different from. It is described that the player character P jumps in the virtual game space in response to the player pressing the second button (the operation button 72c). It is described that the distance between the virtual camera C and the player character P is increased in response to the player pressing the A button (operation button 72d). Then, according to the inclination of the controller 7 calculated using the acceleration data Da4, the muzzle direction of the gun G possessed by the player character P (the attack direction of the player character P and the bullet firing direction) can be changed. Has been described (ie, the bullet firing direction parameter is determined). Specifically, for example, when the left end of the controller is lifted upward while being held sideways, the bullet firing direction is set to be the upper left direction from the position of the player character.

なお、本実施例では、後述の通り、プレイヤキャラクタPはルートR上を移動するので、プレイヤキャラクタPの移動制御は、十字キーの左右方向のみでおこなうが、プレイヤキャラクタPがルートR上に限らず自由に移動できる場合には、十字キーの上下方向の指示でプレイヤキャラクタPを他の方向へ移動させてもよい。   In this embodiment, as will be described later, since the player character P moves on the route R, the movement control of the player character P is performed only in the left and right direction of the cross key, but the player character P is limited to the route R. If the player character P can move freely, the player character P may be moved in the other direction by an instruction in the up / down direction of the cross key.

図20を参照して、第2操作テーブルデータDc5の一例について説明する。第2操作テーブルデータDc5は、上述した第2操作モードにおいてプレイヤの操作に対応したゲーム制御処理内容が記述された第2操作テーブルを示すデータである。例えば、第2操作テーブルには、プレイヤがコントローラ7で指し示したスクリーン座標の位置に照準カーソルTを移動させることが記述されている(なお、照準カーソルTは射撃位置を示すものであり、照準カーソルTを移動することによって弾の発射方向パラメータが決定される。より具体的には、照準カーソルTに対応する仮想ゲーム空間内の位置とプレイヤキャラクタの位置を結ぶ方向が発射方向パラメータとして設定される)。プレイヤがBボタン(操作ボタン72i)を押下しながらコントローラ7でゲーム画像の周辺領域を指し示すことに応じて、仮想カメラCの方向を変更することが記述されている。プレイヤがAボタンを押下することに応じて、プレイヤキャラクタPが第1ビームを撃つことが記述されている。プレイヤがAボタンを長押しした後、Aボタンを離すことに応じて、プレイヤキャラクタPがチャージした後に第1ビームを撃つことが記述されている。プレイヤがAボタンおよびBボタンを押下した後、Aボタンのみ離すことに応じて、プレイヤキャラクタPが第1ミサイルを撃つことが記述されている。プレイヤがAボタンおよびBボタンを押下した後、Aボタンを長押しして離すことに応じて、プレイヤキャラクタPが第1ミサイルとは異なった第2ミサイルを撃つことが記述されている。   An example of the second operation table data Dc5 will be described with reference to FIG. The second operation table data Dc5 is data indicating a second operation table in which game control processing content corresponding to the player's operation is described in the second operation mode described above. For example, the second operation table describes that the player moves the aiming cursor T to the position of the screen coordinates pointed by the controller 7 (the aiming cursor T indicates the shooting position, and the aiming cursor T The bullet firing direction parameter is determined by moving T. More specifically, the direction connecting the position in the virtual game space corresponding to the aiming cursor T and the position of the player character is set as the firing direction parameter. ). It is described that the direction of the virtual camera C is changed in response to the player pointing the peripheral area of the game image with the controller 7 while pressing the B button (operation button 72i). It is described that the player character P shoots the first beam in response to the player pressing the A button. It is described that the player character P shoots the first beam after charging when the player presses the A button for a long time and then releases the A button. It is described that the player character P shoots the first missile in response to releasing only the A button after the player presses the A button and the B button. It is described that the player character P shoots a second missile different from the first missile in response to a long press and release of the A button after the player presses the A button and the B button.

加速度データDa4を用いて算出されたコントローラ7の動きが振り上げる動作の場合、仮想ゲーム空間をプレイヤキャラクタPがジャンプすることが記述されている。加速度データDa4を用いて算出されたコントローラ7の動きが手前に引く動作の場合、仮想ゲーム空間をプレイヤキャラクタPが振り返ることが記述されている。そして、プレイヤがBボタンを押下している間、仮想カメラCの視点がプレイヤキャラクタPの頭部に移動する(すなわち、前述のPhの位置に移動する)ことが記述されている。また、プレイヤがコントローラ7で仮想ゲーム空間(疑似3次元画像)を照準カーソルTにより指し示した状態で、Aボタンを押しながら、コントローラ7を上に振り上げた後振り下ろす動作をした場合、当該照準カーソルTで指し示された仮想ゲーム空間内の位置に対して第1ビームとは異なった第2ビームを撃つ(または、先端に鎖のついたチェーンなどの武器が飛んでいくようにしてもよい)ことが記述されている。この場合、Aボタンを押すことで、後述のステップ84の判断がYESとなり、その後コントローラ7の振り上げによりコントローラ7で指し示されたスクリーン座標系の位置座標が所定範囲内でなくなったとしても、客観的画像への切り替えや第1操作モードへの切り替えがおこらない。   It is described that the player character P jumps in the virtual game space when the motion of the controller 7 calculated using the acceleration data Da4 is a swinging motion. It is described that the player character P looks back in the virtual game space when the movement of the controller 7 calculated using the acceleration data Da4 is a pulling action. It is described that the viewpoint of the virtual camera C moves to the head of the player character P (that is, moves to the position Ph described above) while the player presses the B button. Further, when the player moves the controller 7 up and down while holding down the A button while pointing the virtual game space (pseudo three-dimensional image) with the aiming cursor T on the controller 7, the aiming cursor Shoot a second beam different from the first beam at the position in the virtual game space pointed to by T (or a weapon such as a chain with a chain at the tip may fly) It is described. In this case, by pressing the A button, the determination in step 84 described later becomes YES, and even if the position coordinates of the screen coordinate system pointed to by the controller 7 are not within the predetermined range due to the swing of the controller 7, the objective is Switching to the target image and switching to the first operation mode are not performed.

なお、本実施例では、照準カーソルTの位置に対応する仮想ゲーム空間の位置に弾が発射されるように制御するが、変形例では、照準カーソルTの位置に対応する仮想ゲーム空間の位置に向かってプレイヤキャラクタPが移動するように制御しても良い。   In the present embodiment, control is performed so that bullets are fired at the position of the virtual game space corresponding to the position of the aiming cursor T. You may control so that the player character P moves toward.

第1操作テーブルおよび第2操作テーブルを比較すれば明らかなように、それぞれ操作手段に対応するゲーム制御処理内容が異なっている。例えば、プレイヤがAボタンを押下することに応じて、第1操作テーブルでは仮想カメラCの位置が変更されるが、第2操作テーブルではプレイヤキャラクタPが第1ビームを撃つ。また、第1操作テーブルでは撮像情報演算部74からの処理結果データやBボタンを用いる処理が記述されていない。これは、第1操作モードではプレイヤがコントローラ7を横持ちするためにBボタンを押下しにくい状態にあり、また撮像情報演算部74がマーカ8Lおよび8Rを撮像できない状態にあるため、プレイヤがそれらの操作手段を用いることが困難になるからである。このように、第1操作テーブルおよび第2操作テーブルには、プレイヤがコントローラ7を把持する方向やコントローラ7が指し示す方向によって切り替わる操作モードに応じて、プレイヤの操作に好適なゲーム制御内容が記述される。   As is apparent from a comparison between the first operation table and the second operation table, the game control process contents corresponding to the operation means are different. For example, in response to the player pressing the A button, the position of the virtual camera C is changed in the first operation table, but the player character P shoots the first beam in the second operation table. In the first operation table, the processing result data from the imaging information calculation unit 74 and the process using the B button are not described. This is because, in the first operation mode, the player holds the controller 7 sideways, so that it is difficult to press the B button, and the imaging information calculation unit 74 cannot capture the markers 8L and 8R. This is because it is difficult to use the operation means. Thus, in the first operation table and the second operation table, game control content suitable for the player's operation is described in accordance with the operation mode switched according to the direction in which the player holds the controller 7 or the direction indicated by the controller 7. The

次に、図21および図22を参照して、ゲーム装置3において行われるゲーム処理の詳細を説明する。なお、図21は、ゲーム装置3において実行されるゲーム処理の前半の流れを示すフローチャートである。図22は、ゲーム装置3において実行されるゲーム処理の後半の流れを示すフローチャートである。なお、図21および図22に示すフローチャートにおいては、ゲーム処理のうち、コントローラ7を用いた操作モードの切り替えに関するゲーム処理について主に説明し、本願発明と直接関連しない他のゲーム処理については詳細な説明を省略する。また、図21および図22では、CPU30が実行する各ステップを「S」と略称する。   Next, with reference to FIG. 21 and FIG. 22, the details of the game process performed in the game apparatus 3 will be described. FIG. 21 is a flowchart showing the first half of the game process executed in the game apparatus 3. FIG. 22 is a flowchart showing the second half of the game process executed in the game apparatus 3. In the flowcharts shown in FIG. 21 and FIG. 22, the game process relating to the switching of the operation mode using the controller 7 is mainly described among the game processes, and the other game processes not directly related to the present invention are described in detail. Description is omitted. 21 and 22, each step executed by the CPU 30 is abbreviated as “S”.

ゲーム装置3の電源が投入されると、ゲーム装置3のCPU30は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ33等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムがメインメモリ33に読み込まれ、CPU30によって当該ゲームプログラムの実行が開始される。図21および図22に示すフローチャートは、以上の処理が完了した後に行われるゲーム処理を示すフローチャートである。   When the power of the game apparatus 3 is turned on, the CPU 30 of the game apparatus 3 executes a startup program stored in a boot ROM (not shown), thereby initializing each unit such as the main memory 33. Then, the game program stored in the optical disc 4 is read into the main memory 33, and the CPU 30 starts executing the game program. The flowcharts shown in FIG. 21 and FIG. 22 are flowcharts showing the game process performed after the above process is completed.

図21において、CPU30は、ゲーム処理の初期設定を行い(ステップ50)、処理を次のステップに進める。例えば、CPU30は、チェックカウンタ値CCを0に設定してチェックカウンタデータDb4として記憶させる。また、CPU30は、有効フラグfをfalseに設定して有効フラグデータDb5として記憶させる。   In FIG. 21, the CPU 30 performs an initial setting of the game process (step 50), and advances the process to the next step. For example, the CPU 30 sets the check counter value CC to 0 and stores it as check counter data Db4. Further, the CPU 30 sets the valid flag f to false and stores it as valid flag data Db5.

次に、CPU30は、コントローラ7から受信した操作情報を取得して(ステップ51)、処理を次のステップに進める。そして、CPU30は、操作情報を操作情報Daとしてメインメモリ33に記憶する。ここで、ステップ51で取得される操作情報には、マーカ8Lおよび8Rの撮像画像内における位置を示す座標データ(第1座標データDa1および第2座標データDa2)の他、コントローラ7の操作部72がどのように操作されたか示すデータ(キーデータDa3)、および加速度センサ701が検出した加速度を示すデータ(加速度データDa4)が含まれている。ここでは、通信部75は、所定の時間間隔(例えば5ms間隔)で操作情報をゲーム装置3へ送信する。そして、CPU30は、1フレーム毎に操作情報を利用するものとする。したがって、図21および図22に示すステップ51〜ステップ94の処理ループは、1フレーム毎に繰り返し実行される。   Next, the CPU 30 acquires the operation information received from the controller 7 (step 51), and advances the processing to the next step. Then, the CPU 30 stores the operation information as operation information Da in the main memory 33. Here, the operation information acquired in step 51 includes coordinate data (first coordinate data Da1 and second coordinate data Da2) indicating the positions of the markers 8L and 8R in the captured image, and the operation unit 72 of the controller 7. Includes data (key data Da3) indicating how the data is operated, and data (acceleration data Da4) indicating the acceleration detected by the acceleration sensor 701. Here, the communication unit 75 transmits the operation information to the game apparatus 3 at a predetermined time interval (for example, at an interval of 5 ms). The CPU 30 uses operation information for each frame. Therefore, the processing loop from step 51 to step 94 shown in FIGS. 21 and 22 is repeatedly executed for each frame.

次に、CPU30は、コントローラ7から有効な処理結果データ(第1座標データDa1および第2座標データDa2)が得られているか否かを判断する(ステップ52)。例えば、CPU30は、第1座標データDa1および第2座標データDa2の少なくとも一方が最新の座標情報に更新されている場合(つまり、撮像情報演算部74がマーカ8Lおよび8Rの少なくとも一方を撮像している場合)、有効な処理結果データが得られていると判断する。そして、CPU30は、有効な処理結果データが得られている場合、処理を次のステップ53に進める。一方、CPU30は、有効な処理結果データが得られていない場合、処理を次のステップ58に進める。   Next, the CPU 30 determines whether valid processing result data (first coordinate data Da1 and second coordinate data Da2) is obtained from the controller 7 (step 52). For example, the CPU 30 captures at least one of the markers 8L and 8R when at least one of the first coordinate data Da1 and the second coordinate data Da2 is updated to the latest coordinate information (that is, the imaging information calculation unit 74 captures at least one of the markers 8L and 8R). It is determined that valid processing result data is obtained. Then, when valid process result data is obtained, the CPU 30 advances the process to the next step 53. On the other hand, if valid process result data is not obtained, the CPU 30 advances the process to the next step 58.

ステップ53において、CPU30は、上記ステップ51で取得した操作情報を用いてスクリーン座標系の位置座標を算出してスクリーン座標データDb3として格納し(ステップ51)、処理を次のステップ54に進める。以下、操作情報を用いてスクリーン座標を算出する一例について詳述する。   In step 53, the CPU 30 calculates the position coordinate of the screen coordinate system using the operation information acquired in step 51 and stores it as screen coordinate data Db3 (step 51), and advances the process to the next step 54. Hereinafter, an example of calculating the screen coordinates using the operation information will be described in detail.

上記ステップ53において、CPU30は、第1座標データDa1から第2座標データDa2への方向データDb1を算出する。具体的には、CPU30は、第1座標データDa1および第2座標データDa2を参照して、第1座標データDa1の位置を始点とし第2座標データDa2の位置を終点とするベクトルを算出する。そして、CPU30は、算出されたベクトルのデータを、方向データDb1としてメインメモリ33に記憶する。方向データDb1と所定の基準方向との差によって、コントローラ7の撮像面に垂直な方向を軸とする回転を算出することができる。   In step 53, the CPU 30 calculates direction data Db1 from the first coordinate data Da1 to the second coordinate data Da2. Specifically, the CPU 30 refers to the first coordinate data Da1 and the second coordinate data Da2, and calculates a vector having the position of the first coordinate data Da1 as the start point and the position of the second coordinate data Da2 as the end point. Then, the CPU 30 stores the calculated vector data in the main memory 33 as the direction data Db1. Based on the difference between the direction data Db1 and a predetermined reference direction, rotation about the direction perpendicular to the imaging surface of the controller 7 can be calculated.

また、CPU30は、第1座標データDa1と第2座標データDa2との中点を示す中点データDb2を算出する。具体的には、CPU30は、第1座標データDa1および第2座標データDa2を参照して、当該中点の座標を算出する。そして、CPU30は、算出された中点の座標のデータを、中点データDb2としてメインメモリ33に記憶する。ここで、中点データDb2は、撮像画像内における対象画像(マーカ8Lおよび8R)の位置を示している。中点データDb2と所定の基準位置との差によって、コントローラ7の位置の変化による画像位置の変化を算出することができる。   Further, the CPU 30 calculates midpoint data Db2 indicating the midpoint between the first coordinate data Da1 and the second coordinate data Da2. Specifically, the CPU 30 refers to the first coordinate data Da1 and the second coordinate data Da2, and calculates the coordinates of the midpoint. Then, the CPU 30 stores the calculated midpoint coordinate data in the main memory 33 as the midpoint data Db2. Here, the midpoint data Db2 indicates the position of the target image (markers 8L and 8R) in the captured image. The change in the image position due to the change in the position of the controller 7 can be calculated from the difference between the midpoint data Db2 and the predetermined reference position.

ここで、マーカ8Lおよび8Rと、モニタ2の表示画面と、コントローラ7との位置関係について考える。例えば、モニタ2の上面に2つのマーカ8Lおよび8Rを設置し(図10参照)、上面が上方向を向いたコントローラ7を用いてプレイヤがモニタ2の表示画面の中央を指し示した場合(撮像情報演算部74の撮像画像の中央に表示画面中央が撮像されている状態)を考える。このとき、撮像情報演算部74の撮像画像において、対象画像の中点(マーカ8Lおよび8Rの中点)位置と指し示した位置(表示画面中央)とが一致しない。具体的には、上記撮像画像における対象画像の位置は撮像画像の中心から上方の位置となる。このような位置に対象画像が位置する場合に、表示画面中央を指し示しているという基準位置の設定を行う。一方、コントローラ7の移動に対応して、撮像画像中の対象画像の位置も移動する(移動方向は逆方向となる)ので、撮像画像中の対象画像の位置の移動に対応させて表示画面を指し示す位置を移動させる処理を行うことによって、コントローラ7で指し示された表示画面基準の位置(スクリーン座標系の位置座標)を算出することができる。ここで、基準位置の設定は、予めプレイヤが表示画面の所定位置を指し示し、そのときの対象画像の位置を当該所定位置と対応させて記憶しておくようにしてもよいし、対象画像と表示画面との位置関係が固定的であれば、予め設定されていても良い。また、マーカ8Lおよび8Rが、モニタ2とは別体で設けられてモニタ2の近く(モニタ2の上や下など)に載置されて使用されるものである場合には、ゲーム開始前に、マーカ8Lおよび8Rをモニタに対してどの位置に載置しているかをプレイヤに入力させ(例えば、モニタ2の上に載置したか下に載置したか等の選択肢から選択させ)、光ディスク4やゲーム装置3の内蔵不揮発メモリなどに、モニタの上に載置した場合の基準位置データと、モニタの下に載置した場合の基準位置データをそれぞれ記憶しておいて、それらを選択して使用してもよい。このようなスクリーン座標系の位置座標は、中点データDb2からモニタ2の表示画面基準の座標(スクリーン座標データDb3)を算出する関数を用いた線形変換で算出される。この関数は、ある撮像画像から算出される中点座標の値を、当該撮像画像が撮像される時のコントローラ7によって指し示される表示画面上の位置(スクリーン座標系の位置座標)を表す座標に変換するものである。この関数によって、中点座標から表示画面を基準とした指し示し位置を算出することができる。   Here, the positional relationship among the markers 8L and 8R, the display screen of the monitor 2, and the controller 7 will be considered. For example, when two markers 8L and 8R are installed on the upper surface of the monitor 2 (see FIG. 10) and the player points to the center of the display screen of the monitor 2 using the controller 7 whose upper surface is directed upward (imaging information) Consider a state in which the center of the display screen is imaged in the center of the captured image of the calculation unit 74. At this time, in the captured image of the imaging information calculation unit 74, the position of the middle point (middle point of the markers 8L and 8R) of the target image does not match the position (center of the display screen). Specifically, the position of the target image in the captured image is a position above the center of the captured image. When the target image is located at such a position, a reference position is set such that the center of the display screen is pointed. On the other hand, the position of the target image in the captured image is also moved in accordance with the movement of the controller 7 (the movement direction is the reverse direction), so the display screen is displayed in correspondence with the movement of the position of the target image in the captured image. By performing the process of moving the indicated position, the display screen reference position (position coordinate in the screen coordinate system) indicated by the controller 7 can be calculated. Here, for setting the reference position, the player may point in advance to a predetermined position on the display screen, and the position of the target image at that time may be stored in association with the predetermined position. If the positional relationship with the screen is fixed, it may be set in advance. Further, when the markers 8L and 8R are provided separately from the monitor 2 and are placed and used near the monitor 2 (eg, above or below the monitor 2), before the game starts Then, the player inputs the position where the markers 8L and 8R are placed with respect to the monitor (for example, selected from options such as placed on or below the monitor 2), and the optical disc. 4 and the built-in non-volatile memory of the game apparatus 3 store reference position data when placed on the monitor and reference position data when placed under the monitor, respectively, and select them. May be used. The position coordinates of such a screen coordinate system are calculated by linear conversion using a function for calculating the display screen reference coordinates (screen coordinate data Db3) of the monitor 2 from the midpoint data Db2. This function converts the value of the midpoint coordinate calculated from a certain captured image into coordinates representing the position on the display screen (position coordinate in the screen coordinate system) indicated by the controller 7 when the captured image is captured. To convert. With this function, the pointing position based on the display screen can be calculated from the midpoint coordinates.

しかしながら、上面が上方向以外(例えば、右方向)を向いたコントローラ7を用いてプレイヤがモニタ2の表示画面の中央を指し示した場合、上記撮像画像における対象画像の位置は撮像画像の中心から上方以外(例えば、左方)の方向にずれた位置となる。つまり、コントローラ7の傾きによって、コントローラ7の移動方向と、表示画面基準の指し示し位置の移動方向が一致しないことになる。そこで、方向データDb1に基づいて、中点データDb2を補正する。具体的には、中点データDb2を、コントローラ7の上面が上方向を向いた状態であるとした場合における中点座標に補正する。より具体的には、上記基準位置の設定の際には方向データの基準も設定され、ステップ64で算出された中点データDb2を、方向データDb1と当該基準方向との角度差に応じた量だけ、撮像画像の中心を軸として中点データDb2が示す座標を回転移動させて補正する。そして、補正された中点データDb2を用いて上述したようにスクリーン座標データDb3を算出する。   However, when the player points to the center of the display screen of the monitor 2 using the controller 7 whose upper surface is other than upward (for example, rightward), the position of the target image in the captured image is above the center of the captured image. The position is shifted in a direction other than (for example, left). That is, due to the inclination of the controller 7, the movement direction of the controller 7 does not match the movement direction of the display screen reference position. Therefore, the midpoint data Db2 is corrected based on the direction data Db1. Specifically, the midpoint data Db2 is corrected to the midpoint coordinates when the upper surface of the controller 7 is in the upward direction. More specifically, when the reference position is set, the direction data reference is also set, and the midpoint data Db2 calculated in step 64 is an amount corresponding to the angle difference between the direction data Db1 and the reference direction. Thus, the coordinates indicated by the midpoint data Db2 are rotated and corrected around the center of the captured image. Then, the screen coordinate data Db3 is calculated as described above using the corrected midpoint data Db2.

図21に戻り、ステップ54において、CPU30は、スクリーン座標系の位置座標が所定範囲内か否かを判断する。そして、CPU30は、位置座標が所定範囲内である場合、処理を次のステップ55に進める。一方、CPU30は、位置座標が所定範囲外である場合、処理を次のステップ58に進める。ここで、上記所定範囲は、コントローラ7が指し示した位置が検出可能な範囲内であれば、どのような範囲でもよい。例えば、検出可能な範囲がモニタ2の表示画面より大きな領域である場合、上記所定範囲を表示画面と同じ範囲に指定してもいいし、表示画面より大きな範囲に指定してもかまわない。また、表示画面の一部を上記所定範囲に指定してもかまわない。   Returning to FIG. 21, in step 54, the CPU 30 determines whether or not the position coordinates of the screen coordinate system are within a predetermined range. If the position coordinates are within the predetermined range, the CPU 30 advances the process to the next step 55. On the other hand, if the position coordinates are outside the predetermined range, the CPU 30 advances the process to the next step 58. Here, the predetermined range may be any range as long as the position indicated by the controller 7 is within a detectable range. For example, when the detectable range is an area larger than the display screen of the monitor 2, the predetermined range may be specified as the same range as the display screen, or may be specified as a range larger than the display screen. Further, a part of the display screen may be specified within the predetermined range.

ステップ55において、CPU30は、チェックカウンタデータDb4として記憶されているチェックカウンタ値CCが0未満か否かを判断する。そして、CPU30は、チェックカウンタ値CCが0未満である場合、チェックカウンタ値CCを0に設定して(ステップ56)、処理を次のステップ57に進める。一方、CPU30は、チェックカウンタ値CCが0以上である場合、そのまま処理を次のステップ57に進める。そして、CPU30は、ステップ57において現在のチェックカウンタ値CCに1を加算してチェックカウンタデータDb4を更新し、処理を次のステップ61に進める。   In step 55, the CPU 30 determines whether or not the check counter value CC stored as the check counter data Db4 is less than zero. If the check counter value CC is less than 0, the CPU 30 sets the check counter value CC to 0 (step 56), and proceeds to the next step 57. On the other hand, when the check counter value CC is 0 or more, the CPU 30 proceeds to the next step 57 as it is. Then, the CPU 30 adds 1 to the current check counter value CC in step 57 to update the check counter data Db4, and advances the processing to the next step 61.

一方、有効な処理結果データが得られていない場合(上記ステップ52でNo)およびスクリーン座標系の位置座標が所定範囲外である場合(上記ステップ54でNo)、CPU30は、処理をステップ58に進める。ステップ58において、CPU30は、チェックカウンタデータDb4として記憶されているチェックカウンタ値CCが0より大きいか否かを判断する。そして、CPU30は、チェックカウンタ値CCが0より大きい場合、チェックカウンタ値CCを0に設定して(ステップ59)、処理を次のステップ60に進める。一方、CPU30は、チェックカウンタ値CCが0以下である場合、そのまま処理を次のステップ60に進める。そして、CPU30は、ステップ60において現在のチェックカウンタ値CCから1を減算してチェックカウンタデータDb4を更新し、処理を次のステップ61に進める。   On the other hand, when valid processing result data is not obtained (No in Step 52) and when the position coordinates of the screen coordinate system are outside the predetermined range (No in Step 54), the CPU 30 proceeds to Step 58. Proceed. In step 58, the CPU 30 determines whether or not the check counter value CC stored as the check counter data Db4 is greater than zero. If the check counter value CC is greater than 0, the CPU 30 sets the check counter value CC to 0 (step 59), and proceeds to the next step 60. On the other hand, if the check counter value CC is 0 or less, the CPU 30 proceeds to the next step 60 as it is. In step 60, the CPU 30 subtracts 1 from the current check counter value CC to update the check counter data Db4, and advances the processing to the next step 61.

次に、CPU30は、チェックカウンタデータDb4に記憶されているチェックカウンタ値CCが2より大きいか否か(ステップ61)、およびチェックカウンタ値CCが−8以下か否か(ステップ63)を判断する。そして、CPU30は、チェックカウンタ値CCが2より大きい場合(ステップ61でYes)、有効フラグfをtrueに設定して有効フラグデータDb5として記憶させて(ステップ62)、処理を次のステップ81(図22)に進める。また、CPU30は、チェックカウンタ値CCが−8以下である場合(ステップ63でYes)、有効フラグfをfalseに設定して有効フラグデータDb5として記憶させて(ステップ64)、処理を次のステップ81に進める。また、CPU30は、チェックカウンタ値CCが−8より大きく2以下である場合(ステップ61およびステップ63が何れもNo)、そのまま処理を次のステップ81に進める。   Next, the CPU 30 determines whether or not the check counter value CC stored in the check counter data Db4 is larger than 2 (step 61) and whether or not the check counter value CC is −8 or less (step 63). . If the check counter value CC is larger than 2 (Yes in step 61), the CPU 30 sets the valid flag f to true and stores it as valid flag data Db5 (step 62), and the process proceeds to the next step 81 ( Proceed to FIG. On the other hand, when the check counter value CC is -8 or less (Yes in Step 63), the CPU 30 sets the valid flag f to false and stores it as the valid flag data Db5 (Step 64). Proceed to 81. On the other hand, when the check counter value CC is larger than −8 and equal to or smaller than 2 (both Step 61 and Step 63 are No), the CPU 30 proceeds to the next Step 81 as it is.

上記ステップ52〜ステップ64の処理から明らかなように、スクリーン座標系の位置座標が所定範囲外から所定範囲内に移動したときにチェックカウンタ値CCが0に設定され、連続して、再度スクリーン座標系の位置座標が所定範囲内であることが確認できたときに有効フラグfがtrueに設定される。そして、スクリーン座標系の位置座標が所定範囲内である限り、有効フラグfがtrueとなる。一方、スクリーン座標系の位置座標が所定範囲内から所定範囲外に移動したときにチェックカウンタ値CCが0に設定され、その後連続して7回の処理周期でスクリーン座標系の位置座標が所定範囲外であることが確認されたときに有効フラグfがfalseに設定される。そして、スクリーン座標系の位置座標が所定範囲外である限り、有効フラグfがfalseとなる。つまり、有効フラグfがfalseからtrueへの変化に対して、有効フラグfがtrueからfalseへの変化が遅いことになる。したがって、後述により明らかとなるが、第1操作モードから第2操作モードへは移行が早く、第2操作モードから第1操作モードへは移行が遅い設定となっている。   As is clear from the processing in steps 52 to 64 above, the check counter value CC is set to 0 when the position coordinate of the screen coordinate system moves from outside the predetermined range to within the predetermined range, and the screen coordinates are continuously displayed again. When it is confirmed that the position coordinates of the system are within the predetermined range, the valid flag f is set to true. As long as the position coordinates of the screen coordinate system are within the predetermined range, the valid flag f is true. On the other hand, the check counter value CC is set to 0 when the position coordinate of the screen coordinate system moves from within the predetermined range to outside the predetermined range, and then the position coordinate of the screen coordinate system is continuously set within the predetermined range in seven processing cycles. When it is confirmed that it is outside, the valid flag f is set to false. As long as the position coordinates in the screen coordinate system are outside the predetermined range, the valid flag f is false. That is, the change of the valid flag f from true to false is slower than the change of the valid flag f from false to true. Therefore, as will be apparent later, the transition from the first operation mode to the second operation mode is fast, and the transition from the second operation mode to the first operation mode is slow.

図22において、ステップ81でCPU30は、有効フラグデータDb5として記憶されている有効フラグfがfalseか否かを判断する。そして、CPU30は、有効フラグfがfalseである場合、現在、客観的画像であるか否か(ステップ82)、特殊な動作中であるか否か(ステップ83)、特殊な操作中であるか否か(ステップ84)、および加速度変化量が閾値以上か否か(ステップ85)をそれぞれ判断して、ステップ82〜ステップ85が何れもNoである場合、処理を次のステップ86に進める。一方、CPU30は、有効フラグfがtrueである場合、またはステップ83〜ステップ85の少なくとも1つの判断がYesである場合、処理を次のステップ88に進める。また、CPU30は、ステップ82の判断がYesである場合、処理を次のステップ92に進める。   In FIG. 22, in step 81, the CPU 30 determines whether or not the validity flag f stored as the validity flag data Db5 is false. When the valid flag f is false, the CPU 30 determines whether the current image is an objective image (step 82), whether a special operation is being performed (step 83), and whether a special operation is being performed. Whether or not (step 84) and whether or not the acceleration change amount is greater than or equal to a threshold value (step 85) are determined, respectively, and if step 82 to step 85 are all No, the process proceeds to the next step 86. On the other hand, if the valid flag f is true, or if at least one of the determinations in steps 83 to 85 is Yes, the CPU 30 advances the process to the next step 88. On the other hand, if the determination in step 82 is Yes, the CPU 30 advances the process to the next step 92.

ステップ86において、CPU30は、第2操作モードから第1操作モードに移行し、客観的画像(図14および図15参照)に切り替えた仮想カメラCの位置および方向を算出して仮想カメラデータDc3に記憶する。なお、客観的画像における仮想カメラCの位置および方向については、図14および図15を用いて説明した方法と同様であるため、ここでは詳細な説明を省略する。そして、CPU30は、ゲーム制御処理に用いる操作テーブルを第2操作テーブルから第1操作テーブル(図19参照)に切り替えて(ステップ87)、処理を次のステップ92に進める。   In step 86, the CPU 30 shifts from the second operation mode to the first operation mode, calculates the position and direction of the virtual camera C switched to the objective image (see FIGS. 14 and 15), and generates the virtual camera data Dc3. Remember. Note that the position and direction of the virtual camera C in the objective image are the same as those described with reference to FIGS. 14 and 15, and thus detailed description thereof is omitted here. Then, the CPU 30 switches the operation table used for the game control process from the second operation table to the first operation table (see FIG. 19) (step 87), and advances the process to the next step 92.

一方、CPU30は、有効フラグfがtrueである場合、またはステップ83〜ステップ85の少なくとも1つの判断がYesである場合、現在、主観的画像であるか否か(ステップ88)および特殊な動作中であるか否か(ステップ89)をそれぞれ判断する。そして、ステップ88およびステップ89の判断が何れもNoである場合、処理を次のステップ90に進める。一方、CPU30は、ステップ88およびステップ89の少なくとも1つの判断がYesである場合、処理を次のステップ92に進める。   On the other hand, when the valid flag f is true, or when at least one of the determinations in steps 83 to 85 is Yes, the CPU 30 determines whether the current image is a subjective image (step 88) and is in a special operation. Whether or not (step 89). If the determinations at step 88 and step 89 are both No, the process proceeds to the next step 90. On the other hand, if at least one of the determinations in step 88 and step 89 is Yes, the CPU 30 advances the process to the next step 92.

ステップ90において、CPU30は、第1操作モードから第2操作モードに移行し、主観的画像(図16および図17参照)に切り替えて仮想カメラCの位置および方向を算出して仮想カメラデータDc3に記憶する。なお、主観的画像における仮想カメラCの位置および方向については、図16および図17を用いて説明した方法と同様であるため、ここでは詳細な説明を省略する。そして、CPU30は、ゲーム制御処理に用いる操作テーブルを第1操作テーブルから第2操作テーブル(図20参照)に切り替えて(ステップ91)、処理を次のステップ92に進める。   In step 90, the CPU 30 shifts from the first operation mode to the second operation mode, switches to a subjective image (see FIGS. 16 and 17), calculates the position and direction of the virtual camera C, and generates virtual camera data Dc3. Remember. Note that the position and direction of the virtual camera C in the subjective image are the same as those described with reference to FIGS. 16 and 17, and thus detailed description thereof is omitted here. Then, the CPU 30 switches the operation table used for the game control process from the first operation table to the second operation table (see FIG. 20) (step 91), and advances the process to the next step 92.

ステップ92において、CPU30は、現在対象となっている第1操作テーブルまたは第2操作テーブルを用いて、上記ステップ51で取得した操作情報に応じたゲーム制御処理を行い、処理を次のステップに進める。CPU30は、操作情報Daとして更新されて格納されているキーデータDa3および加速度データDa4と、操作状態情報Dbとして更新されて格納されているスクリーン座標データDb3および指示位置データDc1とを用いて、プレイヤキャラクタPにアクションや移動をさせたり、仮想カメラCを移動させたりする。ここで、ステップ92で用いる操作テーブルは、第1操作モードおよび第2操作モードによってそれぞれ異なるため、それぞれの操作手段に対応するゲーム制御処理の内容が異なることになる。したがって、プレイヤは、それぞれの操作モードに応じてコントローラ7を操作してゲームをコントロールすることができる。   In step 92, the CPU 30 performs a game control process according to the operation information acquired in step 51 using the first operation table or the second operation table that is currently targeted, and advances the process to the next step. . The CPU 30 uses the key data Da3 and acceleration data Da4 updated and stored as the operation information Da, and the screen coordinate data Db3 and pointing position data Dc1 updated and stored as the operation state information Db. An action or movement is performed on the character P, or the virtual camera C is moved. Here, since the operation table used in step 92 is different depending on the first operation mode and the second operation mode, the contents of the game control process corresponding to each operation means are different. Therefore, the player can control the game by operating the controller 7 in accordance with each operation mode.

また、第2操作モードにおいて、上記ステップ53で算出したスクリーン座標系の位置座標をゲーム空間内における位置を表す座標に変換する場合には、当該スクリーン座標系における位置に対応するゲーム空間内における位置にさらに変換すればよい。ここで、スクリーン座標系における位置に対応するゲーム空間内における位置とは、モニタ2の表示画面上における位置に表示されるゲーム空間内における位置(例えば、透視投影される位置)やスクリーン座標系の位置座標から直接的に指定されるゲーム空間の3次元座標値等である。   In the second operation mode, when the position coordinate in the screen coordinate system calculated in step 53 is converted into a coordinate representing the position in the game space, the position in the game space corresponding to the position in the screen coordinate system. Can be further converted to. Here, the position in the game space corresponding to the position in the screen coordinate system is a position in the game space displayed at a position on the display screen of the monitor 2 (for example, a position projected through) or a position in the screen coordinate system. It is a three-dimensional coordinate value of the game space that is directly specified from the position coordinates.

上記スクリーン座標データDb3の算出処理の本質的な原理は、コントローラ7の移動による対象画像の位置の変化によって、指し示された2次元座標の所定の基準位置からの変位を算出し、座標を設定するというものである。したがって、スクリーン座標系の位置座標は、他の2次元座標の入力としても幅広く用いることができる。例えば、スクリーン座標系の位置座標をワールド座標系におけるx座標およびy座標の値として直接的に用いることができる。この場合、モニタ2の表示画面とは無関係に、対象画像の移動をワールド座標系におけるx座標およびy座標の基準位置からの移動に対応付ける算出処理を行えばよい。また、2次元のゲーム画像がモニタ2に表示されている場合などは、スクリーン座標系の位置座標をそのまま2次元のゲーム座標系におけるx座標およびy座標の値として直接的に用いることができる。   The essential principle of the calculation process of the screen coordinate data Db3 is that the displacement of the indicated two-dimensional coordinates from the predetermined reference position is calculated by setting the coordinates by changing the position of the target image by the movement of the controller 7. It is to do. Therefore, the position coordinates in the screen coordinate system can be widely used as input for other two-dimensional coordinates. For example, the position coordinates in the screen coordinate system can be used directly as the x and y coordinate values in the world coordinate system. In this case, a calculation process for associating the movement of the target image with the movement of the x coordinate and the y coordinate from the reference position in the world coordinate system may be performed regardless of the display screen of the monitor 2. Further, when a two-dimensional game image is displayed on the monitor 2, the position coordinates in the screen coordinate system can be directly used as the values of the x coordinate and the y coordinate in the two-dimensional game coordinate system.

次に、CPU30は、仮想カメラCを視点とした仮想ゲーム空間を描画し、モニタ2にゲーム画像を表示して(ステップ93)、処理を次のステップに進める。ここで、仮想ゲーム空間の仮想カメラCは、現在の操作モードに応じてプレイヤキャラクタPに対する客観的画像または主観的画像となるようにパラメータが設定される。そして、プレイヤの操作に応じて、仮想カメラCの配置位置を調整してゲーム画像を生成する。   Next, the CPU 30 draws a virtual game space with the virtual camera C as a viewpoint, displays a game image on the monitor 2 (step 93), and advances the processing to the next step. Here, the parameters are set so that the virtual camera C in the virtual game space becomes an objective image or a subjective image with respect to the player character P according to the current operation mode. And according to a player's operation, the arrangement position of virtual camera C is adjusted and a game picture is generated.

例えば、第2操作モードにおいてプレイヤがコントローラ7の1番ボタン(操作ボタン72b)を押下している場合、プレイヤキャラクタPの頭部を視点とする主観的画像の位置に仮想カメラCが配置される。   For example, when the player is pressing the first button (operation button 72b) of the controller 7 in the second operation mode, the virtual camera C is arranged at the position of the subjective image with the head of the player character P as the viewpoint. .

また、第2操作モードにおいてプレイヤがコントローラ7のBボタン(操作ボタン72i)を押下しながら、コントローラ7で指し示す位置(照準カーソルTの位置)を移動した場合に、当該照準カーソルTの位置がゲーム画像の周辺領域(例えば、図16に示すの表示画像内の周辺領域A、または、表示画像外の周辺領域)に入ったとき、または、当該照準カーソルTが当該周辺領域に入っている状態で、Bボタンを押下した場合には、当該照準カーソルTの位置に応じた仮想ゲーム空間の位置がモニタ2の表示画面に表示されるような方向に仮想カメラCの方向を変化させる(このとき、仮想カメラCの視点位置は変更しなくてもよい)。すなわち、照準カーソルTがゲーム画像の上部領域にあるときには、仮想カメラCの方向を現在の方向よりも上向きに変更し、下部領域にあるときには、現在の方向より下向きに変更し、右部領域にあるときには、現在の方向よりも右向きに変更し、左部領域にあるときには、現在の方向よりも左向きに変更する(つまり、プレイヤがコントローラ7で表示画面外を指し示した方向にゲーム画像がスクロールするようにモニタ2に表示される。)。なお、この状態において(すなわち、Bボタンを押しながら照準カーソルが当該周辺領域に入ったとき、または、照準カーソルが当該周辺領域に入っている状態でBボタンを押したときに、仮想カメラCの方向が変化している状態において)、さらに、コントローラ7で指し示す位置がゲーム画像外または表示画面外または検出不能になったときは、Bボタンが押され続けている限り、当該周辺領域において最後に照準カーソルが存在していた領域(上部/下部/左部/右部)に応じて上方向/下方向/左方向/右方向に仮想カメラの方向を変化させ続けても良い。   In the second operation mode, when the player moves the position indicated by the controller 7 (the position of the aiming cursor T) while pressing the B button (the operation button 72i) of the controller 7, the position of the aiming cursor T is the game position. When entering the peripheral area of the image (for example, the peripheral area A in the display image shown in FIG. 16 or the peripheral area outside the display image) or in a state where the aiming cursor T is in the peripheral area. When the B button is pressed, the direction of the virtual camera C is changed so that the position of the virtual game space corresponding to the position of the aiming cursor T is displayed on the display screen of the monitor 2 (at this time, It is not necessary to change the viewpoint position of the virtual camera C). That is, when the aiming cursor T is in the upper area of the game image, the direction of the virtual camera C is changed upward from the current direction. When the aiming cursor T is in the lower area, the direction is changed downward from the current direction to the right area. In some cases, the current direction is changed to the right, and in the left area, the current direction is changed to the left (that is, the game image is scrolled in a direction in which the player points outside the display screen with the controller 7). As shown on the monitor 2). In this state (that is, when the aiming cursor enters the peripheral area while pressing the B button, or when the B button is pressed while the aiming cursor is in the peripheral area, the virtual camera C In addition, when the position indicated by the controller 7 is outside the game image, outside the display screen, or becomes undetectable, as long as the B button continues to be pressed, The direction of the virtual camera may be continuously changed in the upward / downward / leftward / rightward direction according to the region (upper / lower / left / right) where the aiming cursor was present.

ここで、上述したゲーム画像がスクロールする状態は、後述から明らかとなるがステップ84でYesと判断されてコントローラ7が上記所定範囲外を指し示しているにもかかわらず第2操作モードから第1操作モードへの移行がされない状態である。つまり、この状態は、プレイヤにコントローラ7で上記所定範囲外を指し示しているのに第1操作モードに移行しない不安を与えることが考えられる。例えば、プレイヤがBボタンを押下した状態でコントローラ7を縦持ちから横持ちへ変更した場合、この事態が顕著となる。しかしながら、コントローラ7の下面凹部に設けられたBボタンは、コントローラ7を横持ちするとプレイヤの指から強制的に離れる(図9参照)ため、上記不安を与える事態を自然に避けることができる。   Here, the state in which the above-described game image is scrolled will be apparent from the following, but the first operation is started from the second operation mode in spite of being determined Yes in step 84 and indicating that the controller 7 is outside the predetermined range. The mode is not changed. That is, this state may give the player anxiety that the controller 7 does not shift to the first operation mode even though the controller 7 points outside the predetermined range. For example, this situation becomes conspicuous when the player changes the controller 7 from vertical holding to horizontal holding while pressing the B button. However, since the B button provided in the recess on the lower surface of the controller 7 is forcibly separated from the player's finger when the controller 7 is held sideways (see FIG. 9), it is possible to naturally avoid the above-mentioned anxiety.

次に、CPU30は、ゲームを終了するか否かを判断する(ステップ94)。ゲームを終了する条件としては、例えば、ゲームオーバーとなる条件(例えば、プレイヤキャラクタPの体力を示すパラメータが0になったこと等)が満たされたことや、プレイヤがゲームを終了する操作を行ったこと等がある。CPU30は、ゲームを終了しない場合に上記ステップ51(図21)に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。   Next, the CPU 30 determines whether or not to end the game (step 94). As a condition for ending the game, for example, a condition for game over (for example, a parameter indicating the physical strength of the player character P becomes 0) is satisfied, or the player performs an operation to end the game. There are things. CPU30 returns to the said step 51 (FIG. 21) when not ending a game, and repeats a process, and complete | finishes the process by the said flowchart, when a game is complete | finished.

ここで、上述した各ステップ81〜ステップ85の具体的内容について説明する。上記ステップ83〜ステップ85が実行される条件は、有効フラグfがfalseで主観的画像である状態である。つまり、コントローラ7で指し示されたスクリーン座標系の位置座標が所定範囲内にない状態(例えば、プレイヤがコントローラ7の前面をモニタ2に向けていない)でありながら、仮想カメラCの視点が主観的画像に設定されている状態である。具体的には、特殊な動作中、特殊な操作中、および加速度変化量が閾値以上のときは、第2操作モードから第1操作モードへの移行および主観的画像から客観的画像への移行を行わない。   Here, the specific contents of the above-described steps 81 to 85 will be described. The condition for executing the above steps 83 to 85 is a state where the valid flag f is false and the image is a subjective image. That is, the viewpoint of the virtual camera C is subjective while the position coordinate of the screen coordinate system pointed to by the controller 7 is not within the predetermined range (for example, the player does not point the front of the controller 7 at the monitor 2). This is the state set for the target image. Specifically, during a special operation, during a special operation, and when the amount of change in acceleration is equal to or greater than a threshold value, the transition from the second operation mode to the first operation mode and the transition from the subjective image to the objective image are performed. Not performed.

上記ステップ83の条件である特殊な動作中とは、第2操作モードにおいて仮想ゲーム空間でプレイヤキャラクタPが特殊な動作をしている途中であることを示しており、例えば、加速度センサの振り上げ入力により仮想ゲーム空間においてプレイヤキャラクタPがジャンプ中の状態や、Aボタンの長押によりビームチャージ中の状態等である。なお、ジャンプ中の状態を判定する場合、ジャンプ動作が完了するまで「動作中」と判定してもよいし、ジャンプ動作が完了してしばらくの間も含めて「動作中」と判定してもよいし、ジャンプ動作の途中までの所定期間のみ「動作中」と判定してもよい。また、上記ステップ84の条件である特殊な操作中とは、第2操作モードにおいてプレイヤがコントローラ7を用いた特殊な操作をしている途中であることを示しており、例えば、プレイヤがBボタン(操作ボタン72i)や1番ボタン(操作ボタン72b)を押下している操作中であることを示している。ここで、図20に示したように、第2操作モードでプレイヤがBボタンを押下しているときは、ゲーム画像をスクロールするように表示している状態や、他のボタン操作の組み合わせによって操作する途中段階であることが多い。また、第2操作モードでプレイヤが1番ボタンを押下しているときは、視点がプレイヤキャラクタPの頭部に移動している状態である。これらの例のように、特殊な動作中や特殊な操作中に操作モードや視点を強制的に切り替えると、プレイヤの操作が強制的にキャンセルされたり、視点の切り替えに無理があるゲーム画面の変更になったりすることによって、操作に混乱が生じることがある。このようなモード変更を防止するために、動作中および操作中においてモード切り替えを一部制限している。   The special action that is the condition of step 83 indicates that the player character P is performing a special action in the virtual game space in the second operation mode. Thus, a state in which the player character P is jumping in the virtual game space, a state in which beam charging is performed by long-pressing the A button, and the like. When determining the state during the jump, it may be determined as “in operation” until the jump operation is completed, or may be determined as “in operation” for a while after the jump operation is completed. Alternatively, it may be determined as “in operation” only for a predetermined period until the middle of the jump operation. The special operation being the condition of step 84 indicates that the player is in the middle of performing a special operation using the controller 7 in the second operation mode. This indicates that the operation button (operation button 72i) or the first button (operation button 72b) is being pressed. Here, as shown in FIG. 20, when the player presses the B button in the second operation mode, the operation is performed depending on the state in which the game image is displayed to be scrolled or a combination of other button operations. Often in the middle of Further, when the player is pressing the first button in the second operation mode, the viewpoint is moving to the head of the player character P. As in these examples, if the operation mode or viewpoint is forcibly switched during a special operation or special operation, the player's operation is forcibly canceled or the game screen changes that are impossible for viewpoint switching May cause confusion in the operation. In order to prevent such a mode change, mode switching is partly restricted during operation and operation.

上記ステップ85の条件である加速度変化量が閾値以上のときとは、加速度センサ701が検出したX、Y、およびZ軸方向の加速度を合成した変化量が予め設定された閾値以上を示しているときである(なお、所定成分が閾値以上であることを検出してもよい)。例えば、第2操作モードにおいて、プレイヤがコントローラ7全体を移動させることによって操作しているとき(例えば、コントローラ7を振り上げる等)、コントローラ7で指し示している位置が上述した所定範囲から逸脱することもある。この所定範囲からの逸脱に応じて、第2操作モードから第1操作モードへ移行してしまうと、プレイヤの操作に混乱が生じる。また、コントローラ7で指し示す位置が上記所定範囲から逸脱することなくコントローラ7全体を移動させることは、非常に困難となる。したがって、このようなモード変更を防止するために、コントローラ7全体をプレイヤが移動させているときは、加速度センサ701が検出するX、Y、およびZ軸方向の加速度の変化量の何れかが大きくなることを利用して、コントローラ7の移動中はモード変更が行われないように制御している。   When the acceleration change amount that is the condition of step 85 is equal to or greater than a threshold value, the change amount obtained by combining the accelerations in the X, Y, and Z axis directions detected by the acceleration sensor 701 is equal to or greater than a preset threshold value. (It may be detected that the predetermined component is equal to or greater than the threshold). For example, when the player is operating by moving the entire controller 7 in the second operation mode (for example, swinging up the controller 7), the position indicated by the controller 7 deviates from the predetermined range described above. There is also. If the second operation mode is shifted to the first operation mode in accordance with the deviation from the predetermined range, the player's operation is confused. Further, it is very difficult to move the entire controller 7 without the position indicated by the controller 7 deviating from the predetermined range. Therefore, in order to prevent such a mode change, when the player moves the entire controller 7, any of the X, Y, and Z axis direction acceleration changes detected by the acceleration sensor 701 is large. Thus, control is performed so that the mode is not changed while the controller 7 is moving.

また、上述した各ステップ81、ステップ88、およびステップ89の具体的内容について説明する。上記ステップ89が実行される条件は、有効フラグfがtrueで客観的画像である状態である。つまり、コントローラ7で指し示されたスクリーン座標系の位置座標が所定範囲内にある状態(例えば、プレイヤがコントローラ7の前面をモニタ2に向けている)でありながら、仮想カメラCの視点が客観的画像に設定されている状態である。具体的には、特殊な動作中のときは、第1操作モードから第2操作モードへの移行および客観的画像から主観的画像への移行を行わない。   In addition, the specific contents of the above-described steps 81, 88, and 89 will be described. The condition for executing step 89 is a state where the valid flag f is true and the image is an objective image. In other words, the viewpoint of the virtual camera C is objective while the position coordinates of the screen coordinate system pointed to by the controller 7 are in a predetermined range (for example, the player points the front of the controller 7 toward the monitor 2). This is the state set for the target image. Specifically, during a special operation, the transition from the first operation mode to the second operation mode and the transition from the objective image to the subjective image are not performed.

上記ステップ89の条件である特殊な動作中とは、第1操作モードにおいて仮想ゲーム空間でプレイヤキャラクタPが特殊な動作をしている途中であることを示しており、例えば、上記ステップ83と同様に仮想ゲーム空間においてプレイヤキャラクタPがジャンプ中の状態等である。この例のように、特殊な動作中に操作モードや視点を強制的に切り替えると、視点の切り替えに無理があるゲーム画面の変更になることによって、操作に混乱が生じることがある。このようなモード変更を防止するために、第1操作モードから第2操作モードへの移行においても動作中においてモード切り替えを一部制限している。   The special action being the condition of step 89 indicates that the player character P is performing a special action in the virtual game space in the first operation mode. For example, the same as in step 83 above. In other words, the player character P is jumping in the virtual game space. If the operation mode or the viewpoint is forcibly switched during a special operation as in this example, the operation may be disrupted due to a game screen change that is impossible to switch the viewpoint. In order to prevent such a mode change, mode switching is partly restricted during operation even in the transition from the first operation mode to the second operation mode.

なお、上述した客観的画像および主観的画像や各操作手段における操作に対応するゲーム制御内容は、単なる一例であり他の視点変更や他のゲーム制御内容に設定しても本発明を実現できることは言うまでもない。例えば、第1操作モードでは、仮想ゲーム空間における銃口方向を加速度センサ701が検出した加速度に応じて変更しているが、コントローラ7に設けられた操作部72の何れかの操作によって変更してもかまわない。また、コントローラ7にジョイスティックが設けられている場合、第1操作モードでは当該スティックの傾倒方向に応じて銃口方向を変更してもかまわない。このように、コントローラ7に設けられている操作部72の態様に応じて、プレイヤの操作姿勢に合わせて各操作手段における操作に対応するゲーム制御内容を設定することによって、様々な変更が可能となる。   Note that the above-described objective image and subjective image, and the game control content corresponding to the operation on each operation means are merely examples, and the present invention can be realized even if other viewpoint changes or other game control content are set. Needless to say. For example, in the first operation mode, the muzzle direction in the virtual game space is changed according to the acceleration detected by the acceleration sensor 701, but may be changed by any operation of the operation unit 72 provided in the controller 7. It doesn't matter. When the controller 7 is provided with a joystick, in the first operation mode, the muzzle direction may be changed according to the tilting direction of the stick. As described above, according to the mode of the operation unit 72 provided in the controller 7, various changes can be made by setting the game control content corresponding to the operation of each operation means in accordance with the operation posture of the player. Become.

このように、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いてプレイヤが座標指定する位置に応じて、ゲーム処理内容が異なったそれぞれの操作モードに自動的に変更される。変更されるゲーム処理内容の一例として、ゲーム空間における仮想カメラCの配置位置や方向が主観的画像や客観的画像に変更される。変更されるゲーム処理内容の他の例として、各操作手段における操作に対応するゲーム制御内容を変更する。例えば、第1操作モードでは、プレイヤキャラクタPが所持する銃の仮想ゲーム空間における銃口方向(照準位置)を加速度センサ701が検出した加速度や操作部72に対する操作に応じて変更しているが、第2操作モードでは、撮像情報演算部74の処理結果データに応じて照準位置を変更している。また、第1操作モードでは、プレイヤがコントローラ7を横持ちすることによって、プレイヤキャラクタPの横方向から注視点をプレイヤキャラクタPとほぼ一致させたゲーム画像が表示される。そして、第2操作モードでは、モニタ2を指し示すようにプレイヤがコントローラ7を縦持ちすることによって、視点をプレイヤキャラクタPとほぼ一致させて当該プレイヤキャラクタPが対向する方向に注視点を設定したゲーム画像が表示される。したがって、本発明では、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いたゲーム装置において、同じゲームの実行中に適宜操作方法や視点を自動的に変更することができる。   As described above, each operation mode having different game processing contents is automatically set according to the position where the player designates coordinates using a pointing device capable of outputting data for remotely designating coordinates on the display screen. Be changed. As an example of the changed game processing content, the arrangement position and direction of the virtual camera C in the game space are changed to a subjective image or an objective image. As another example of the changed game process content, game control content corresponding to an operation on each operation means is changed. For example, in the first operation mode, the muzzle direction (sighting position) of the gun possessed by the player character P in the virtual game space is changed according to the acceleration detected by the acceleration sensor 701 and the operation on the operation unit 72. In the two-operation mode, the aiming position is changed according to the processing result data of the imaging information calculation unit 74. In the first operation mode, when the player holds the controller 7 sideways, a game image in which the gazing point is substantially matched with the player character P from the lateral direction of the player character P is displayed. In the second operation mode, a game in which the player holds the controller 7 vertically so as to point to the monitor 2, thereby making the viewpoint substantially coincide with the player character P and setting the gazing point in the direction in which the player character P faces. An image is displayed. Therefore, in the present invention, in a game apparatus using a pointing device capable of outputting data for remotely specifying coordinates on the display screen, the operation method and the viewpoint are automatically changed appropriately during execution of the same game. Can do.

なお、上述した説明では、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスの一例として、コントローラ7に設けられた撮像素子743で撮像対象を撮像した画像データを解析することによって、モニタ2の表示画面に対して座標指定する態様を用いた。この態様は、表示画面近傍に撮像対象となる2つのマーカを設置し、撮像手段およびその撮像方向を自在に変更可能なハウジングを備えたデバイスが撮像画像中の2つのマーカを検出し、当該撮像画像におけるマーカの位置に基づいて当該デバイスが指定する座標位置を導出するものである。しかしながら、他の態様で上記ポインティングデバイスを構成してもかまわない。   In the above description, as an example of a pointing device that can output data for remotely specifying coordinates on the display screen, image data obtained by imaging an imaging target with the imaging element 743 provided in the controller 7 is analyzed. Thus, a mode in which coordinates are designated on the display screen of the monitor 2 was used. In this aspect, two markers to be imaged are installed in the vicinity of the display screen, and a device including an imaging unit and a housing capable of freely changing the imaging direction detects the two markers in the captured image, and the imaging The coordinate position designated by the device is derived based on the position of the marker in the image. However, the pointing device may be configured in another manner.

例えば、表示画面近傍に設置する撮像対象は、上述した電気的なマーカ(LEDモジュール)の他に、光を反射する部材や特定色や特定形状を有する物理的なマーカでもかまわない。また、モニタ2の表示画面に撮像対象を表示してもかまわない。また、コントローラ7が備える撮像手段でラスタスキャン型モニタの走査線を読み取ることによって、当該モニタ自体を撮像対象にしてもかまわない。また、磁気発生装置を設け、当該磁気発生装置から生じる磁気を利用して遠隔から座標指定してもかまわない。この場合、コントローラ7には、上記磁気を検出するための磁気センサを設けることになる。   For example, the imaging target placed in the vicinity of the display screen may be a member that reflects light, or a physical marker having a specific color or shape, in addition to the electrical marker (LED module) described above. Further, the imaging target may be displayed on the display screen of the monitor 2. Further, the monitor itself may be an imaging target by reading the scanning line of the raster scan type monitor with the imaging means provided in the controller 7. Further, a magnetic generator may be provided, and coordinates may be specified from a remote location using magnetism generated from the magnetic generator. In this case, the controller 7 is provided with a magnetic sensor for detecting the magnetism.

また、上述した説明では、2つのマーカ8Lおよび8Rからの赤外光を、コントローラ7の撮像情報演算部74の撮像対象としたが、他のものを撮像対象にしてもかまわない。例えば、1つまたは3つ以上のマーカをモニタ2の近傍に設置し、それらのマーカからの赤外光を撮像情報演算部74の撮像対象としてもかまわない。例えば、所定の長さを有する1つのマーカをモニタ2の近傍に設置しても、本発明を同様に実現することができる。また、モニタ2の表示画面自体や他の発光体(室内灯等)を撮像情報演算部74の撮像対象としてもかまわない。撮像対象とモニタ2の表示画面との配置関係に基づいて、当該表示画面に対するコントローラ7の位置を演算すれば、様々な発光体を撮像情報演算部74の撮像対象として用いることができる。   In the above description, the infrared light from the two markers 8L and 8R is the imaging target of the imaging information calculation unit 74 of the controller 7, but other objects may be the imaging target. For example, one or three or more markers may be installed in the vicinity of the monitor 2, and infrared light from these markers may be used as an imaging target of the imaging information calculation unit 74. For example, even if one marker having a predetermined length is installed in the vicinity of the monitor 2, the present invention can be similarly realized. In addition, the display screen itself of the monitor 2 or other light emitters (such as room lights) may be the imaging target of the imaging information calculation unit 74. If the position of the controller 7 with respect to the display screen is calculated based on the arrangement relationship between the imaging target and the display screen of the monitor 2, various light emitters can be used as the imaging target of the imaging information calculation unit 74.

また、コントローラ7側にマーカ等の撮像対象を設けて、撮像手段をモニタ2側に設けてもかまわない。さらに他の例では、コントローラ7の前面から光を放射する機構を設けてもかまわない。この場合、コントローラ7およびモニタ2とは別の場所にモニタ2の表示画面を撮像する撮像装置を設置し、モニタ2の表示画面にコントローラ7から放射された光が反射した位置を当該撮像装置が撮像した画像から解析することによって、同様に表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを構成することができる。さらに、コントローラ7に設けられた加速度センサ701からの加速度データを用いてコントローラ7の姿勢や動作を算出することによって、表示画面に対して遠隔から座標指定するように構成してもかまわない。このように、ハウジングに加速度センサを備えたコントローラであっても、同様に表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを構成することができる。   Further, an imaging target such as a marker may be provided on the controller 7 side, and the imaging means may be provided on the monitor 2 side. In still another example, a mechanism for emitting light from the front surface of the controller 7 may be provided. In this case, an imaging device that images the display screen of the monitor 2 is installed at a location different from the controller 7 and the monitor 2, and the imaging device indicates the position where the light emitted from the controller 7 is reflected on the display screen of the monitor 2. By analyzing the captured image, a pointing device that can output data for remotely specifying coordinates on the display screen can be configured. Furthermore, it may be configured such that coordinates are remotely specified on the display screen by calculating the attitude and operation of the controller 7 using acceleration data from the acceleration sensor 701 provided in the controller 7. Thus, even a controller having an acceleration sensor in the housing can similarly form a pointing device that can output data for remotely designating coordinates on the display screen.

また、上述した説明では、コントローラ7とゲーム装置3とが無線通信によって接続された態様を用いたが、コントローラ7とゲーム装置3とがケーブルを介して電気的に接続されてもかまわない。この場合、コントローラ7に接続されたケーブルをゲーム装置3の接続端子に接続する。   In the above description, the controller 7 and the game apparatus 3 are connected by wireless communication. However, the controller 7 and the game apparatus 3 may be electrically connected via a cable. In this case, the cable connected to the controller 7 is connected to the connection terminal of the game apparatus 3.

また、コントローラ7から無線送信される送信データを受信する受信手段として、ゲーム装置3の接続端子に接続された受信ユニット6を用いて説明したが、ゲーム装置3の本体内部に設けられた受信モジュールによって当該受信手段を構成してもかまわない。この場合、受信モジュールが受信した送信データは、所定のバスを介してCPU30に出力される。   Further, the reception unit 6 connected to the connection terminal of the game apparatus 3 has been described as the reception means for receiving transmission data wirelessly transmitted from the controller 7. However, the reception module provided in the main body of the game apparatus 3 has been described. The receiving unit may be configured as follows. In this case, the transmission data received by the receiving module is output to the CPU 30 via a predetermined bus.

また、撮像素子743で撮像した画像データを解析してマーカ8Lおよび8Rからの赤外光の位置座標やそれらの重心座標等を取得し、それらを処理結果データとしてコントローラ7内で生成してゲーム装置3へ送信する態様を説明したが、他の処理段階のデータをコントローラ7からゲーム装置3へ送信してもかまわない。例えば、撮像素子743が撮像した画像データをコントローラ7からゲーム装置3へ送信し、CPU30において上記解析処理を行って処理結果データを取得してもかまわない。この場合、コントローラ7に設けられた画像処理回路744が不要となる。また、上記画像データの解析途中のデータをコントローラ7からゲーム装置3へ送信してもかまわない。例えば、画像データから得られる輝度、位置、および面積等を示すデータをコントローラ7からゲーム装置3へ送信し、CPU30において残りの解析処理を行って処理結果データを取得してもかまわない。   Further, the image data picked up by the image pickup device 743 is analyzed to obtain the infrared light position coordinates and the barycentric coordinates thereof from the markers 8L and 8R, and these are generated in the controller 7 as processing result data to generate a game. Although the aspect of transmitting to the device 3 has been described, data of other processing stages may be transmitted from the controller 7 to the game device 3. For example, the image data captured by the image sensor 743 may be transmitted from the controller 7 to the game apparatus 3, and the CPU 30 may perform the above analysis process to acquire the processing result data. In this case, the image processing circuit 744 provided in the controller 7 becomes unnecessary. Further, the data during the analysis of the image data may be transmitted from the controller 7 to the game apparatus 3. For example, data indicating brightness, position, area, and the like obtained from the image data may be transmitted from the controller 7 to the game apparatus 3, and the CPU 30 may perform the remaining analysis processing to obtain processing result data.

また、上述したコントローラ7の形状や、それらに設けられている操作部72の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、コントローラ7における撮像情報演算部74の位置(撮像情報演算部74の光入射口)は、ハウジング71の前面でなくてもよく、ハウジング71の外部から光を取り入れることができれば他の面に設けられてもかまわない。   In addition, the shape of the controller 7 described above and the shape, number, and installation position of the operation unit 72 provided in them are merely examples, and even if the shape, number, and installation position are other, It goes without saying that the invention can be realized. Further, the position of the imaging information calculation unit 74 in the controller 7 (the light incident port of the imaging information calculation unit 74) does not have to be the front surface of the housing 71. If light can be taken in from the outside of the housing 71, the position is different. It does not matter if it is provided.

また、上述した説明では、第1操作モードにおけるゲーム画像および第2操作モードにおけるゲーム画像は、共に同一の3次元ゲーム空間に対して視点を変更して生成される例を説明したが、他のゲーム画像をモニタ2に表示してもかまわない。例えば、少なくとも一方のゲーム画像が、2次元のゲーム画像であってもかまわない。また、一方のゲーム画像が、アイコン画像等の機能的画像であってもかまわない。例えば、第2操作モードにおけるゲーム画像を複数のアイコンが表示された機能的画像を表示することによって、コントローラ7で指し示されたアイコンを選択する等のプレイヤの操作に好適な態様となる。   In the above description, the game image in the first operation mode and the game image in the second operation mode are both generated by changing the viewpoint with respect to the same three-dimensional game space. The game image may be displayed on the monitor 2. For example, at least one of the game images may be a two-dimensional game image. One game image may be a functional image such as an icon image. For example, by displaying a functional image in which a plurality of icons are displayed as game images in the second operation mode, a mode suitable for the player's operation such as selecting an icon pointed to by the controller 7 is obtained.

本発明に係るゲームプログラム、ゲーム装置、およびゲームシステムは、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いてプレイヤが座標指定する位置に応じて、ゲーム処理内容が異なったそれぞれの操作モードに自動的に変更することができ、当該ポインティングデバイス等を用いて操作するゲーム装置で実行されるゲームプログラム、ゲーム装置、ゲームシステム等として有用である。   The game program, the game device, and the game system according to the present invention provide a game processing content according to a position where a player designates coordinates using a pointing device that can output data for remotely designating coordinates on a display screen. Can be automatically changed to different operation modes, and is useful as a game program, a game device, a game system, or the like executed by a game device operated using the pointing device or the like.

1…ゲームシステム
2…モニタ
2a、706…スピーカ
3…ゲーム装置
30…CPU
31…メモリコントローラ
32…GPU
33…メインメモリ
34…DSP
35…ARAM
36…コントローラI/F
37…ビデオI/F
38…外部メモリI/F
39…オーディオI/F
40…ディスクドライブ
41…ディスクI/F
4…光ディスク
5…外部メモリカード
6…受信ユニット
7…コントローラ
71…ハウジング
72…操作部
73…コネクタ
74…撮像情報演算部
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
751…マイコン
752…メモリ
753…無線モジュール
754…アンテナ
700…基板
701…加速度センサ
702…LED
703…水晶振動子
704…バイブレータ
707…サウンドIC
708…アンプ
8…マーカ
DESCRIPTION OF SYMBOLS 1 ... Game system 2 ... Monitor 2a, 706 ... Speaker 3 ... Game device 30 ... CPU
31 ... Memory controller 32 ... GPU
33 ... Main memory 34 ... DSP
35 ... ARAM
36 ... Controller I / F
37 ... Video I / F
38 ... External memory I / F
39 ... Audio I / F
40 ... disk drive 41 ... disk I / F
DESCRIPTION OF SYMBOLS 4 ... Optical disk 5 ... External memory card 6 ... Reception unit 7 ... Controller 71 ... Housing 72 ... Operation part 73 ... Connector 74 ... Imaging information calculating part 741 ... Infrared filter 742 ... Lens 743 ... Imaging element 744 ... Image processing circuit 75 ... Communication Part 751 ... Microcomputer 752 ... Memory 753 ... Wireless module 754 ... Antenna 700 ... Substrate 701 ... Acceleration sensor 702 ... LED
703 ... Crystal oscillator 704 ... Vibrator 707 ... Sound IC
708 ... Amplifier 8 ... Marker

Claims (22)

所定の検出面に対して遠隔から座標指示するためのデータを無線出力することが可能なポインティングデバイスと無線接続される装置のコンピュータで実行される情報処理プログラムであって、
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記装置へ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記コンピュータに、
前記ポインティングデバイスから無線出力されたデータを受信して前記検出面上の座標を取得する座標取得ステップと、
前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたか否かを検出する検出ステップと、
前記検出ステップによる検出に応じて、指示座標関連処理ステップと、指示座標非関連処理ステップとを切り替えて実行する切替ステップとを実行させ、
前記指示座標関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いた情報処理である指示座標関連処理を前記コンピュータに実行させ、
前記指示座標非関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理を前記コンピュータに実行させる、情報処理プログラム。
An information processing program that is executed by a computer of a device that is wirelessly connected to a pointing device that can wirelessly output data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the device ,
The housing is provided with operation portions on both sides along the long axis direction,
In the computer,
A coordinate acquisition step of receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
A detection step of detecting whether or not coordinates within a predetermined area on the detection surface are acquired by the coordinate acquisition step;
In response to the detection by the detection step, the designated coordinate related processing step and the designated coordinate non-related processing step are performed by switching and executed,
In the designated coordinate related processing step, the computer is caused to execute designated coordinate related processing which is information processing using the coordinates obtained in the coordinate obtaining step,
In the designated coordinate non-related processing step, the designated coordinate non-related processing which is information processing using the operation data output from the operation units on both sides is not performed on the computer without using the coordinates obtained in the coordinate obtaining step. An information processing program to be executed.
前記検出ステップでは、前記座標取得ステップにより前記検出面における座標が取得できたか否かが検出される、請求項1に記載の情報処理プログラム。   The information processing program according to claim 1, wherein in the detection step, it is detected whether or not the coordinates on the detection surface can be acquired by the coordinate acquisition step. 仮想3次元空間に配置された仮想カメラから見た画像を表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記指示座標非関連処理ステップは、情報処理パラメータに基づいて第1の演算をすることによって前記仮想カメラのパラメータを決定する第1仮想カメラ制御ステップを含み、
前記指示座標関連処理ステップは、情報処理パラメータに基づいて前記第1の演算とは異なった第2の演算をすることによって前記仮想カメラのパラメータを決定する第2仮想カメラ制御ステップを含む、請求項1に記載の情報処理プログラム。
Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
The designated coordinate unrelated processing step includes a first virtual camera control step of determining a parameter of the virtual camera by performing a first calculation based on an information processing parameter;
The instruction coordinate related processing step includes a second virtual camera control step of determining a parameter of the virtual camera by performing a second calculation different from the first calculation based on an information processing parameter. 1. An information processing program according to 1.
仮想3次元空間に配置された仮想カメラから見た画像を表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記指示座標非関連処理ステップは、仮想3次元空間に存在するオブジェクトを客観的に眺めた画像が生成されるように、前記仮想カメラのパラメータを決定する第1仮想カメラ制御ステップを含み、
前記指示座標関連処理ステップは、前記オブジェクトから主観的に仮想3次元空間を眺めた画像が生成されるように、前記仮想カメラのパラメータを決定する第2仮想カメラ制御ステップを含む、請求項1に記載の情報処理プログラム。
Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
The designated coordinate unrelated processing step includes a first virtual camera control step of determining parameters of the virtual camera so that an image in which an object existing in the virtual three-dimensional space is objectively viewed is generated.
2. The specified coordinate related processing step includes a second virtual camera control step of determining parameters of the virtual camera so that an image in which a virtual three-dimensional space is subjectively viewed from the object is generated. The information processing program described.
仮想3次元空間に配置された仮想カメラから見た画像を表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記指示座標非関連処理ステップは、前記仮想カメラの注視点がオブジェクトの位置とほぼ一致するように前記仮想カメラのパラメータを決定する第1仮想カメラ制御ステップを含み、
前記指示座標関連処理ステップは、前記仮想カメラの視点が当該オブジェクトの位置とほぼ一致するように前記仮想カメラのパラメータを決定する第2仮想カメラ制御ステップを含む、請求項1に記載の情報処理プログラム。
Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
The designated coordinate unrelated processing step includes a first virtual camera control step of determining a parameter of the virtual camera so that a gazing point of the virtual camera substantially matches a position of the object,
2. The information processing program according to claim 1, wherein the designated coordinate related processing step includes a second virtual camera control step of determining a parameter of the virtual camera so that a viewpoint of the virtual camera substantially coincides with a position of the object. .
仮想3次元空間に配置された仮想カメラから見た画像を表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記指示座標非関連処理ステップでは、前記仮想カメラの視点からオブジェクトの位置までの距離が、前記指示座標関連処理ステップで決定される当該距離より長くなるように前記仮想カメラのパラメータが決定される、請求項1に記載の情報処理プログラム。
Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
In the designated coordinate non-related processing step, the parameters of the virtual camera are determined such that the distance from the viewpoint of the virtual camera to the position of the object is longer than the distance determined in the designated coordinate related processing step. The information processing program according to claim 1.
仮想3次元空間に配置された仮想カメラから見た画像を表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記指示座標非関連処理ステップでは、オブジェクトの進行方向または向きに対して横方向から仮想3次元空間を眺めた画像が生成されるように前記仮想カメラのパラメータが決定され、
前記指示座標関連処理ステップでは、前記オブジェクトの進行方向または向きに向かって仮想3次元空間を眺めた画像が生成されるように前記仮想カメラのパラメータが決定される、請求項1に記載の情報処理プログラム。
Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
In the designated coordinate unrelated processing step, the parameters of the virtual camera are determined so that an image in which the virtual three-dimensional space is viewed from the lateral direction with respect to the traveling direction or orientation of the object is generated,
The information processing according to claim 1, wherein in the designated coordinate-related processing step, parameters of the virtual camera are determined so that an image in which a virtual three-dimensional space is viewed in the traveling direction or direction of the object is generated. program.
前記操作部は、ユーザの操作によって方向指示可能な方向指示部を含み、
前記指示座標非関連処理ステップでは、前記方向指示部からの操作データに応じてオブジェクトが仮想3次元空間において移動制御される、請求項1乃至7の何れかに記載の情報処理プログラム。
The operation unit includes a direction instruction unit capable of instructing a direction by a user operation,
The information processing program according to any one of claims 1 to 7, wherein, in the designated coordinate unrelated processing step, an object is controlled to move in a virtual three-dimensional space in accordance with operation data from the direction designating unit.
前記指示座標非関連処理ステップでは、前記指示座標非関連処理として、前記操作部が発生した操作データに基づいて所定の情報処理が実行され、
前記指示座標関連処理ステップでは、前記指示座標関連処理に加えて、前記操作部が発生した同じ操作データに基づいて前記所定の情報処理とは異なる情報処理が実行される、請求項1に記載の情報処理プログラム。
In the designated coordinate non-related process step, as the designated coordinate non-related process, predetermined information processing is executed based on operation data generated by the operation unit,
The information processing different from the predetermined information processing is executed in the instruction coordinate related processing step, in addition to the instruction coordinate related processing, based on the same operation data generated by the operation unit. Information processing program.
前記ポインティングデバイスは、ユーザによって把持されるハウジングを含み、
前記操作部は、ユーザによる操作を検出可能な第1操作部および第2操作部が設けられ、
前記指示座標非関連処理ステップでは、前記指示座標非関連処理として、前記第1操作部が発生した操作データに基づいて所定の情報処理が実行され、
前記指示座標関連処理ステップでは、前記指示座標関連処理に加えて、前記第2操作部が発生した操作データに基づいて前記所定の情報処理と同じ情報処理が実行される、請求項1に記載の情報処理プログラム。
The pointing device includes a housing that is gripped by a user;
The operation unit includes a first operation unit and a second operation unit that can detect an operation by a user.
In the designated coordinate non-related process step, as the designated coordinate non-related process, predetermined information processing is executed based on operation data generated by the first operation unit,
The information processing same as the predetermined information processing according to claim 1, wherein, in the designated coordinate related processing step, in addition to the designated coordinate related processing, the same information processing as the predetermined information processing is executed based on operation data generated by the second operation unit. Information processing program.
前記指示座標関連処理ステップでは、さらに前記第1操作部が発生した操作データに基づいて前記所定の情報処理とは異なる情報処理が実行される、請求項10に記載の情報処理プログラム。   The information processing program according to claim 10, wherein in the designated coordinate related processing step, information processing different from the predetermined information processing is further executed based on operation data generated by the first operation unit. 前記指示座標関連処理ステップでは、前記指示座標関連処理として、前記座標取得ステップで取得された座標に基づいて所定の情報処理パラメータが決定され、
前記指示座標非関連処理ステップでは、前記指示座標非関連処理として、前記操作部が発生した操作データに基づいて前記情報処理パラメータが決定される、請求項1に記載の情報処理プログラム。
In the designated coordinate related processing step, as the designated coordinate related processing, a predetermined information processing parameter is determined based on the coordinates obtained in the coordinate obtaining step,
The information processing program according to claim 1, wherein, in the designated coordinate non-related processing step, the information processing parameter is determined based on operation data generated by the operation unit as the designated coordinate non-related processing.
前記情報処理パラメータは、仮想3次元空間における方向を示す方向パラメータであり、
前記操作部は、方向指示可能な操作部を含み、
前記指示座標関連処理ステップでは、前記指示座標関連処理として、前記座標取得ステップで取得された座標に基づいて前記方向パラメータが決定され、
前記指示座標非関連処理ステップでは、前記指示座標非関連処理として、前記方向指示可能な操作部により指示された方向に基づいて前記方向パラメータが決定される、請求項12に記載の情報処理プログラム。
The information processing parameter is a direction parameter indicating a direction in a virtual three-dimensional space,
The operation unit includes an operation unit capable of instructing a direction,
In the designated coordinate related processing step, as the designated coordinate related processing, the direction parameter is determined based on the coordinates obtained in the coordinate obtaining step,
13. The information processing program according to claim 12, wherein in the designated coordinate non-related processing step, the direction parameter is determined based on a direction designated by the operation unit capable of directing the direction as the designated coordinate non-related processing.
前記検出面は、画像が表示される表示画面に対応して設定され、
前記ポインティングデバイスは、前記表示画面に対して遠隔から座標指示するためのデータを出力可能なものであり、
前記情報処理プログラムは、空間を表現した画像を前記表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記指示座標関連処理ステップでは、前記指示座標関連処理として、前記座標取得ステップで取得された座標が前記画像上で重なる空間の対応座標の位置に応じた処理が行われる、請求項1に記載の情報処理プログラム。
The detection surface is set corresponding to a display screen on which an image is displayed,
The pointing device is capable of outputting data for remotely instructing coordinates on the display screen,
The information processing program causes the computer to further execute a display control step of displaying an image representing a space on the display screen,
2. The process according to claim 1, wherein in the designated coordinate-related processing step, as the designated coordinate-related process, processing according to a position of a corresponding coordinate in a space where the coordinates acquired in the coordinate obtaining step overlap on the image is performed. Information processing program.
前記指示座標関連処理ステップでは、前記指示座標関連処理に加えて、前記操作部からの操作データに基づいて、前記指示座標関連処理における情報処理とは異なる情報処理がおこなわれ、
前記検出ステップでは、前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出され、
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときであっても、前記操作部から所定の操作データが出力されているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。
In the designated coordinate related processing step, in addition to the designated coordinate related processing, based on operation data from the operation unit, information processing different from information processing in the designated coordinate related processing is performed.
In the detection step, it is detected that the state has been shifted from a state where it is detected that the coordinates within the predetermined area on the detection surface have been acquired by the coordinate acquisition step,
In the switching step, even when the transition is detected by the detection step, when predetermined operation data is output from the operation unit, the designated coordinate related processing step to the designated coordinate non-related processing step. The information processing program according to claim 1, wherein the execution of the designated coordinate-related processing step is continued without being executed.
前記検出ステップでは、前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたと検出されない状態から当該検出がされる状態に移行したことが検出され、
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときであっても、前記操作部から所定の操作データが出力されているときには、前記指示座標非関連処理ステップから前記指示座標関連処理ステップに切り替えて実行されず、前記指示座標非関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。
In the detection step, it is detected that the coordinate acquisition step has shifted to a state in which the detection is performed from a state in which the coordinates in the predetermined area on the detection surface are acquired and are not detected,
In the switching step, even when the transition is detected by the detection step, when predetermined operation data is output from the operation unit, the designated coordinate related processing step to the designated coordinate related processing step. The information processing program according to claim 1, wherein the execution of the designated coordinate unrelated processing step is continued without being switched to.
前記情報処理プログラムは、仮想3次元空間に配置された仮想カメラから見た画像を表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記検出ステップでは、前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出され、
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときに、前記操作部から所定の操作データが出力されているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続され、かつ、前記座標取得ステップにより取得される座標に応じて前記仮想カメラの視線方向が変更される、請求項1に記載の情報処理プログラム。
The information processing program causes the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen,
In the detection step, it is detected that the state has been shifted from a state where it is detected that the coordinates within the predetermined area on the detection surface have been acquired by the coordinate acquisition step,
In the switching step, when the transition is detected by the detection step and the predetermined operation data is output from the operation unit, the designated coordinate related processing step is switched to the designated coordinate non-related processing step. The information processing program according to claim 1, wherein the information processing program is not executed, the execution of the designated coordinate-related processing step is continued, and the line-of-sight direction of the virtual camera is changed according to the coordinates acquired by the coordinate acquisition step. .
前記情報処理プログラムは、ユーザの操作に応じて、仮想世界に配置されたオブジェクトを動作させるオブジェクト動作制御ステップを、さらに前記コンピュータに実行させ、
前記検出ステップでは、前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出され、
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときに、前記オブジェクトが特定の動作をしているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。
The information processing program causes the computer to further execute an object operation control step for operating an object placed in a virtual world according to a user operation,
In the detection step, it is detected that the state has been shifted from a state where it is detected that the coordinates within the predetermined area on the detection surface have been acquired by the coordinate acquisition step,
In the switching step, when the transition is detected by the detection step and the object is performing a specific motion, the instruction coordinate related processing step is not switched to the instruction coordinate non-related processing step. The information processing program according to claim 1, wherein execution of the designated coordinate related processing step is continued.
前記ポインティングデバイスは、ユーザによって把持されるハウジングを含み、
前記ハウジングは、動きセンサが設けられ、
前記検出ステップにおいて前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出された場合、前記切替ステップでは、前記検出ステップにより前記移行が検出されたときであっても、前記動きセンサが所定の閾値以上の出力を示しているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。
The pointing device includes a housing that is gripped by a user;
The housing is provided with a motion sensor;
In the detection step, when it is detected that the state where the coordinates within the predetermined area on the detection surface have been acquired is shifted to the state where the detection is not performed, the transition step detects the transition in the switching step. Even when the motion sensor indicates an output equal to or greater than a predetermined threshold, it is not executed by switching from the designated coordinate related processing step to the designated coordinate non-related processing step. The information processing program according to claim 1, wherein execution of the steps is continued.
所定の検出面に対して遠隔から座標指示するためのデータを無線出力することが可能なポインティングデバイスと無線接続される情報処理装置であって、
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記情報処理装置へ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記ポインティングデバイスから無線出力されたデータを受信して前記検出面上の座標を取得する座標取得手段と、
前記座標取得手段で取得された座標を用いた情報処理である指示座標関連処理をおこなう指示座標関連処理手段と、
前記座標取得手段で取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理をおこなう指示座標非関連処理手段と、
前記座標取得手段により前記検出面における所定領域内の座標が取得されたか否かを検出する検出手段と、
前記検出手段による検出に応じて、前記指示座標関連処理手段と、前記指示座標非関連処理手段とを切り替えて実行する切替手段とを備える、情報処理装置。
An information processing apparatus wirelessly connected to a pointing device capable of wirelessly outputting data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the information processing apparatus ;
The housing is provided with operation portions on both sides along the long axis direction,
Coordinate acquisition means for receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
Designated coordinate related processing means for performing designated coordinate related processing which is information processing using the coordinates acquired by the coordinate acquisition means;
Instruction coordinate unrelated processing means for performing instruction coordinate non-related processing which is information processing using operation data output from the operation units on both sides without using the coordinates acquired by the coordinate acquisition means;
Detecting means for detecting whether or not coordinates within a predetermined region on the detection surface are acquired by the coordinate acquiring means;
An information processing apparatus comprising: a switching unit that switches and executes the designated coordinate related processing unit and the designated coordinate non-related processing unit in response to detection by the detection unit.
所定の検出面に対して遠隔から座標指示するためのデータを無線出力することが可能なポインティングデバイスと無線接続される情報処理装置を含む情報処理システムであって、
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記情報処理装置へ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記情報処理装置は、
前記ポインティングデバイスから無線出力されたデータを受信して、前記検出面上の座標を取得する座標取得手段と、
前記座標取得手段で取得された座標を用いた情報処理である指示座標関連処理をおこなう指示座標関連処理手段と、
前記座標取得手段で取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理をおこなう指示座標非関連処理手段と、
前記座標取得手段により前記検出面における所定領域内の座標が取得されたか否かを検出する検出手段と、
前記検出手段による検出に応じて、前記指示座標関連処理手段と、前記指示座標非関連処理手段とを切り替えて実行する切替手段とを備える、情報処理システム。
An information processing system including an information processing apparatus wirelessly connected to a pointing device capable of wirelessly outputting data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the information processing apparatus ;
The housing is provided with operation portions on both sides along the long axis direction,
The information processing apparatus includes:
Coordinate acquisition means for receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
Designated coordinate related processing means for performing designated coordinate related processing which is information processing using the coordinates acquired by the coordinate acquisition means;
Instruction coordinate unrelated processing means for performing instruction coordinate non-related processing which is information processing using operation data output from the operation units on both sides without using the coordinates acquired by the coordinate acquisition means;
Detecting means for detecting whether or not coordinates within a predetermined region on the detection surface are acquired by the coordinate acquiring means;
An information processing system comprising: switching means for switching and executing the designated coordinate related processing means and the designated coordinate non-related processing means in response to detection by the detection means.
所定の検出面に対して遠隔から座標指示するためのデータを無線出力することが可能なポインティングデバイスを用いたコンピュータ処理により以下の各ステップが実現される情報処理方法であって、
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記コンピュータへ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記ポインティングデバイスから無線出力されたデータを受信して前記検出面上の座標を取得する座標取得ステップと、
前記座標取得ステップにおいて前記検出面における所定領域内の座標が取得されたか否かを検出する検出ステップと、
前記検出ステップにおける検出に応じて、指示座標関連処理ステップと、指示座標非関連処理ステップとを切り替えて実行する切替ステップとを含み、
前記指示座標関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いた情報処理である指示座標関連処理がおこなわれ、
前記指示座標非関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理がおこなわれる、情報処理方法。
An information processing method in which the following steps are realized by computer processing using a pointing device capable of wirelessly outputting data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the computer ,
The housing is provided with operation portions on both sides along the long axis direction,
A coordinate acquisition step of receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
A detection step of detecting whether or not coordinates within a predetermined area on the detection surface are acquired in the coordinate acquisition step;
In accordance with detection in the detection step, includes a switching step of switching and executing a designated coordinate related processing step and a designated coordinate non-related processing step,
In the designated coordinate related processing step, designated coordinate related processing that is information processing using the coordinates acquired in the coordinate acquisition step is performed.
In the designated coordinate non-related processing step, the designated coordinate non-related processing which is information processing using the operation data output from the operation unit on both sides is performed without using the coordinates obtained in the coordinate obtaining step. Information processing method.
JP2013004426A 2013-01-15 2013-01-15 Information processing program, information processing apparatus, information processing system, and information processing method Active JP5331259B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013004426A JP5331259B2 (en) 2013-01-15 2013-01-15 Information processing program, information processing apparatus, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013004426A JP5331259B2 (en) 2013-01-15 2013-01-15 Information processing program, information processing apparatus, information processing system, and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006130727A Division JP5330640B2 (en) 2006-05-09 2006-05-09 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Publications (2)

Publication Number Publication Date
JP2013090941A JP2013090941A (en) 2013-05-16
JP5331259B2 true JP5331259B2 (en) 2013-10-30

Family

ID=48614536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013004426A Active JP5331259B2 (en) 2013-01-15 2013-01-15 Information processing program, information processing apparatus, information processing system, and information processing method

Country Status (1)

Country Link
JP (1) JP5331259B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6734236B2 (en) * 2017-08-14 2020-08-05 株式会社 ディー・エヌ・エー Program, system, and method for providing game

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3538285B2 (en) * 1995-09-07 2004-06-14 株式会社ナムコ Shooting game apparatus and control method thereof
JPH1186038A (en) * 1997-03-03 1999-03-30 Sega Enterp Ltd Image processor, image processing method, medium and game machine
JP2002018128A (en) * 2000-07-10 2002-01-22 Namco Ltd Game system and information storage medium
US7510477B2 (en) * 2003-12-11 2009-03-31 Argentar Eric J Control apparatus for use with a computer or video game system

Also Published As

Publication number Publication date
JP2013090941A (en) 2013-05-16

Similar Documents

Publication Publication Date Title
JP5330640B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4907128B2 (en) Game system and game program
JP4798705B2 (en) POSITION CALCULATION DEVICE, POSITION CALCULATION PROGRAM, GAME DEVICE, AND GAME PROGRAM
JP4471910B2 (en) Virtual positioning program
JP4794957B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4262726B2 (en) Game controller and game system
JP4989105B2 (en) Game controller
JP5004518B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP2009064449A (en) Controller and computer system
JP2007236697A (en) Image processor and image processing program
US9751013B2 (en) Storage medium, information processing system, and information processing method for adjusting images based on movement information
JP2007075213A (en) Information processing program
JP2007300962A (en) Game program and game device
JP2009015793A (en) Image processing program and image processing apparatus
JP2007283134A (en) Game controller and game system
JP2013078624A (en) Game system and game program
JP5259965B2 (en) Information processing program and information processing apparatus
JP2010142404A (en) Game program, and game apparatus
JP5945297B2 (en) GAME PROGRAM AND GAME DEVICE
JP5735865B2 (en) Game system and game program
JP5331259B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5357998B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5352626B2 (en) Information processing program
JP2012135694A (en) Information processing program, information processing device, information processing system, and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20130418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130726

R150 Certificate of patent or registration of utility model

Ref document number: 5331259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250