JP5331259B2 - Information processing program, information processing apparatus, information processing system, and information processing method - Google Patents
Information processing program, information processing apparatus, information processing system, and information processing method Download PDFInfo
- Publication number
- JP5331259B2 JP5331259B2 JP2013004426A JP2013004426A JP5331259B2 JP 5331259 B2 JP5331259 B2 JP 5331259B2 JP 2013004426 A JP2013004426 A JP 2013004426A JP 2013004426 A JP2013004426 A JP 2013004426A JP 5331259 B2 JP5331259 B2 JP 5331259B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate
- information processing
- coordinates
- game
- designated coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 75
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims abstract description 231
- 238000001514 detection method Methods 0.000 claims abstract description 121
- 238000000034 method Methods 0.000 claims abstract description 106
- 230000008569 process Effects 0.000 claims description 89
- 238000004364 calculation method Methods 0.000 claims description 51
- 230000033001 locomotion Effects 0.000 claims description 41
- 230000004044 response Effects 0.000 claims description 23
- 230000007704 transition Effects 0.000 claims description 19
- 230000001133 acceleration Effects 0.000 description 98
- 238000003384 imaging method Methods 0.000 description 73
- 230000008859 change Effects 0.000 description 28
- 238000003825 pressing Methods 0.000 description 21
- 230000005540 biological transmission Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 239000000758 substrate Substances 0.000 description 14
- 239000003550 marker Substances 0.000 description 12
- 210000003811 finger Anatomy 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000010304 firing Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 210000004247 hand Anatomy 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005389 magnetism Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000010137 moulding (plastic) Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000010453 quartz Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関し、より特定的には、所定の検出面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いて操作する装置で実行される情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。 The present invention relates to an information processing program, an information processing apparatus, an information processing system, and relates to an information processing method, and more particularly, capable of outputting a pointing device data for designating coordinates remotely with respect to a predetermined detection surface the information processing program executed in the equipment you operate with, the information processing apparatus, an information processing system, and an information processing method.
従来、所定の検出面としての表示画面に対して遠隔から座標指定するポインティングデバイスを用いて操作するゲーム装置がある(例えば、特許文献1参照)。上記特許文献1で開示されたビデオゲームは、銃20により表示画面3A上の位置を指定してターゲットを射撃するゲームを進行するものであり、フットスイッチ70を操作することによって表示画面3Aに表示されるゲーム画像の視点を変更する。
2. Description of the Related Art Conventionally, there is a game apparatus that is operated using a pointing device that remotely designates coordinates on a display screen as a predetermined detection surface (see, for example, Patent Document 1). The video game disclosed in
また、他にも表示画面に表示するゲーム画像の視点を変更するゲーム装置がある(例えば、特許文献2および3参照)。上記特許文献2で開示された電子遊戯機器は、プレイヤの姿勢を検出し、当該姿勢に応じて表示画面に表示するゲーム画像の視点を変更する。上記特許文献3で開示されたビデオゲーム装置は、例えばプレイヤキャラクタの表示位置および挙動に応じて表示画面に表示するゲーム画像の視点を変更する。具体的には、当該ビデオゲーム装置は、プレイヤの操作に応じて、プレイヤキャラクタがゲーム空間内を移動中のときは俯瞰視点(プレイヤキャラクタの上部後方に位置するゲーム空間内の視点)とし、プレイヤキャラクタが停止しているときは主観視点(プレイヤキャラクタの位置とほぼ一致するゲーム空間内の視点)とし、プレイヤキャラクタがゲーム空間内の特定場所に潜入したときも同様に主観視点としている。
In addition, there is a game device that changes the viewpoint of the game image displayed on the display screen (see, for example,
一方、ゲーム画像の視点とは異なり、装置に対する操作方法を変更するゲーム装置がある(例えば、特許文献4〜6参照)。上記特許文献4で開示された手持ち型液晶ゲーム機は、実行するゲームが縦長画面用ゲームか横長画面用ゲームかに応じて、装置に対する操作方法を変更するものである。上記特許文献5で開示された情報配信装置は、キー操作とその操作に対する応答をユーザが定義することによって、操作方法を変更するものである。上記特許文献6で開示されたゲーム装置は、プレイヤの操作に応じて生成される操作信号に対応して行われるゲーム制御を、操作部50の姿勢に応じて変更するものである。
On the other hand, unlike the viewpoint of a game image, there is a game device that changes an operation method for the device (see, for example, Patent Documents 4 to 6). The hand-held liquid crystal game machine disclosed in Patent Document 4 changes the operation method for the device depending on whether the game to be executed is a portrait screen game or a landscape screen game. The information distribution apparatus disclosed in
しかしながら、上記特許文献1で開示されたビデオゲームは、表示画面に表示するゲーム画像の視点を変更するためにはフットスイッチを操作する必要があるため、操作性が悪い。また、上記特許文献2で開示された電子遊戯機器および上記特許文献3で開示されたビデオゲーム装置は、キーやジョイスティック等をプレイヤが操作することによってゲーム入力を行うものであるため、検出面に対して遠隔から座標指定するポインティングデバイスを用いて操作するゲーム装置にそのまま適用しても好適とならない。
However, the video game disclosed in
また、上記特許文献4で開示された手持ち型液晶ゲーム機は、当該ゲーム機で実行するゲームの種類に応じて操作方法を変更するものであり、同じゲームの実行中に適宜操作方法を変更するものではない。上記特許文献5で開示された情報配信装置は、ユーザがその都度キー操作とその操作に対する応答を定義することが必要であり操作が煩雑となる。また、特許文献6で開示されたゲーム装置は、方向キーやボタン等をプレイヤが操作することによってゲーム入力を行うものであるため、検出面に対して遠隔から座標指定するポインティングデバイスを用いて操作するゲーム装置にそのまま適用しても好適とならない。
The hand-held liquid crystal game machine disclosed in Patent Document 4 changes the operation method in accordance with the type of game executed on the game machine, and changes the operation method as appropriate during execution of the same game. It is not a thing. The information distribution apparatus disclosed in
それ故に、本発明の目的は、上述の課題のうち少なくとも1つを解決することであり、所定の検出面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いて操作する装置において、表示画面に表示する画像の視点や操作方法等の処理を適宜変更する情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法を提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to solve at least one of the above-mentioned problems, and to operate using a pointing device capable of outputting data for remotely designating coordinates for a predetermined detection surface. in that equipment, the information processing program appropriately changing the processing, such as viewpoint and operating methods of the images that displays on the display screen, the information processing apparatus is to provide an information processing system, and an information processing method.
上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。 In order to achieve the above object, the present invention adopts the following configuration. Note that the reference numerals in parentheses, step numbers, and the like indicate correspondence relationships with embodiments described later in order to help understanding of the present invention, and do not limit the scope of the present invention.
第1の発明は、所定の検出面に対して遠隔から座標指示するためのデータを出力可能なポインティングデバイス(7、74、8)を用いたゲーム装置(3)のコンピュータ(30)で実行されるゲームプログラム(GP)である。ゲームプログラムは、座標取得ステップ(S51)、指示座標関連処理ステップ(S90〜S93)、指示座標非関連処理ステップ(S86、S87、S92、S93)、検出ステップ(S54)、および切替ステップ(S55〜S85、S88、S89)をコンピュータに実行させる。座標取得ステップは、ポインティングデバイスから出力されたデータを用いて検出面上の座標(Db3)を取得する。指示座標関連処理ステップは、座標取得ステップで取得された座標を用いたゲーム処理である指示座標関連処理をおこなう(図16、図17、図20)。指示座標非関連処理ステップは、座標取得ステップで取得された座標を用いないゲーム処理である指示座標非関連処理をおこなう(図14、図15、図19)。検出ステップは、座標取得ステップにより検出面における所定領域(所定範囲)内の座標が取得された(図10〜図12)か否か(図8、図9)を検出する。切替ステップは、検出ステップによる検出に応じて、指示座標関連処理ステップと、指示座標非関連処理ステップとを切り替えて実行する。 The first invention is executed by a computer (30) of a game apparatus (3) using a pointing device (7, 74, 8) capable of outputting data for remotely instructing coordinates on a predetermined detection surface. Game program (GP). The game program includes a coordinate acquisition step (S51), designated coordinate related processing steps (S90 to S93), designated coordinate non-related processing steps (S86, S87, S92, S93), a detection step (S54), and a switching step (S55 to S55). S85, S88, and S89) are executed by the computer. In the coordinate acquisition step, the coordinates (Db3) on the detection surface are acquired using the data output from the pointing device. The designated coordinate related processing step performs designated coordinate related processing, which is game processing using the coordinates acquired in the coordinate acquisition step (FIGS. 16, 17, and 20). The designated coordinate unrelated processing step performs designated coordinate unrelated processing, which is a game process that does not use the coordinates acquired in the coordinate acquisition step (FIGS. 14, 15, and 19). In the detection step, it is detected whether or not the coordinates within the predetermined region (predetermined range) on the detection surface have been acquired (FIGS. 10 to 12) (FIGS. 8 and 9). The switching step is executed by switching between the designated coordinate related processing step and the designated coordinate non-related processing step according to the detection by the detection step.
ポインティングデバイスは、所定の検出面に対して遠隔から(すなわち、検出面から離れた位置から)座標指示するためのデータを出力することが可能なものであり、代表的には、プレイヤが把持するハウジングにより指される検出面上の位置を取得するためのデータを出力するものである。例えば、プレイヤに把持されるハウジングの所定位置(端部など)から所定方向(例えば、ハウジングの姿勢に応じて定まる方向であり、ハウジングの長手方向など)に伸ばした直線が所定の検出面と交わる位置(すなわち、当該検出面上に設定される検出座標系における座標)を取得するためのデータを出力するものが挙げられる。また、ポインティングデバイスからの検出出力データと指示座標との関係が固定的な関係であるようなものであるのが好ましい(すなわち、ポインティングデバイスから出力されるデータに応じて直前に取得された指示座標に対する変化を決定するのではなく、ポインティングデバイスから出力されるデータに応じて一意に、または、一対一に指示座標が取得されるものが好ましい)。また、検出面はゲーム画像が表示される表示画面であってもよいし、検出面が表示画面と異なっていても良いが、後者の場合には、検出面上の座標と表示画面上の座標との対応関係を設定するのが好ましい(言い換えると、前者は表示画面上の座標をそのまま検出するものであり、後者は表示画面と異なる検出面上の座標を検出し、検出面上の座標を表示画面上の座標に変換するものである)。また、検出面と表示画面とが一致する場合、検出可能な最大領域は、表示画面(またはゲーム画像が表示される表示領域)と一致する領域であっても良いし、当該表示画面(または表示領域)よりも大きな領域であっても良いし、小さい領域であってもよい。また、検出面が表示画面と一致する場合、所定領域は表示画面(またはゲーム画像が表示される表示領域)と一致する領域であってもよいし、より大きな領域であってもよいし、小さい領域であってもよい。また、「所定領域」は、検出可能な最大領域より小さな領域であってもよいし、当該最大領域であってもよい。後者の場合、検出ステップは、座標取得ステップにより座標が取得されたか、それとも、取得できなかったかを検出する。 The pointing device is capable of outputting data for instructing coordinates with respect to a predetermined detection surface remotely (that is, from a position away from the detection surface), and is typically held by a player. Data for acquiring the position on the detection surface pointed by the housing is output. For example, a straight line extending from a predetermined position (such as an end portion) of the housing held by the player in a predetermined direction (for example, a direction determined according to the attitude of the housing, such as the longitudinal direction of the housing) intersects a predetermined detection surface. There is one that outputs data for acquiring a position (that is, coordinates in a detection coordinate system set on the detection surface). Further, it is preferable that the relationship between the detection output data from the pointing device and the designated coordinates is a fixed relationship (that is, the designated coordinates obtained immediately before according to the data output from the pointing device). It is preferable that the designated coordinates are acquired uniquely or one-to-one according to the data output from the pointing device, instead of determining the change with respect to. The detection surface may be a display screen on which a game image is displayed, or the detection surface may be different from the display screen. In the latter case, the coordinates on the detection surface and the coordinates on the display screen are used. (In other words, the former detects coordinates on the display screen as they are, the latter detects coordinates on a detection surface different from the display screen, and coordinates on the detection surface. To convert to coordinates on the display screen). When the detection surface and the display screen match, the maximum detectable region may be a region that matches the display screen (or the display region where the game image is displayed), or the display screen (or display). The area may be larger than (area) or may be smaller. When the detection surface matches the display screen, the predetermined area may be an area that matches the display screen (or a display area where the game image is displayed), a larger area, or a small area. It may be a region. Further, the “predetermined area” may be an area smaller than the maximum detectable area or the maximum area. In the latter case, the detection step detects whether the coordinates have been acquired by the coordinate acquisition step or whether they have not been acquired.
また、ポインティングデバイスは、ハードウェアにより指示座標を算出してもよいし、ハードウェアにより検出した検出値をソフトウェア処理することにより指示座標を算出してもよい。また、後者の場合、当該ソフトウェア処理を、ポインティングデバイス内蔵のソフトウェアにより処理してもよいし、ゲームアプリケーション内のソフトウェア処理によりおこなってもよい。 Further, the pointing device may calculate the indicated coordinates by hardware, or may calculate the indicated coordinates by performing software processing on the detection value detected by the hardware. In the latter case, the software processing may be performed by software built in the pointing device, or may be performed by software processing in the game application.
また、指示座標関連処理ステップは、座標取得ステップにより所定領域内の座標が取得されたときに限り、当該取得された座標を用いてゲーム処理をおこなってもよい。この場合、検出ステップが判断に用いる所定領域(第1領域)と、指示座標関連処理ステップがゲーム処理に用いる所定領域(第2領域)は同じであっても良いし、異なっていても良いが、異なる場合には、第1領域は第2領域を含みさらに当該第2領域の周辺領域を含む領域であることが好ましい。例えば、第1領域を検出可能な最大領域とし(この場合、検出ステップは、座標が取得されたかそれとも取得できなかったかを判断する)、第2領域をゲーム画像が表示される表示領域としてもよい。なお、所定の検出面は、現実に存在しない面であって現実の空間中に仮想的に設定される面であってもかまわないし、表示画面など現実に存在する面であってもかまわない。 Further, the designated coordinate-related processing step may perform the game process using the acquired coordinates only when the coordinates in the predetermined area are acquired by the coordinate acquisition step. In this case, the predetermined area (first area) used in the determination by the detection step and the predetermined area (second area) used in the game process by the designated coordinate related processing step may be the same or different. If different, the first region is preferably a region including the second region and further including a peripheral region of the second region. For example, the first area may be set as the maximum detectable area (in this case, the detection step determines whether coordinates are acquired or not acquired), and the second area may be set as a display area where a game image is displayed. . The predetermined detection surface may be a surface that does not actually exist and that is virtually set in the real space, or may be a surface that actually exists such as a display screen.
第2の発明は、上記第1の発明において、検出ステップでは、座標取得ステップにより検出面における座標が取得できたか否か(S52)が検出される。 In a second aspect based on the first aspect, in the detection step, it is detected whether or not the coordinates on the detection surface have been acquired by the coordinate acquisition step (S52).
第3の発明は、上記第1の発明において、表示制御ステップ(S93)を、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間(S)に配置された仮想カメラ(C)から見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップは、第1仮想カメラ制御ステップ(S86)を含む。第1仮想カメラ制御ステップは、ゲームパラメータ(Ph)に基づいて第1の演算をすることによって仮想カメラのパラメータを決定する(図15)。指示座標関連処理ステップは、第2仮想カメラ制御ステップ(S90)を含む。第2仮想カメラ制御ステップは、ゲームパラメータに基づいて第1の演算とは異なった第2の演算をすることによって仮想カメラのパラメータを決定する(図17)。 In a third aspect based on the first aspect, the computer is further caused to execute the display control step (S93). The display control step displays a game image viewed from the virtual camera (C) arranged in the virtual three-dimensional game space (S) on the display screen. The designated coordinate unrelated processing step includes a first virtual camera control step (S86). In the first virtual camera control step, the virtual camera parameters are determined by performing a first calculation based on the game parameter (Ph) (FIG. 15). The designated coordinate related processing step includes a second virtual camera control step (S90). The second virtual camera control step determines the parameters of the virtual camera by performing a second calculation different from the first calculation based on the game parameters (FIG. 17).
第4の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップは、第1仮想カメラ制御ステップを含む。第1仮想カメラ制御ステップは、仮想3次元ゲーム空間に存在するプレイヤキャラクタを客観的に眺めたゲーム画像が生成されるように、仮想カメラのパラメータを決定する。指示座標関連処理ステップは、第2仮想カメラ制御ステップを含む。第2仮想カメラ制御ステップは、プレイヤキャラクタが主観的に仮想3次元ゲーム空間を眺めたゲーム画像が生成されるように、仮想カメラのパラメータを決定する。なお、典型的には、第1仮想カメラ制御ステップでは、プレイヤキャラクタおよびその全周方向の仮想ゲーム空間が撮影されるようにされ、第2仮想カメラ制御ステップでは、プレイヤキャラクタの位置から所定方向(多くても180°以下の範囲の方向)の仮想ゲーム空間が撮影されるように設定される。 In a fourth aspect based on the first aspect, the display control step is further executed by a computer. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. The designated coordinate unrelated processing step includes a first virtual camera control step. In the first virtual camera control step, parameters of the virtual camera are determined so that a game image in which the player character existing in the virtual three-dimensional game space is objectively viewed is generated. The designated coordinate related processing step includes a second virtual camera control step. In the second virtual camera control step, the parameters of the virtual camera are determined so that a game image in which the player character subjectively views the virtual three-dimensional game space is generated. Typically, in the first virtual camera control step, the player character and the virtual game space in the entire circumferential direction are photographed. In the second virtual camera control step, a predetermined direction (from the position of the player character) It is set so that a virtual game space in a direction of a range of 180 ° or less at most is photographed.
第5の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップは、第1仮想カメラ制御ステップを含む。第1仮想カメラ制御ステップは、仮想カメラの注視点がそのプレイヤキャラクタの位置(Ph)とほぼ一致するように仮想カメラのパラメータを決定する。指示座標関連処理ステップは、第2仮想カメラ制御ステップを含む。第2仮想カメラ制御ステップは、仮想カメラの視点がそのプレイヤキャラクタの位置とほぼ一致するように仮想カメラのパラメータを決定する。なお、指示座標非関連処理ステップにおいて、仮想カメラの注視点とプレイヤキャラクタの位置との距離が、仮想カメラの視点とプレイヤキャラクタの位置との距離よりも3次元仮想ゲーム空間において小さくなるように、仮想カメラのパラメータを決定し、指示座標関連処理ステップにおいて、仮想カメラの視点とプレイヤキャラクタの位置との距離が、仮想カメラの注視点とプレイヤキャラクタの位置との距離よりも小さくなるように、仮想カメラのパラメータを決定するのが好ましい。 In a fifth aspect based on the first aspect, the computer further executes a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. The designated coordinate unrelated processing step includes a first virtual camera control step. The first virtual camera control step determines the parameters of the virtual camera so that the gazing point of the virtual camera substantially coincides with the position (Ph) of the player character. The designated coordinate related processing step includes a second virtual camera control step. In the second virtual camera control step, the parameters of the virtual camera are determined so that the viewpoint of the virtual camera substantially coincides with the position of the player character. In the designated coordinate unrelated processing step, the distance between the virtual camera's point of sight and the position of the player character is smaller in the three-dimensional virtual game space than the distance between the viewpoint of the virtual camera and the position of the player character. The virtual camera parameters are determined, and in the designated coordinate related processing step, the virtual camera is so arranged that the distance between the virtual camera viewpoint and the player character position is smaller than the distance between the virtual camera gaze point and the player character position. Preferably, the camera parameters are determined.
第6の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップでは、仮想カメラの視点からプレイヤキャラクタの位置までの距離が、指示座標関連処理ステップで決定されるその距離より長くなるように仮想カメラのパラメータが決定される。 In a sixth aspect based on the first aspect, the computer further executes a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. In the designated coordinate non-related processing step, the parameters of the virtual camera are determined so that the distance from the viewpoint of the virtual camera to the position of the player character is longer than the distance determined in the designated coordinate related processing step.
第7の発明は、上記第1の発明において、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。指示座標非関連処理ステップでは、プレイヤキャラクタの進行方向または向き(Pd)に対して横方向から仮想3次元ゲーム空間を眺めたゲーム画像が生成されるように仮想カメラのパラメータが決定される。指示座標関連処理ステップでは、プレイヤキャラクタの進行方向または向きに向かって仮想3次元ゲーム空間を眺めたゲーム画像が生成されるように仮想カメラのパラメータが決定される。なお、指示座標非関連処理ステップでは、仮想カメラの向きを仮想水平面上に投影した方向が、キャラクタの進行方向またはキャラクタの向き(顔または体が向いている方向)を当該仮想水平面上に投影した方向に略直交するようにし、指示座標関連処理ステップでは、これらの投影2方向が略一致するようにする。 In a seventh aspect based on the first aspect, the computer further executes a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. In the designated coordinate unrelated processing step, the parameters of the virtual camera are determined so that a game image in which the virtual three-dimensional game space is viewed from the lateral direction with respect to the traveling direction or direction (Pd) of the player character is generated. In the designated coordinate related processing step, the parameters of the virtual camera are determined so that a game image in which the virtual three-dimensional game space is viewed in the moving direction or direction of the player character is generated. In the designated coordinate non-related processing step, the direction in which the direction of the virtual camera is projected on the virtual horizontal plane is the direction in which the character is traveling or the direction of the character (the direction in which the face or body is facing) is projected on the virtual horizontal plane. The directions are substantially orthogonal to each other, and in the designated coordinate-related processing step, these two projection directions are substantially matched.
第8の発明は、上記第1〜第7の発明の何れかにおいて、ポインティングデバイスは、方向指示部(72)を備える。方向指示部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作によって方向指示可能である。指示座標非関連処理ステップでは、方向指示部からの操作データに応じてプレイヤキャラクタが仮想3次元ゲーム空間において移動制御される。 In an eighth aspect based on any one of the first to seventh aspects, the pointing device includes a direction indicating section (72). The direction instructing unit can instruct a direction by a player's operation, separately from a pointing operation for specifying coordinates from a remote location. In the designated coordinate non-related processing step, the player character is controlled to move in the virtual three-dimensional game space in accordance with the operation data from the direction designating unit.
第9の発明は、上記第1の発明において、ポインティングデバイスは、入力部(72、701)を備える。入力部は、遠隔から座標指定するポインティング操作(74)とは別に、プレイヤによる操作を検出可能である。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部が発生した操作データに基づいて所定のゲーム処理が実行される(図19)。指示座標関連処理ステップでは、指示座標関連処理に加えて、入力部が発生した同じ操作データに基づいて所定のゲーム処理とは異なるゲーム処理が実行される(図20)。ポインティングデバイスは、プレイヤによって把持されるハウジングを含み、入力部はそのハウジングに設けられることが好ましい。「入力部」は、押下操作を検出する、例えば操作スイッチや十字キー、傾倒操作を検出する例えばジョイスティック、タッチ操作を検出する例えばタッチパネル、プレイヤがハウジングを動かす操作に応じて当該ハウジングに生じる加速度を検出する例えば加速度センサなどであり、ハウジングの表面に設けられても良いし、内部に設けられても良い。また、「入力部」は、プレイヤ操作を単独で検出可能なデバイスを用いた操作部(すなわち、ハウジング外に設けられる他のデバイスを用いずに、ハウジング表面または内部に設けられるそれのみでプレイヤ操作を検出可能なデバイスを用いた操作部)であるのが好ましい。 In a ninth aspect based on the first aspect, the pointing device includes an input unit (72, 701). The input unit can detect an operation by the player separately from the pointing operation (74) for designating coordinates from a remote location. In the designated coordinate non-related process step, as the designated coordinate non-related process, a predetermined game process is executed based on the operation data generated by the input unit (FIG. 19). In the designated coordinate related process step, in addition to the designated coordinate related process, a game process different from the predetermined game process is executed based on the same operation data generated by the input unit (FIG. 20). The pointing device preferably includes a housing held by the player, and the input unit is preferably provided in the housing. The “input unit” detects a pressing operation, for example, an operation switch or a cross key, a joystick for detecting a tilting operation, for example, a touch panel for detecting a touch operation, an acceleration generated in the housing in accordance with an operation for moving the housing by the player. For example, it is an acceleration sensor to detect, and may be provided on the surface of the housing or may be provided inside. In addition, the “input unit” is an operation unit using a device that can detect the player operation independently (that is, the player operation is performed only on the surface of the housing or inside the housing without using other devices provided outside the housing). It is preferable that the operation unit is a device using a device capable of detecting.
第10の発明は、上記第1の発明において、ポインティングデバイスは、プレイヤによって把持されるハウジング(71)を含む。ハウジングの表面の異なる位置には、プレイヤによる操作を検出可能な第1入力部および第2入力部(72)が設けられる。指示座標非関連処理ステップでは、指示座標非関連処理として、第1入力部が発生した操作データに基づいて所定のゲーム処理が実行される。指示座標関連処理ステップでは、指示座標関連処理に加えて、第2入力部が発生した操作データに基づいて所定のゲーム処理と同じゲーム処理が実行される。 In a tenth aspect based on the first aspect, the pointing device includes a housing (71) held by the player. A first input portion and a second input portion (72) capable of detecting an operation by the player are provided at different positions on the surface of the housing. In the designated coordinate non-related process step, as the designated coordinate non-related process, a predetermined game process is executed based on the operation data generated by the first input unit. In the designated coordinate related process step, in addition to the designated coordinate related process, the same game process as the predetermined game process is executed based on the operation data generated by the second input unit.
第11の発明は、上記第8の発明において、指示座標関連処理ステップでは、さらに第1入力部が発生した操作データに基づいて所定のゲーム処理とは異なるゲーム処理が実行される。 In an eleventh aspect based on the eighth aspect, in the designated coordinate related processing step, a game process different from the predetermined game process is executed based on operation data generated by the first input unit.
第12の発明は、上記第1の発明において、ポインティングデバイスは、入力部を備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤによる操作を検出可能である。指示座標関連処理ステップでは、指示座標関連処理として、座標取得ステップで取得された座標に基づいて所定のゲームパラメータが決定される。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部が発生した操作データに基づいてゲームパラメータが決定される。 In a twelfth aspect based on the first aspect, the pointing device includes an input unit. The input unit can detect an operation by the player separately from a pointing operation for specifying coordinates from a remote location. In the designated coordinate related processing step, as the designated coordinate related processing, a predetermined game parameter is determined based on the coordinates acquired in the coordinate acquisition step. In the designated coordinate non-related processing step, as designated coordinate non-related processing, a game parameter is determined based on operation data generated by the input unit.
第13の発明は、上記第12の発明において、ゲームパラメータは、仮想3次元ゲーム空間における方向を示す方向パラメータである。入力部は、方向指示可能な入力部である。指示座標関連処理ステップでは、指示座標関連処理として、座標取得ステップで取得された座標に基づいて方向パラメータが決定される。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部により指示された方向に基づいて方向パラメータが決定される。なお、指示座標非関連処理では、例えば、加速度センサ、傾きセンサ、方向センサの出力に対応して方向パラメータを決定したり(すなわち、加速度センサにより検出された現実世界における加速度や、傾きセンサ、方向センサにより検出された現実世界における角速度や方向に応じて仮想世界の方向パラメータを決定する)、ジョイスティックの傾きに対応して方向パラメータを決定したり、方向パラメータの変化を決定したりする。また、指示座標関連処理では、例えば、仮想3次元ゲーム空間におけるプレイヤキャラクタの位置と、ポインティングデバイスから出力されたデータに応じて取得された座標に対応する画面座標と重なる仮想3次元ゲーム空間における位置とに基づいて(例えば、両者を結ぶ方向に)、仮想ゲーム空間における方向パラメータを決定する。 In a thirteenth aspect based on the twelfth aspect, the game parameter is a direction parameter indicating a direction in the virtual three-dimensional game space. The input unit is an input unit capable of direction indication. In the designated coordinate related processing step, the direction parameter is determined based on the coordinates acquired in the coordinate acquisition step as the designated coordinate related processing. In the designated coordinate unrelated processing step, the direction parameter is determined based on the direction designated by the input unit as the designated coordinate unrelated process. Note that in the instruction coordinate unrelated processing, for example, a direction parameter is determined corresponding to the output of the acceleration sensor, the tilt sensor, and the direction sensor (that is, the acceleration in the real world detected by the acceleration sensor, the tilt sensor, the direction, etc.). The direction parameter of the virtual world is determined according to the angular velocity and direction in the real world detected by the sensor), the direction parameter is determined according to the inclination of the joystick, and the change of the direction parameter is determined. In the designated coordinate related processing, for example, the position in the virtual three-dimensional game space that overlaps the position of the player character in the virtual three-dimensional game space and the screen coordinates corresponding to the coordinates acquired according to the data output from the pointing device. Based on (for example, in the direction connecting the two), the direction parameter in the virtual game space is determined.
第14の発明は、上記第1の発明において、検出面は、ゲーム画像が表示される表示画面(2)に対応して設定される。ポインティングデバイスは、表示画面に対して遠隔から座標指示するためのデータを出力可能なものである。ゲームプログラムは、表示制御ステップおよびゲーム空間座標算出ステップ(S92)を、さらにコンピュータに実行させる。表示制御ステップは、ゲーム空間を表現したゲーム画像を表示画面に表示する。ゲーム空間座標算出ステップは、座標取得ステップで取得された座標がゲーム画像上で重なるゲーム空間の対応座標(Dc1)を算出する。指示座標関連処理ステップでは、指示座標関連処理として、ゲーム空間座標算出ステップで算出された仮想3次元ゲーム空間の位置に応じた処理が行われる。 In a fourteenth aspect based on the first aspect, the detection surface is set corresponding to the display screen (2) on which the game image is displayed. The pointing device can output data for instructing coordinates on the display screen from a remote location. The game program causes the computer to further execute a display control step and a game space coordinate calculation step (S92). The display control step displays a game image representing the game space on the display screen. The game space coordinate calculation step calculates a corresponding coordinate (Dc1) of the game space in which the coordinates acquired in the coordinate acquisition step overlap on the game image. In the designated coordinate related processing step, as the designated coordinate related processing, processing according to the position of the virtual three-dimensional game space calculated in the game space coordinate calculating step is performed.
第15の発明は、上記第1の発明において、ポインティングデバイスは、入力部を、さらに備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作に応じた操作データを発生する。指示座標関連処理ステップでは、指示座標関連処理に加えて、入力部からの操作データに基づいて、指示座標関連処理におけるゲーム処理とは異なるゲーム処理がおこなわれる。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときであっても、入力部から所定の操作データが出力されているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続される。 In a fifteenth aspect based on the first aspect, the pointing device further includes an input unit. The input unit generates operation data corresponding to the operation of the player, separately from the pointing operation for specifying coordinates from a remote location. In the designated coordinate related process step, in addition to the designated coordinate related process, a game process different from the game process in the designated coordinate related process is performed based on the operation data from the input unit. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, even when the transition is detected by the detection step, when the predetermined operation data is output from the input unit, the instruction coordinate related processing step is not switched to the instruction coordinate unrelated processing step and executed. The execution of the designated coordinate related processing step is continued.
第16の発明は、上記第1の発明において、ポインティングデバイスは、入力部を、さらに備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作に応じた操作データを発生する。指示座標非関連処理ステップでは、指示座標非関連処理として、入力部からの操作データに基づいてゲーム処理がおこなわれる。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出されない状態からその検出がされる状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときであっても、入力部から所定の操作データが出力されているときには、指示座標非関連処理ステップから指示座標関連処理ステップに切り替えて実行されず、指示座標非関連処理ステップの実行が継続される。 In a sixteenth aspect based on the first aspect, the pointing device further includes an input unit. The input unit generates operation data corresponding to the operation of the player, separately from the pointing operation for specifying coordinates from a remote location. In the designated coordinate non-related processing step, game processing is performed based on operation data from the input unit as designated coordinate non-related processing. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is not detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is performed. In the switching step, even when the transition is detected by the detection step, when the predetermined operation data is output from the input unit, the instruction coordinate non-related processing step is not switched to the designated coordinate related processing step. The execution of the designated coordinate unrelated processing step is continued.
第17の発明は、上記第1の発明において、ポインティングデバイスは、入力部を、さらに備える。入力部は、遠隔から座標指定するポインティング操作とは別に、プレイヤの操作に応じた操作データを発生する。ゲームプログラムは、表示制御ステップを、さらにコンピュータに実行させる。表示制御ステップは、仮想3次元ゲーム空間に配置された仮想カメラから見たゲーム画像を表示画面に表示する。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときに、入力部から所定の操作データが出力されているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続され、かつ、座標取得ステップにより取得される座標に応じて仮想カメラの視線方向が変更される。なお、座標取得ステップによって座標が取得されない場合には、最後に取得された座標に基づいて仮想カメラの視線方向を変更してもよい。また、座標取得ステップによって最後に取得された所定領域内の座標に基づいて仮想カメラの視線方向を変更してもよい。また、仮想カメラの視点の位置をそのままにして視線方向を変更してもよい。 In a seventeenth aspect based on the first aspect, the pointing device further includes an input unit. The input unit generates operation data corresponding to the operation of the player, separately from the pointing operation for specifying coordinates from a remote location. The game program further causes the computer to execute a display control step. The display control step displays the game image viewed from the virtual camera arranged in the virtual three-dimensional game space on the display screen. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, when the transition is detected by the detection step and the predetermined operation data is output from the input unit, the switching is not performed by switching from the designated coordinate related processing step to the designated coordinate non-related processing step. The execution of the related processing step is continued, and the line-of-sight direction of the virtual camera is changed according to the coordinates acquired by the coordinate acquisition step. In addition, when a coordinate is not acquired by a coordinate acquisition step, you may change the visual line direction of a virtual camera based on the coordinate acquired last. Further, the line-of-sight direction of the virtual camera may be changed based on the coordinates in the predetermined area last acquired by the coordinate acquisition step. Further, the line-of-sight direction may be changed with the position of the viewpoint of the virtual camera as it is.
第18の発明は、上記第1の発明において、ゲームプログラムは、プレイヤキャラクタ動作制御ステップ(S92)を、さらにコンピュータに実行させる。プレイヤキャラクタ動作制御ステップは、プレイヤの操作に応じて、仮想ゲーム世界に存在するプレイヤキャラクタを動作させる。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときに、プレイヤキャラクタが特定の動作をしているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続される。 In an eighteenth aspect based on the first aspect, the game program causes the computer to further execute a player character action control step (S92). In the player character movement control step, the player character existing in the virtual game world is moved according to the operation of the player. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, when a transition is detected in the detection step, and the player character is performing a specific motion, the instruction coordinate related processing step is not executed by switching from the specified coordinate related processing step to the specified coordinate non-related processing step. Step execution continues.
第19の発明は、上記第1の発明において、ポインティングデバイスは、プレイヤによって把持されるハウジングを含む。ハウジングは、動きセンサが設けられる。ゲームプログラムは、データ取得ステップ(S51)および動き処理ステップを、さらにコンピュータに実行させる。データ取得ステップは、動きセンサが検出して出力されたデータ(Da4)を取得する。動き処理ステップは、動きデータ取得ステップによって取得されたデータに基づいて所定のゲーム処理をおこなう。検出ステップでは、座標取得ステップにより検出面における所定領域内の座標が取得されたと検出される状態からその検出がされない状態に移行したことが検出される。切替ステップでは、検出ステップにより移行が検出されたときであっても、動きセンサが所定の閾値以上の出力を示しているときには、指示座標関連処理ステップから指示座標非関連処理ステップに切り替えて実行されず、指示座標関連処理ステップの実行が継続される。なお、動きセンサは、自身または自身が収納されるハウジングの動きが取得可能なデータを検出可能なものであり、例えば、ハウジングに生じる所定の直線方向の加速度を検出する加速度センサである。 In a nineteenth aspect based on the first aspect, the pointing device includes a housing held by the player. The housing is provided with a motion sensor. The game program further causes the computer to execute a data acquisition step (S51) and a motion processing step. In the data acquisition step, data (Da4) detected and output by the motion sensor is acquired. The motion processing step performs a predetermined game process based on the data acquired by the motion data acquisition step. In the detection step, it is detected that the coordinate acquisition step has shifted from a state where it is detected that coordinates within a predetermined area on the detection surface have been acquired to a state where the detection is not performed. In the switching step, even when a transition is detected in the detection step, when the motion sensor indicates an output equal to or greater than a predetermined threshold, the instruction coordinate related processing step is switched to the instruction coordinate non-related processing step. Instead, the execution of the designated coordinate related processing step is continued. Note that the motion sensor is capable of detecting data that can acquire the motion of itself or a housing in which the motion sensor is housed. For example, the motion sensor is an acceleration sensor that detects acceleration in a predetermined linear direction generated in the housing.
第20の発明は、所定の検出面に対して遠隔から座標指示するためのデータを出力することが可能なポインティングデバイスを用いたゲーム装置である。ゲーム装置は、座標取得手段、指示座標関連処理手段、指示座標非関連処理手段、検出手段、および切替手段を備える。座標取得手段は、ポインティングデバイスから出力されたデータを用いて検出面上の座標を取得する。指示座標関連処理手段は、座標取得手段で取得された座標を用いたゲーム処理である指示座標関連処理をおこなう。指示座標非関連処理手段は、座標取得手段で取得された座標を用いないゲーム処理である指示座標非関連処理をおこなう。検出手段は、座標取得手段により検出面における所定領域内の座標が取得されたか否かを検出する。切替手段は、検出手段による検出に応じて、指示座標関連処理手段と、指示座標非関連処理手段とを切り替えて実行する。 A twentieth invention is a game apparatus using a pointing device capable of outputting data for instructing coordinates to a predetermined detection surface from a remote location. The game apparatus includes coordinate acquisition means, designated coordinate related processing means, designated coordinate non-related processing means, detection means, and switching means. The coordinate acquisition unit acquires the coordinates on the detection surface using the data output from the pointing device. The designated coordinate related processing means performs designated coordinate related processing, which is game processing using the coordinates acquired by the coordinate acquisition means. The designated coordinate non-related processing means performs designated coordinate non-related processing which is a game process that does not use the coordinates acquired by the coordinate acquiring means. The detecting means detects whether or not coordinates within a predetermined area on the detection surface have been acquired by the coordinate acquiring means. The switching means switches between the designated coordinate related processing means and the designated coordinate non-related processing means in accordance with detection by the detecting means.
第21の発明は、所定の検出面に対して遠隔から座標指示するためのデータを出力することが可能なポインティングデバイスを用いたゲーム装置を含むゲームシステムである。ポインティングデバイスは、プレイヤによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部からその長軸方向に伸ばした直線が検出面と交わる位置を指示座標として取得するためのデータを出力するものである。ハウジングには、長軸方向に沿った両側部にそれぞれ操作キーが設けられる。ゲーム装置は、座標取得手段、指示座標関連処理手段、指示座標非関連処理手段、検出手段、および切替手段を備える。座標取得手段は、ポインティングデバイスから出力されたデータに基づいて、検出面上の座標を取得する。指示座標関連処理手段は、座標取得手段で取得された座標を用いたゲーム処理である指示座標関連処理をおこなう。指示座標非関連処理手段は、座標取得手段で取得された座標を用いず、両側部の操作キーから出力された操作データを用いたゲーム処理である指示座標非関連処理をおこなう。検出手段は、座標取得手段により検出面における所定領域内の座標が取得されたか否かを検出する。切替手段は、検出手段による検出に応じて、指示座標関連処理手段と、指示座標非関連処理手段とを切り替えて実行する。 A twenty-first invention is a game system including a game apparatus using a pointing device capable of outputting data for remotely instructing coordinates on a predetermined detection surface. The pointing device includes a vertically long housing that is gripped by the player, and data for acquiring a position where a straight line extending in the major axis direction from the end in the major axis direction intersects with the detection surface as instruction coordinates. Output. The housing is provided with operation keys on both sides along the long axis direction. The game apparatus includes coordinate acquisition means, designated coordinate related processing means, designated coordinate non-related processing means, detection means, and switching means. The coordinate acquisition unit acquires the coordinates on the detection surface based on the data output from the pointing device. The designated coordinate related processing means performs designated coordinate related processing, which is game processing using the coordinates acquired by the coordinate acquisition means. The designated coordinate non-related processing means performs designated coordinate non-related processing which is a game process using operation data output from the operation keys on both sides without using the coordinates acquired by the coordinate acquisition means. The detecting means detects whether or not coordinates within a predetermined area on the detection surface have been acquired by the coordinate acquiring means. The switching means switches between the designated coordinate related processing means and the designated coordinate non-related processing means in accordance with detection by the detecting means.
上記第1の発明によれば、ポインティングデバイスを用いてプレイヤが座標指定することによりゲーム処理をおこなうゲームにおいて、ポインティングデバイスの出力に応じてゲーム処理内容が異なったそれぞれのモードに自動的に変更される。したがって、プレイヤにバリエーションに富んだ操作性のよい操作環境を提供できる。 According to the first aspect of the present invention, in a game in which game processing is performed by a player specifying coordinates using a pointing device, the game processing content is automatically changed according to the output of the pointing device. The Therefore, it is possible to provide the player with an operation environment rich in variations and good operability.
上記第2の発明によれば、ポインティングデバイスの出力に応じて検出面における座標が取得できた場合と、検出面における座標が取得できなかった場合とによって、ゲーム処理内容が異なったそれぞれのモードに自動的に変更される。 According to the second aspect, the game processing contents differ depending on whether the coordinates on the detection surface can be acquired according to the output of the pointing device or the coordinates on the detection surface cannot be acquired. Automatically changed.
上記第3の発明によれば、ポインティングデバイスの出力に応じて、視点が異なったそれぞれのゲーム画像に自動的に変更される。したがって、プレイヤにバリエーションに富んだゲーム画像を操作性のよい操作環境で変更することができる。 According to the third aspect, the game image is automatically changed to each game image having a different viewpoint according to the output of the pointing device. Therefore, it is possible to change game images rich in variations in the player in an operation environment with good operability.
上記第4〜第7の発明によれば、ポインティングデバイスの出力に応じて、ゲーム空間における仮想カメラのパラメータが変更されるため、例えば、プレイヤは主観的画像と客観的画像とを容易に切り替えることができる。また、プレイヤキャラクタの周辺の状況を眺めることができるゲーム画像と、プレイヤキャラクタから見た視界を眺めることができるゲーム画像とがポインティングデバイスの出力に応じて切り替わるため、プレイヤがゲーム状況に応じたゲーム画像の切り替えを操作性よく行うことができる。 According to the fourth to seventh inventions, since the parameters of the virtual camera in the game space are changed according to the output of the pointing device, for example, the player can easily switch between the subjective image and the objective image. Can do. In addition, since the game image that allows the player character to see the situation around the player character and the game image that allows the user character to see the field of view viewed from the player character are switched according to the output of the pointing device, the game according to the game situation Images can be switched with good operability.
上記第8の発明によれば、ポインティングデバイスからの出力から取得される検出座標が取得できないとき、方向指示部を用いてプレイヤキャラクタを移動させることができる。 According to the eighth aspect, when the detected coordinates acquired from the output from the pointing device cannot be acquired, the player character can be moved using the direction instruction unit.
上記第9の発明によれば、同じ操作部に対して同じ操作をしてもポインティングデバイスの出力に応じて異なるゲーム処理となるため、プレイヤにバリエーションに富んだ操作環境で変更することができる。また、例えば、プレイヤがポインティングデバイスを把持する方向に応じて操作部に対するゲーム処理を適切に割り当てることができる。 According to the ninth aspect, even if the same operation is performed on the same operation unit, different game processes are performed according to the output of the pointing device. Further, for example, the game process for the operation unit can be appropriately assigned according to the direction in which the player holds the pointing device.
上記第10および第11の発明によれば、ポインティングデバイスの出力に応じて、同じゲーム処理を異なる操作部を用いておこなうこととなるため、プレイヤにバリエーションに富んだ操作環境で変更することができる。また、例えば、プレイヤがポインティングデバイスを把持する方向に応じて所定のゲーム処理を指示する操作部をプレイヤが操作しやすい操作部に適切に割り当てることができる。 According to the tenth and eleventh aspects of the invention, the same game process is performed using different operation units in accordance with the output of the pointing device, so that the player can change in an operation environment rich in variations. . In addition, for example, an operation unit that instructs a predetermined game process according to a direction in which the player holds the pointing device can be appropriately assigned to an operation unit that is easy for the player to operate.
上記第12の発明によれば、ポインティングデバイスからの出力から取得される検出座標が取得できないときでも他の入力部を用いて同様のゲーム処理を行うことができる。 According to the twelfth aspect, even when the detection coordinates acquired from the output from the pointing device cannot be acquired, the same game process can be performed using the other input unit.
上記第13の発明によれば、ポインティングデバイスからの出力から取得される検出座標に応じて方向パラメータを算出する際、当該検出座標が取得できないときでも他の入力部を用いて同様の方向パラメータを算出することができる。 According to the thirteenth aspect, when calculating the direction parameter according to the detected coordinate acquired from the output from the pointing device, even when the detected coordinate cannot be acquired, the same direction parameter is calculated using another input unit. Can be calculated.
上記第14の発明によれば、ポインティングデバイスからの出力から取得される検出座標に応じて直接ゲーム空間内の位置を指示するようなゲーム操作が可能となる。 According to the fourteenth aspect, it is possible to perform a game operation that directly indicates a position in the game space in accordance with the detected coordinates acquired from the output from the pointing device.
上記第15および第16の発明によれば、プレイヤが操作部を操作中のときはゲーム処理が切り替わらないため、プレイヤの操作が混乱することを防止することができる。 According to the fifteenth and sixteenth aspects, since the game process is not switched when the player is operating the operation unit, the player's operation can be prevented from being confused.
上記第17の発明によれば、所定の操作部を操作しながら表示画面外等を座標指定することによって、視線方向の変更処理を両立させることができる。 According to the seventeenth aspect of the invention, it is possible to achieve both line-of-sight change processing by specifying coordinates outside the display screen while operating a predetermined operation unit.
上記第18の発明によれば、プレイヤキャラクタが特定の動作中のときはゲーム処理が切り替わらないため、プレイヤに混乱を与えることを防止することができる。 According to the eighteenth aspect, since the game process is not switched when the player character is in a specific motion, it is possible to prevent the player from being confused.
上記第19の発明によれば、プレイヤがポインティングデバイス全体を移動させることによって加速度などを生じさせているとき(例えば、ポインティングデバイスを振り上げる等)、ポインティングデバイスの座標指定位置が所定領域から逸脱することもある。この逸脱に応じて、ゲーム処理を移行してしまうとプレイヤの操作に混乱が生じる。したがって、加速度データが所定の閾値以上の出力(加速度など)を示しているときは移行を禁止することによって、このようなゲーム処理の変更を防止することができる。 According to the nineteenth aspect, when the player causes acceleration or the like by moving the entire pointing device (for example, swinging up the pointing device), the coordinate designation position of the pointing device deviates from the predetermined area. Sometimes. If the game process is shifted in accordance with this deviation, the player's operation is confused. Therefore, when the acceleration data indicates an output (acceleration or the like) equal to or higher than a predetermined threshold, such a change in the game process can be prevented by prohibiting the transition.
また、本発明のゲーム装置やゲームシステムによれば、上述したゲームプログラムと同様の効果を得ることができる。 Further, according to the game device or the game system of the present invention, it is possible to obtain the same effect as the above-described game program.
さらに、ポインティングデバイスを縦持ちして操作性よく座標指定によるゲーム操作を可能にし、ポインティングデバイスを横持ちして操作性よく両側の操作キーによるゲーム操作を可能にし、縦持ちと横持ちとを切り替える際の自然な動きに自動的に連動して適切なゲーム処理に切り替えることができる。 In addition, the pointing device can be held vertically to enable game operations by specifying coordinates, and the pointing device can be held sideways to enable game operations using the operation keys on both sides, switching between vertical holding and horizontal holding. It is possible to switch to an appropriate game process automatically in conjunction with the natural movement at the time.
図1を参照して、本発明の一実施形態に係るゲームシステム1について説明する。なお、図1は、当該ゲームシステム1を説明するための外観図である。以下、据置型ゲーム装置を一例にして、本発明のゲームシステム1について説明する。
A
図1において、当該ゲームシステム1は、家庭用テレビジョン受像機等のスピーカ2aを備えたディスプレイ(以下、モニタと記載する)2に、接続コードを介して接続される据置型ゲーム装置(以下、単にゲーム装置と記載する)3および当該ゲーム装置3に操作情報を与えるコントローラ7によって構成される。ゲーム装置3は、接続端子を介して受信ユニット6が接続される。受信ユニット6は、コントローラ7から無線送信される送信データを受信し、コントローラ7とゲーム装置3とは無線通信によって接続される。また、ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例の光ディスク4が脱着される。ゲーム装置3の上部主面には、当該ゲーム装置3の電源ON/OFFスイッチ、ゲーム処理のリセットスイッチ、およびゲーム装置3上部の蓋を開くOPENスイッチが設けられている。ここで、プレイヤがOPENスイッチを押下することによって上記蓋が開き、光ディスク4の脱着が可能となる。
In FIG. 1, the
また、ゲーム装置3には、セーブデータ等を固定的に記憶するバックアップメモリ等を搭載する外部メモリカード5が必要に応じて着脱自在に装着される。ゲーム装置3は、光ディスク4に記憶されたゲームプログラム等を実行することによって、その結果をゲーム画像としてモニタ2に表示する。さらに、ゲーム装置3は、外部メモリカード5に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2に表示することもできる。そして、ゲーム装置3のプレイヤは、モニタ2に表示されたゲーム画像を見ながら、コントローラ7を操作することによって、ゲーム進行を楽しむことができる。
Further, an
コントローラ7は、その内部に備える通信部75(後述)から受信ユニット6が接続されたゲーム装置3へ、例えばBluetooth(ブルートゥース;登録商標)の技術を用いて送信データを無線送信する。コントローラ7は、主にモニタ2に表示されるゲーム空間に登場するプレイヤオブジェクトを操作するための操作手段である。コントローラ7は、複数の操作ボタン、キー、およびスティック等の操作部が設けられている。また、後述により明らかとなるが、コントローラ7は、当該コントローラ7から見た画像を撮像する撮像情報演算部74を備えている。また、撮像情報演算部74の撮像対象の一例として、モニタ2の表示画面近傍に2つのLEDモジュール(以下、マーカと記載する)8Lおよび8Rが設置される。これらマーカ8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力する。
The
次に、図2を参照して、ゲーム装置3の構成について説明する。なお、図2は、ゲーム装置3の機能ブロック図である。
Next, the configuration of the
図2において、ゲーム装置3は、各種プログラムを実行する例えばリスク(RISC)CPU(セントラルプロセッシングユニット)30を備える。CPU30は、図示しないブートROMに記憶された起動プログラムを実行し、メインメモリ33等のメモリの初期化等を行った後、光ディスク4に記憶されているゲームプログラムの実行し、そのゲームプログラムに応じたゲーム処理等を行うものである。CPU30には、メモリコントローラ31を介して、GPU(Graphics Processing Unit)32、メインメモリ33、DSP(Digital Signal Processor)34、およびARAM(Audio RAM)35が接続される。また、メモリコントローラ31には、所定のバスを介して、コントローラI/F(インターフェース)36、ビデオI/F37、外部メモリI/F38、オーディオI/F39、およびディスクI/F41が接続され、それぞれ受信ユニット6、モニタ2、外部メモリカード5、スピーカ2a、およびディスクドライブ40が接続されている。
In FIG. 2, the
GPU32は、CPU30の命令に基づいて画像処理を行うものあり、例えば、3Dグラフィックスの表示に必要な計算処理を行う半導体チップで構成される。GPU32は、図示しない画像処理専用のメモリやメインメモリ33の一部の記憶領域を用いて画像処理を行う。GPU32は、これらを用いてモニタ2に表示すべきゲーム画像データやムービ映像を生成し、適宜メモリコントローラ31およびビデオI/F37を介してモニタ2に出力する。
The
メインメモリ33は、CPU30で使用される記憶領域であって、CPU30の処理に必要なゲームプログラム等を適宜記憶する。例えば、メインメモリ33は、CPU30によって光ディスク4から読み出されたゲームプログラムや各種データ等を記憶する。このメインメモリ33に記憶されたゲームプログラムや各種データ等がCPU30によって実行される。
The
DSP34は、ゲームプログラム実行時にCPU30において生成されるサウンドデータ等を処理するものであり、そのサウンドデータ等を記憶するためのARAM35が接続される。ARAM35は、DSP34が所定の処理(例えば、先読みしておいたゲームプログラムやサウンドデータの記憶)を行う際に用いられる。DSP34は、ARAM35に記憶されたサウンドデータを読み出し、メモリコントローラ31およびオーディオI/F39を介してモニタ2に備えるスピーカ2aに出力させる。
The
メモリコントローラ31は、データ転送を統括的に制御するものであり、上述した各種I/Fが接続される。コントローラI/F36は、例えば4つのコントローラI/F36a〜36dで構成され、それらが有するコネクタを介して嵌合可能な外部機器とゲーム装置3とを通信可能に接続する。例えば、受信ユニット6は、上記コネクタと嵌合し、コントローラI/F36を介してゲーム装置3と接続される。上述したように受信ユニット6は、コントローラ7からの送信データを受信し、コントローラI/F36を介して当該送信データをCPU30へ出力する。ビデオI/F37には、モニタ2が接続される。外部メモリI/F38には、外部メモリカード5が接続され、その外部メモリカード5に設けられたバックアップメモリ等とアクセス可能となる。オーディオI/F39にはモニタ2に内蔵されるスピーカ2aが接続され、DSP34がARAM35から読み出したサウンドデータやディスクドライブ40から直接出力されるサウンドデータをスピーカ2aから出力可能に接続される。ディスクI/F41には、ディスクドライブ40が接続される。ディスクドライブ40は、所定の読み出し位置に配置された光ディスク4に記憶されたデータを読み出し、ゲーム装置3のバスやオーディオI/F39に出力する。
The
図3および図4を参照して、コントローラ7について説明する。なお、図3は、コントローラ7の上面後方から見た斜視図である。図4は、コントローラ7を下面前方から見た斜視図である。
The
図3および図4において、コントローラ7は、例えばプラスチック成型によって形成されたハウジング71を有しており、当該ハウジング71に複数の操作部72が設けられている。ハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。
3 and 4, the
ハウジング71上面の中央前面側に、十字キー72aが設けられる。この十字キー72aは、十字型の4方向プッシュスイッチであり、4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。プレイヤが十字キー72aのいずれかの操作部分を押下することによって前後左右いずれかの方向を選択される。例えばプレイヤが十字キー72aを操作することによって、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、カーソルの移動方向を指示したりすることができる。
A cross key 72 a is provided on the center front side of the upper surface of the
なお、十字キー72aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。例えば、十字方向に4つのプッシュスイッチを配設し、プレイヤによって押下されたプッシュスイッチに応じて操作信号を出力する操作部を設けてもかまわない。さらに、上記4つのプッシュスイッチとは別に、上記十字方向が交わる位置にセンタスイッチを配設し、4つのプッシュスイッチとセンタスイッチとを複合した操作部を設けてもかまわない。また、ハウジング71上面から突出した傾倒可能なスティック(いわゆる、ジョイスティック)を倒すことによって、傾倒方向に応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。さらに、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力する操作部を、上記十字キー72aの代わりに設けてもかまわない。また、タッチパッドを、上記十字キー72aの代わりに設けてもかまわない。
Note that the cross key 72a is an operation unit that outputs an operation signal in response to the above-described direction input operation of the player, but may be an operation unit of another mode. For example, four push switches may be provided in the cross direction, and an operation unit that outputs an operation signal according to the push switch pressed by the player may be provided. Further, apart from the four push switches, a center switch may be provided at a position where the cross direction intersects, and an operation unit in which the four push switches and the center switch are combined may be provided. An operation unit that outputs an operation signal in accordance with the tilt direction by tilting a tiltable stick (so-called joystick) protruding from the upper surface of the
ハウジング71上面の十字キー72aより後面側に、複数の操作ボタン72b〜72gが設けられる。操作ボタン72b〜72gは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン72b〜72gに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン72b〜72dには、1番ボタン、2番ボタン、およびAボタン等としての機能が割り当てられる。また、操作ボタン72e〜72gには、マイナスボタン、ホームボタン、およびプラスボタン等としての機能が割り当てられる。これら操作ボタン72a〜72gは、ゲーム装置3が実行するゲームプログラムに応じてそれぞれの操作機能が割り当てられ、後述により明らかとなるがプレイヤがコントローラ7を操作する向きに応じてそれぞれ割り当てられる操作機能が切り替わる。なお、図3に示した配置例では、操作ボタン72b〜72dは、ハウジング71上面の中央前後方向に沿って並設されている。また、操作ボタン72e〜72gは、ハウジング71上面の左右方向に沿って操作ボタン72bおよび72dの間に並設されている。そして、操作ボタン72fは、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。
A plurality of
また、ハウジング71上面の十字キー72aより前面側に、操作ボタン72hが設けられる。操作ボタン72hは、遠隔からゲーム装置3本体の電源をオン/オフする電源スイッチである。この操作ボタン72hも、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。
An
また、ハウジング71上面の操作ボタン72cより後面側に、複数のLED702が設けられる。ここで、コントローラ7は、他のコントローラ7と区別するためにコントローラ種別(番号)が設けられている。例えば、LED702は、コントローラ7に現在設定されている上記コントローラ種別をプレイヤに通知するために用いられる。具体的には、コントローラ7から受信ユニット6へ送信データを送信する際、上記コントローラ種別に応じて複数のLED702のうち、種別に対応するLEDが点灯する。
A plurality of
また、ハウジング71上面には、操作ボタン72bおよび操作ボタン72e〜72gの間に後述するスピーカ(図5のスピーカ706)からの音を外部に放出するための音抜き孔が形成されている。
Further, on the upper surface of the
一方、ハウジング71下面には、凹部が形成されている。後述で明らかとなるが、ハウジング71下面の凹部は、プレイヤがコントローラ7の前面をマーカ8Lおよび8Rに向けて片手で把持したときに、当該プレイヤの人差し指や中指が位置するような位置に形成される。そして、上記凹部の後面側傾斜面には、操作ボタン72iが設けられる。操作ボタン72iは、例えばBボタンとして機能する操作部である。なお、後述により明らかとなるが、操作ボタン72iについても、プレイヤがコントローラ7を操作する向きに応じて割り当てられる操作機能が切り替わる。
On the other hand, a recess is formed on the lower surface of the
また、ハウジング71前面には、撮像情報演算部74の一部を構成する撮像素子743が設けられる。ここで、撮像情報演算部74は、コントローラ7が撮像した画像データを解析してその中で輝度が高い場所を判別してその場所の重心位置やサイズなどを検出するためのシステムであり、例えば、最大200フレーム/秒程度のサンプリング周期であるため比較的高速なコントローラ7の動きでも追跡して解析することができる。この撮像情報演算部74の詳細な構成については、後述する。また、ハウジング70の後面には、コネクタ73が設けられている。コネクタ73は、例えば32ピンのエッジコネクタであり、例えば接続ケーブルと嵌合して接続するために利用される。
An
次に、図5および図6を参照して、コントローラ7の内部構造について説明する。なお、図5は、コントローラ7の上筐体(ハウジング71の一部)を外した状態を後面側から見た斜視図である。図6は、コントローラ7の下筐体(ハウジング71の一部)を外した状態を前面側から見た斜視図である。ここで、図6に示す基板700は、図5に示す基板700の裏面から見た斜視図となっている。
Next, the internal structure of the
図5において、ハウジング71の内部には基板700が固設されており、当該基板700の上主面上に操作ボタン72a〜72h、加速度センサ701、LED702、およびアンテナ754等が設けられる。そして、これらは、基板700等に形成された配線(図示せず)によってマイコン751等(図6、図7参照)に接続される。また、図示しない無線モジュール753(図7参照)およびアンテナ754によって、コントローラ7がワイヤレスコントローラとして機能する。なお、ハウジング71内部には図示しない水晶振動子703が設けられており、後述するマイコン751の基本クロックを生成する。また、基板700の上主面上に、スピーカ706およびアンプ708が設けられる。加速度センサ701が、基板700の中央部ではなく周辺部に設けられていることにより、コントローラ7の長手方向を軸とした回転に応じて、重力加速度の方向変化に加え、遠心力による成分の含まれる加速度を検出することができるので、所定の演算により、検出される加速度データからコントローラ7の回転を良好な感度で判定することができる。
In FIG. 5, a
一方、図6において、基板700の下主面上の前端縁に撮像情報演算部74が設けられる。撮像情報演算部74は、コントローラ7の前方から順に赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744によって構成されており、それぞれ基板700の下主面に取り付けられる。また、基板700の下主面上の後端縁にコネクタ73が取り付けられる。さらに、基板700の下主面上にサウンドIC707およびマイコン751が設けられている。サウンドIC707は、基板700等に形成された配線によってマイコン751およびアンプ708と接続され、ゲーム装置3から送信されたサウンドデータに応じてアンプ708を介してスピーカ706に音声信号を出力する。そして、基板700の下主面上には、バイブレータ704が取り付けられる。このバイブレータ704は、例えば振動モータやソレノイドである。バイブレータ704が作動することによってコントローラ7に振動が発生するので、それを把持しているプレイヤの手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。バイブレータ704は、ハウジング71のやや前方寄りに配置されるため、プレイヤが把持している状態において、ハウジング71が大きく振動することになり、振動を感じやすくなる。
On the other hand, in FIG. 6, an imaging
次に、図7を参照して、コントローラ7の内部構成について説明する。なお、図7は、コントローラ7の構成を示すブロック図である。
Next, the internal configuration of the
図7において、コントローラ7は、上述した操作部72、撮像情報演算部74、加速度センサ701、スピーカ706、サウンドIC707、およびアンプ708の他に、その内部に通信部75を備えている。
In FIG. 7, the
撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744を含んでいる。赤外線フィルタ741は、コントローラ7の前方から入射する光から赤外線のみを通過させる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ出射する。撮像素子743は、例えばCMOSセンサやあるいはCCDのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像して画像データを生成する。撮像素子743で生成された画像データは、画像処理回路744で処理される。具体的には、画像処理回路744は、撮像素子743から得られた画像データを処理して高輝度部分を検知し、それらの位置座標や面積を検出した結果を示す処理結果データを通信部75へ出力する。なお、これらの撮像情報演算部74は、コントローラ7のハウジング71に固設されており、ハウジング71自体の方向を変えることによってその撮像方向を変更することができる。後述により明らかとなるが、この撮像情報演算部74から出力される処理結果データに基づいて、コントローラ7の位置や動きに応じた信号を得ることができる。
The imaging
コントローラ7は、3軸(X、Y、Z軸)の加速度センサ701を備えていることが好ましい。この3軸の加速度センサ701は、3方向、すなわち、上下方向、左右方向、および前後方向で直線加速度を検知する。また、他の実施形態においては、ゲーム処理に用いる制御信号の種類によっては、上下および左右方向(または他の対になった方向)のそれぞれに沿った直線加速度のみを検知する2軸の加速度検出手段を使用してもよい。例えば、この3軸または2軸の加速度センサ701は、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能であるタイプのものでもよい。加速度センサ701は、シリコン微細加工されたMEMS(Micro Electro Mechanical Systems:微小電子機械システム)の技術に基づいた静電容量式(静電容量結合式)であってもよい。しかしながら、既存の加速度検出手段の技術(例えば、圧電方式や圧電抵抗方式)あるいは将来開発される他の適切な技術を用いて3軸または2軸の加速度センサ701が提供されてもよい。
The
当業者には公知であるように、加速度センサ701に用いられるような加速度検出手段は、加速度センサの持つ各軸に対応する直線に沿った加速度(直線加速度)のみを検知することができる。つまり、加速度センサ701からの直接の出力は、その2軸または3軸のそれぞれに沿った直線加速度(静的または動的)を示す信号である。このため、加速度センサ701は、非直線状(例えば、円弧状)の経路に沿った動き、回転、回転運動、角変位、傾斜、位置、または姿勢等の物理特性を直接検知することはできない。
As known to those skilled in the art, the acceleration detection means used in the
しかしながら、加速度センサ701から出力される加速度の信号に対して追加の処理を行うことによって、コントローラ7に関するさらなる情報を推測または算出することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、静的な加速度(重力加速度)が検知されると、加速度センサ701からの出力を用いて、傾斜角度と検知された加速度とを用いた演算によって重力ベクトルに対する対象(コントローラ7)の傾きをそれぞれ推測することができる。このように、加速度センサ701をマイコン751(または他のプロセッサ)と組み合わせて用いることによって、コントローラ7の傾き、姿勢または位置を決定することができる。同様に、加速度センサ701を備えるコントローラ7が、例えばユーザの手で動的に加速されてそれぞれ動かされる場合に、加速度センサ701によって生成される加速度信号を処理することによって、コントローラ7のさまざまな動きおよび/または位置をそれぞれ算出または推測することができる。他の実施例では、加速度センサ701は、信号をマイコン751に出力する前に内蔵の加速度検出手段から出力される加速度信号に対して所望の処理を行うための、組込み式の信号処理装置または他の種類の専用の処理装置を備えていてもよい。例えば、組込み式または専用の処理装置は、加速度センサが静的な加速度(例えば、重力加速度)を検出するためのものである場合、検知された加速度信号をそれに相当する傾斜角に変換するものであってもよい。加速度センサ701でそれぞれ検知された加速度を示すデータは通信部75に出力される。
However, it is easy for those skilled in the art to estimate or calculate further information regarding the
他の実施形態の例では、加速度センサ701の代わりに、回転素子または振動素子などを内蔵したジャイロセンサを用いてもよい。この実施形態で使用されるMEMSジャイロセンサの一例として、アナログ・デバイセズ株式会社から入手可能なものがある。加速度センサ701と異なり、ジャイロセンサは、それが内蔵する少なくとも一つのジャイロ素子の軸を中心とした回転(または角速度)を直接検知することができる。このように、ジャイロセンサと加速度センサとは基本的に異なるので、個々の用途のためにいずれの装置が選択されるかによって、これらの装置からの出力信号に対して行う処理を適宜変更する必要がある。
In an example of another embodiment, a gyro sensor incorporating a rotation element or a vibration element may be used instead of the
具体的には、加速度センサの代わりにジャイロセンサを用いて傾きや姿勢を算出する場合には、大幅な変更を行う。すなわち、ジャイロセンサを用いる場合、検出開始の状態において傾きの値を初期化する。そして、当該ジャイロセンサから出力される角速度データを積分する。次に、初期化された傾きの値からの傾きの変化量を算出する。この場合、算出される傾きは、角度に対応する値が算出されることになる。一方、加速度センサによって傾きを算出する場合には、重力加速度のそれぞれの軸に関する成分の値を、所定の基準と比較することによって傾きを算出するので、算出される傾きはベクトルで表すことが可能であり、初期化を行わずとも、加速度検出手段を用いて検出される絶対的な方向を検出することが可能である。また、傾きとして算出される値の性質は、ジャイロセンサが用いられる場合には角度であるのに対して、加速度センサが用いられる場合にはベクトルであるという違いがある。したがって、加速度センサに代えてジャイロセンサが用いられる場合、当該傾きのデータに対して、2つのデバイスの違いを考慮した所定の変換を行う必要がある。加速度検出手段とジャイロスコープとの基本的な差異と同様にジャイロスコープの特性は当業者に公知であるので、本明細書ではさらなる詳細を省略する。ジャイロセンサは、回転を直接検知できることによる利点を有する一方、一般的には、加速度センサは、本実施形態で用いるようなコントローラに適用される場合、ジャイロセンサに比べて費用効率が良いという利点を有する。 Specifically, when the inclination or posture is calculated using a gyro sensor instead of the acceleration sensor, a significant change is made. That is, when the gyro sensor is used, the inclination value is initialized in the detection start state. Then, the angular velocity data output from the gyro sensor is integrated. Next, a change amount of the inclination from the initialized inclination value is calculated. In this case, the calculated inclination is a value corresponding to the angle. On the other hand, when the inclination is calculated by the acceleration sensor, the inclination is calculated by comparing the value of the component relating to each axis of the gravitational acceleration with a predetermined reference, so the calculated inclination can be expressed by a vector. Thus, it is possible to detect the absolute direction detected using the acceleration detecting means without performing initialization. In addition, the property of the value calculated as the inclination is an angle when a gyro sensor is used, but a vector when an acceleration sensor is used. Therefore, when a gyro sensor is used instead of the acceleration sensor, it is necessary to perform predetermined conversion in consideration of the difference between the two devices with respect to the tilt data. Since the characteristics of the gyroscope as well as the basic differences between the acceleration detection means and the gyroscope are known to those skilled in the art, further details are omitted here. While the gyro sensor has the advantage of being able to directly detect rotation, in general, the acceleration sensor has the advantage of being more cost effective than the gyro sensor when applied to a controller as used in this embodiment. Have.
通信部75は、マイクロコンピュータ(Micro Computer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。また、マイコン751は、アンテナ754を介して無線モジュール753が受信したゲーム装置3からのデータに応じて、サウンドIC707およびバイブレータ704の動作を制御する。サウンドIC707は、通信部75を介してゲーム装置3から送信されたサウンドデータ等を処理する。
The communication unit 75 includes a microcomputer (microcomputer) 751, a memory 752, a
コントローラ7に設けられた操作部72からの操作信号(キーデータ)、加速度センサ701からの加速度信号(X、Y、およびZ軸方向加速度データ;以下、単に加速度データと記載する)、および撮像情報演算部74からの処理結果データは、マイコン751に出力される。マイコン751は、入力した各データ(キーデータ、加速度データ、処理結果データ)を受信ユニット6へ送信する送信データとして一時的にメモリ752に格納する。ここで、通信部75から受信ユニット6への無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60秒を単位として行われることが一般的であるので、それよりも短い周期で送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥース(Bluetooth;登録商標)で構成される通信部75の送信間隔は5msである。マイコン751は、受信ユニット6への送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばブルートゥース(登録商標)の技術に基づいて、所定周波数の搬送波を用いて操作情報で変調し、その電波信号をアンテナ754から放射する。つまり、コントローラ7に設けられた操作部72からのキーデータ、加速度センサ701からの加速度データ、および撮像情報演算部74からの処理結果データが無線モジュール753で電波信号に変調されてコントローラ7から送信される。そして、ゲーム装置3の受信ユニット6でその電波信号を受信し、ゲーム装置3で当該電波信号を復調や復号することによって、一連の操作情報(キーデータ、加速度データ、および処理結果データ)を取得する。そして、ゲーム装置3のCPU30は、取得した操作情報とゲームプログラムとに基づいて、ゲーム処理を行う。なお、ブルートゥース(登録商標)の技術を用いて通信部75を構成する場合、通信部75は、他のデバイスから無線送信された送信データを受信する機能も備えることができる。
An operation signal (key data) from the
次に、ゲーム装置3が行う具体的な処理を説明する前に、本ゲーム装置3で行うゲームの概要について説明する。当該ゲームでは、少なくとも2つの操作モード(第1操作モード、第2操作モード)が設定され、それぞれモニタ2に表示するゲーム画像の視点が切り替えられる。
Next, before describing specific processing performed by the
図8は、当該ゲームに設定された第1操作モードによってプレイヤがコントローラ7を操作している一例である。図9は、第1操作モードにおいてプレイヤがコントローラ7を横持ちにして両手で把持した状態をコントローラ7の側面側から見た一例である。図8および図9に示すように、第1操作モードでは、例えばコントローラ7の長軸方向を横にして両手でコントローラ7をプレイヤが把持して操作する。具体的には、プレイヤは、左手でコントローラ7の前面側を持ち、右手でコントローラ7の後面側を持って、左右の指で操作部72(例えば、十字キー72a、操作ボタン72b〜72g)を押下することによってゲーム操作を行う。この場合、コントローラ7の側面(図8および図9の例では右側面)がモニタ2の表示画面と対向するようにコントローラ7が把持される。例えば、プレイヤは、両手のひらをそれぞれコントローラ7の前面および後面に添え、人差し指、中指、薬指、小指をコントローラ7下面に添える。そして、両手の親指をコントローラ7の上面に設けられた操作部72(例えば、十字キー72a付近や操作ボタン72b〜72d付近)に添える。このとき、コントローラ7が縦長形状であり、当該長手方向の一方端部に十字キー72aが配設されているため、プレイヤがコントローラ7を横持ちしたときに一方の手の親指等で十字キー72aの操作がやりやすくなる。また、操作ボタン72bや操作ボタン72cは、当該長手方向の他方端部に配設されているため、横持ちしたときに他方の手の親指等で操作がやりやすくなる。一方、操作ボタン72iは、図9に示すようにプレイヤがコントローラ7を横持ちしたとき、プレイヤの死角となりコントローラ7の凹部の後面側傾斜面に配設されているために操作が難しく、操作ボタン72iからプレイヤの指が自然と離れる状態となる。このように第1操作モードでは、プレイヤがコントローラ7を横持ちで把持した状態で、十字キー72aや操作ボタン72b〜72d等の操作部72を容易に操作することができる。
FIG. 8 shows an example in which the player operates the
図10は、当該ゲームに設定された第2操作モードによってプレイヤがコントローラ7を操作している一例である。図11は、第2操作モードにおいて、プレイヤがコントローラ7を右手で把持した状態をコントローラ7の前面側から見た一例である。図12は、第2操作モードにおいて、プレイヤがコントローラ7を右手で把持した状態をコントローラ7の左側面側から見た一例である。図10〜図12に示すように、第2操作モードでゲームをプレイするためには、コントローラ7の前面(撮像情報演算部74が撮像する光の入射口側)がモニタ2の表示画面と対向するようにプレイヤが一方の手(例えば右手)でコントローラ7を把持する。そして、プレイヤの親指をコントローラ7の上面(例えば、操作ボタン72d付近)に添え、プレイヤの人差し指をコントローラ7下面の凹部(例えば、操作ボタン72i付近)に添えたとき、コントローラ7の前面に設けられている撮像情報演算部74の光入射口がプレイヤの前方方向に露出する。一方、モニタ2の表示画面近傍には、2つのマーカ8Lおよび8Rが設置される。これらマーカ8Lおよび8Rは、それぞれモニタ2の前方に向かって赤外光を出力し、撮像情報演算部74の撮像対象となる。マーカ8Lおよび8Rは、モニタ2に一体的に設けられても良いし、モニタ2とは別体で設けられてモニタ2の近く(モニタ2の上や下など)に載置されて使用されるものであってもよい。なお、このようなコントローラ7に対する把持状態は、プレイヤの左手であっても同様に行えることは言うまでもない。
FIG. 10 shows an example in which the player operates the
このように、第2操作モードにおいて、コントローラ7は、プレイヤが片手で把持した状態で操作ボタン72dおよび72i等の操作部72を容易に操作することができる。さらに、プレイヤがコントローラ7を片手で把持したとき、当該コントローラ7の前面に設けられている撮像情報演算部74の光入射口が露出するため、上述した2つのマーカ8Lおよび8Rからの赤外光を容易に当該光入射口から取り入れることができる。つまり、プレイヤは、撮像情報演算部74の機能を阻害することなくコントローラ7を片手で把持することができる。ここで、コントローラ7が縦長形状であり、当該長手方向の端部前面に撮像情報演算部74の光入射口が配設されているため、撮像情報演算部74を利用してプレイヤがコントローラ7で指し示すような操作に好適である。一方、操作ボタン72iは、図12に示すようにプレイヤがコントローラ7を縦持ちしたとき、コントローラ7の凹部の後面側傾斜面に配設されているためにプレイヤの指で容易に操作できる。このように第2操作モードでは、プレイヤがコントローラ7を縦持ちで把持した状態で、撮像情報演算部74や操作部72を容易に操作することができる。
As described above, in the second operation mode, the
ここで、図13に示すように、マーカ8Lおよび8Rは、それぞれ視野角θ1を有している。また、撮像素子743は、視野角θ2を有している。例えば、マーカ8Lおよび8Rの視野角θ1は共に34°(半値角)であり、撮像素子743の視野角θ2は41°である。そして、撮像素子743の視野角θ2の中にマーカ8Lおよび8Rが共に存在し、マーカ8Lの視野角θ1の中でかつマーカ8Rの視野角θ1の中に撮像素子743が存在するとき、ゲーム装置3は、2つのマーカ8Lおよび8Rによる高輝度点に関する位置データを用いてコントローラ7の位置を算出する。
Here, as shown in FIG. 13, the
プレイヤがその前面がモニタ2に向くようにコントローラ7を把持することによって、撮像情報演算部74には2つのマーカ8Lおよび8Rが出力した赤外光が入射する。そして、赤外線フィルタ741およびレンズ742を介して、入射した赤外光を撮像素子743が撮像し、当該撮像画像を画像処理回路744が処理する。ここで、撮像情報演算部74では、マーカ8Lおよび8Rから出力される赤外線成分を検出することで、上記撮像画像における当該マーカ8Lおよび8Rの位置情報(対象画像の位置)や面積、直径、幅等のサイズ情報を取得する。具体的には、画像処理回路744は、撮像素子743が撮像した画像データを解析して、まず面積情報からマーカ8Lおよび8Rからの赤外光ではあり得ない画像を除外し、さらに輝度が高い点をマーカ8Lおよび8Rそれぞれの位置として判別する。そして、撮像情報演算部74は、判別されたそれらの輝点の重心位置等の位置情報を取得し、上記処理結果データとして出力する。ここで、上記処理結果データである位置情報は、撮像画像における所定の基準点(例えば、撮像画像の中央や左上隅)を原点とした座標値として出力するものでもよく、所定のタイミングにおける輝点位置を基準点として、当該基準位置からの現在の輝点位置の差をベクトルとして出力するものでもよい。つまり、上記対象画像の位置情報は、撮像素子743が撮像した撮像画像に対して所定の基準点を設定した場合に、当該基準点に対する差として用いられるパラメータである。このような位置情報をゲーム装置3へ送信することによって、ゲーム装置3では、基準からの上記位置情報の差に基づいて、マーカ8Lおよび8Rに対する撮像情報演算部74、すなわちコントローラ7の動き、姿勢、位置等に応じた信号の変化量を得ることができる。具体的には、コントローラ7が動かされることによって、通信部75から送信される画像内の高輝度点の位置が変化するため、高輝度点の位置の変化に対応させた方向入力や座標入力を行うことで、3次元空間に対してコントローラ7の移動方向に沿った方向入力や座標入力を行うことができる。なお、後述するゲーム処理動作例では、撮像情報演算部74が撮像画像におけるマーカ8Lおよび8Rの対象画像それぞれの重心位置の座標を少なくとも取得し、上記処理結果データとして出力する例を用いる。
When the player holds the
このように、コントローラ7の撮像情報演算部74によって、固定的に設置されたマーカ(実施例では、2つのマーカ8Lおよび8Rからの赤外光)を撮像することによって、ゲーム装置3におけるゲーム処理において、コントローラ7から出力されるデータを処理してコントローラ7の動き、姿勢、位置等に対応した操作が可能となり、ボタンを押下するような操作ボタンや操作キーとは異なった直感的な操作入力となる。また、上述したように上記マーカ8Lおよび8Rは、モニタ2の表示画面近傍に設置されているため、マーカ8Lおよび8Rに対する位置をモニタ2の表示画面に対するコントローラ7の動き、姿勢、位置等に換算することも容易に行うことができる。つまり、コントローラ7の動き、姿勢、位置等による処理結果データは、モニタ2の表示画面に直接作用する操作入力として用いることができる。したがって、第2操作モードでは、プレイヤがコントローラ7を把持した手をモニタ2の表示画面に対して動かすことによって、プレイヤの手の運動が表示画面に直接的に作用する操作入力を備えることができ、コントローラ7が表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスとして機能する。
As described above, the
また、上記第1操作モードおよび第2操作モード何れにおいても、上述したようにコントローラ7に設けられた加速度センサ701からの出力(加速度データ)を用いることによって、コントローラ7の傾き、姿勢、または位置を決定することができる。つまり、プレイヤがコントローラ7を把持した手を上下左右等に動かすことによって、コントローラ7は、プレイヤの手の運動や向きに応じた操作入力手段として機能する。
Further, in any of the first operation mode and the second operation mode, by using the output (acceleration data) from the
また、本実施例のゲームでは、第1操作モードおよび第2操作モードに応じて、それぞれモニタ2に表示するゲーム画像(客観的画像、主観的画像)が切り替えられる。なお、客観的画像とは、プレイヤキャラクタおよびその周辺の仮想ゲーム空間を客観的に眺めた画像であり、主観的画像とは、プレイヤキャラクタから仮想ゲーム空間を主観的に見た画像である。
In the game of the present embodiment, the game images (objective image and subjective image) displayed on the
図14は、上記第1操作モードでモニタ2に表示される客観的画像の一例である。図15は、客観的画像を生成する際の仮想カメラCの位置をプレイヤキャラクタPの上方から見た俯瞰概略図である。図14に示すように、上記第1操作モードにおいて、上記処理結果データを除くコントローラ7から受信した操作情報(キーデータ、加速度データ)に応じて、モニタ2にアクションゲーム等が表現される。具体的には、上記第1操作モードでは、プレイヤキャラクタPの横方向(プレイヤキャラクタの向きを基準とする横方向、または、プレイヤキャラクタの進行方向を基準とする横方向)の比較的遠方に位置する仮想ゲーム空間内の視点からプレイヤキャラクタP(またはその付近)を注視点とした仮想ゲーム空間が、3次元のゲーム画像としてモニタ2に表現される(このゲーム画像を客観的画像と記載する)。そして、プレイヤが操作するプレイヤキャラクタPおよび敵キャラクタE等が仮想ゲーム空間Sに配置されてモニタ2に表現される。図14に示すように、上記第1操作モードで設定される客観的画像によれば、プレイヤキャラクタPの全身が表現され、当該プレイヤキャラクタPを含むゲーム世界を客観的に広く見渡した視界がゲーム画像で生成される。
FIG. 14 is an example of an objective image displayed on the
図15を用いて、客観的画像を生成する際の仮想カメラCのパラメータ設定の一例について説明する。空間Sには予めルートRが設定されており、プレイヤキャラクタPはルートR上を移動可能に設定されている。すなわち、十字キー72aの左を押下することにより、プレイヤキャラクタPはルートR上を左に進み、十字キー72aの右を押下することにより、プレイヤキャラクタPはルートR上を右に進む。そして、仮想カメラCの注視点は、空間SにおけるプレイヤキャラクタPの現在位置Ph(例えば、プレイヤキャラクタPにおける頭部の位置座標(xh,yh,zh))に設定される。なお、仮想カメラCの注視点を、現在位置Phからある距離だけ離れた点(例えば、プレイヤキャラクタPの前方方向または進行方向、やプレイヤキャラクタPによる攻撃方向(銃の向いている方向など))やルートR上に沿ってある距離だけ離れた点などに設定してもよい。ただし、この場合でも、仮想カメラCによって撮影されるゲーム空間の範囲に対して、上記ある距離が十分小さいことが好ましく、また、注視点からプレイヤキャラクタPまでの距離が、視点からプレイヤキャラクタPまでの距離よりも小さくするのが好ましい。 An example of parameter settings for the virtual camera C when generating an objective image will be described with reference to FIG. A route R is set in the space S in advance, and the player character P is set to be movable on the route R. That is, when the left side of the cross key 72a is pressed, the player character P moves on the route R to the left, and when the right side of the cross key 72a is pressed, the player character P moves on the route R to the right. The gazing point of the virtual camera C is set to the current position Ph of the player character P in the space S (for example, the position coordinates (xh, yh, zh) of the head of the player character P). Note that the point of sight of the virtual camera C is a point away from the current position Ph by a certain distance (for example, the forward direction or the traveling direction of the player character P, the attack direction by the player character P (the direction in which the gun is facing, etc.)) Or a point separated by a certain distance along the route R. However, even in this case, it is preferable that the certain distance is sufficiently small with respect to the range of the game space photographed by the virtual camera C, and the distance from the gazing point to the player character P is from the viewpoint to the player character P. It is preferable to make it smaller than the distance.
一方、仮想カメラCの視点は、プレイヤキャラクタPの位置Ph(xh,yh,zh)のそれぞれ(すなわち、ルートR上の点のそれぞれ)に対応して決定される仮想ゲーム空間の点Cph(xcp,ycp,zcp)を基準とし、プレイヤキャラクタPの方向(当該方向は、例えば、プレイヤキャラクタPの前方方向または進行方向であるが、プレイヤキャラクタPによる攻撃方向であってもよい)Pdに応じて当該基準からずれた位置に設定される。具体的には、視点から注視点までの方向および視点と注視点との距離のそれぞれが、ルートR上の点のそれぞれに対応して予め設定されており、位置Ph(xh,yh,zh)から当該位置に対応する上記方向に上記距離だけ離れた点を点Cph(xcp,ycp,zcp)とする。例えば、点Cphから注視点までの方向は、ルートRに対して垂直な水平方向に設定されている。また、点Cphと注視点との距離は、所定距離(例えば、プレイヤキャラクタPの肩幅など)の数倍(例えば、8倍程度)に設定されている。そして、仮想カメラCの視点は、プレイヤキャラクタPの方向Pd(当該方向は、例えば、プレイヤキャラクタPによる攻撃方向(プレイヤキャラクタPが所持する銃Gの銃口方向)であるが、プレイヤキャラクタの前方方向または進行方向であってもよい)と逆方向(つまり、後方)に点Cphから上記所定距離の数倍(例えば、5倍程度)ずらした位置に設定される。 On the other hand, the viewpoint of the virtual camera C is a point Cph (xcp) in the virtual game space determined corresponding to each position Ph (xh, yh, zh) of the player character P (that is, each point on the route R). , Ycp, zcp) based on the direction Pd of the player character P (the direction is, for example, the forward direction or the traveling direction of the player character P, but may be the attacking direction by the player character P). It is set at a position deviating from the reference. Specifically, the direction from the viewpoint to the gazing point and the distance between the gazing point and the gazing point are set in advance corresponding to each point on the route R, and the position Ph (xh, yh, zh) Let a point Cph (xcp, ycp, zcp) be a distance from the distance in the direction corresponding to the position by the distance. For example, the direction from the point Cph to the gazing point is set to a horizontal direction perpendicular to the route R. Further, the distance between the point Cph and the gazing point is set to several times (for example, about 8 times) a predetermined distance (for example, the shoulder width of the player character P). The viewpoint of the virtual camera C is the direction Pd of the player character P (the direction is, for example, the attack direction by the player character P (the muzzle direction of the gun G possessed by the player character P)), but the forward direction of the player character Alternatively, it may be set in a position shifted several times (for example, about 5 times) the predetermined distance from the point Cph in the opposite direction (that is, backward) to the traveling direction.
なお、仮想カメラCの視点を、点Cphに設定してもよい。また、本実施例では、プレイヤキャラクタPの位置のそれぞれ(ルートR上の点のそれぞれ)に対応して上述の方向と距離とが設定されるので、ゲーム空間の状況やゲームの状況に応じて、上述の方向や距離を任意に変更できる。ただし、上記方向や距離を固定して、例えば、ルートRの軌跡方向またはプレイヤキャラクタPの前方方向や進行方向を基準とする方向(略垂直な方向など)を視線方向としたり、視点から注視点までの距離を一定にしたりしてもよい。 Note that the viewpoint of the virtual camera C may be set to the point Cph. Further, in the present embodiment, the above-described direction and distance are set corresponding to each of the positions of the player character P (each of the points on the route R), so that depending on the situation of the game space and the situation of the game The above direction and distance can be arbitrarily changed. However, with the above direction and distance fixed, for example, a direction (such as a substantially vertical direction) based on the trajectory direction of the route R or the forward direction or the traveling direction of the player character P is used as the line-of-sight direction, or from the viewpoint. The distance up to may be made constant.
なお、上述した客観的画像における仮想カメラCの位置および方向は、第1操作モードにおける基本設定であり、第1操作モードにおけるコントローラ7への操作に応じて仮想カメラCが当該基本位置から移動することもある。ただし、第1操作モードでは、基本位置から移動したとしても、空間Sを比較的遠方からプレイヤキャラクタPの配置位置またはその近傍を注視点として客観的に広く見渡した画像を生成しており、本発明ではこのような画像を客観的画像と定義する。
Note that the position and direction of the virtual camera C in the objective image described above are basic settings in the first operation mode, and the virtual camera C moves from the basic position in response to an operation on the
なお、上述ではプレイヤキャラクタPの横方向の比較的遠方を視点とし、プレイヤキャラクタPの現在位置を注視点として仮想空間を撮影したが、プレイヤキャラクタPの後方の比較的遠方を視点とし、プレイヤキャラクタPの現在位置を注視点として仮想ゲーム空間を撮影してもよい。また、上述では、主に、視点および注視点の水平面における位置について説明したが、視点および注視点の高さ方向の位置は、プレイヤキャラクタPの現在位置と一致していてもよいし、それより高い位置に設定してもよい(場合によっては低い位置に設置してもよい)。 In the above description, the virtual space is photographed with the viewpoint of a relatively far side of the player character P and the current position of the player character P as a gazing point. The virtual game space may be photographed with the current position of P as the gazing point. In the above description, the positions of the viewpoint and the gazing point in the horizontal plane have been mainly described. However, the positions of the viewpoint and the gazing point in the height direction may coincide with the current position of the player character P. It may be set at a high position (in some cases, it may be installed at a low position).
図16は、上記第2操作モードでモニタ2に表示される主観的画像の一例である。図17は、主観的画像を生成する際の仮想カメラCの位置をプレイヤキャラクタPの横から見た概略図である。図16に示すように、上記第2操作モードにおいて、コントローラ7から受信した操作情報(キーデータ、加速度データ、処理結果データ)に応じて、モニタ2にアクションゲーム等が表現される。具体的には、上記第2操作モードでは、空間Sを、当該プレイヤキャラクタPの位置とほぼ一致する仮想ゲーム空間内の視点から見た仮想ゲーム空間が3次元のゲーム画像としてモニタ2に表現される(このゲーム画像を主観的画像と記載する)。図16に示すように、上記第2操作モードで設定される主観的画像によれば、プレイヤキャラクタPの一部が表現され、当該プレイヤキャラクタPが空間Sを主観的に見ているような視界がゲーム画像で生成される。
FIG. 16 is an example of a subjective image displayed on the
図17を用いて、主観的画像における仮想カメラCの位置の一例について説明する。仮想カメラCの注視点は、空間SにおけるプレイヤキャラクタPの位置Phを基準に、プレイヤキャラクタPの前方に設定される。具体的には、仮想カメラCの注視点の水平方向位置は、プレイヤキャラクタPにおける頭部の位置座標Ph(xh,yh,zh)から正面(プレイヤキャラクタPの前方方向または進行方向)に所定距離(例えば、プレイヤキャラクタPの肩幅)だけ離れた位置から、さらにプレイヤキャラクタPの攻撃方向(プレイヤキャラクタが所持する銃Gの銃口方向)に上記所定距離の数倍(例えば、4倍程度)ずらした位置(図示T1)に設定される。また、仮想カメラCの注視点の垂直方向位置は、位置座標Ph(xh,yh,zh)から下方に上記所定距離の数分の1(例えば、1/4程度)ずらした位置(図示T2)に設定される。 An example of the position of the virtual camera C in the subjective image will be described with reference to FIG. The gazing point of the virtual camera C is set in front of the player character P with reference to the position Ph of the player character P in the space S. Specifically, the horizontal position of the gazing point of the virtual camera C is a predetermined distance from the position coordinates Ph (xh, yh, zh) of the head of the player character P to the front (forward direction or traveling direction of the player character P). The position is further shifted by several times (for example, about 4 times) the predetermined distance from the position separated by (for example, the shoulder width of the player character P) in the attack direction of the player character P (muzzle direction of the gun G possessed by the player character). The position (T1 in the figure) is set. Further, the vertical position of the gazing point of the virtual camera C is a position (T2 in the figure) shifted downward from the position coordinates Ph (xh, yh, zh) by a fraction (for example, about 1/4) of the predetermined distance. Set to
一方、仮想カメラCの視点は、空間SにおけるプレイヤキャラクタPの位置Phを基準に、プレイヤキャラクタPの後方近傍に設定される。具体的には、仮想カメラCの視点の水平方向位置は、位置座標Ph(xh,yh,zh)から正面に上記所定距離だけ離れた位置から、プレイヤキャラクタPによる攻撃方向(プレイヤキャラクタPが所持する銃Gの銃口方向)の逆方向に上記所定距離の数倍(例えば、2倍程度)ずらした位置(図示V1;実質的には、位置座標Phから上記所定距離程度だけ後方に離れた位置)に設定される。また、仮想カメラCの視点の垂直方向位置は、位置座標Ph(xh,yh,zh)から上方にプレイヤキャラクタPの頭部の大きさ程度(上記所定距離の1/4程度)ずらした位置(図示V2)に設定される。なお、仮想カメラCの視点の水平方向位置を、上記V2の位置から、さらに、プレイヤキャラクタPの右方向または左方向(プレイヤキャラクタPの向いている方向または進行方向に対して直交右方向または直交左方向)に上記所定距離の半分程度だけずらした位置を視点に設定してもよい。また、第1操作モードにおいてルートR上を右方向に進行している状態で第2操作モードに切り替わったときは、プレイヤキャラクタPの上記直交右方向にずらし、第1操作モードにおいてルートR上を左方向に進行している状態で第2操作モードに切り替わったときは、プレイヤキャラクタPの上記直交左方向にずらしてもよい。 On the other hand, the viewpoint of the virtual camera C is set near the rear of the player character P with reference to the position Ph of the player character P in the space S. Specifically, the horizontal position of the viewpoint of the virtual camera C is determined by the player character P's attack direction (possibly possessed by the player character P from a position that is a predetermined distance away from the position coordinate Ph (xh, yh, zh) in front. A position shifted by several times (for example, about twice) the predetermined distance in the direction opposite to the muzzle direction of the gun G to be operated (illustrated V1; substantially, a position separated backward from the position coordinate Ph by the predetermined distance). ). Further, the vertical position of the viewpoint of the virtual camera C is shifted from the position coordinates Ph (xh, yh, zh) by about the size of the head of the player character P (about ¼ of the predetermined distance) ( V2) shown in the figure. Note that the horizontal position of the viewpoint of the virtual camera C is further changed from the position of V2 to the right or left direction of the player character P (rightward or orthogonal to the direction or direction of travel of the player character P). A position shifted by about half the predetermined distance in the left direction may be set as the viewpoint. In addition, when switching to the second operation mode while moving right on the route R in the first operation mode, the player character P is shifted to the right direction, and on the route R in the first operation mode. When the player character P is switched to the second operation mode while proceeding in the left direction, the player character P may be shifted in the left-right direction.
なお、図17において、プレイヤキャラクタPの頭部の位置Phから左右に延びる線は、プレイヤキャラクタPの視線方向(仮想カメラCの視線方向とは異なる)を示すものである。上述ではプレイヤキャラクタPの視線方向は水平方向であるとして説明したが、実際には、状況によってプレイヤキャラクタPの視線方向は上下に傾いた方向になる。プレイヤキャラクタPの視線方向が上下に傾いている場合、図17の当該左右に延びる線も傾いて、仮想カメラCの注視点は、当該左右に延びる線上の点(PhからT1だけ離れた点)から下方にT2だけずらした点となり、仮想カメラCの視点は、当該左右に延びる線上の点(PhからV1だけ離れた点)から上方にV2だけずらした点となる。 In FIG. 17, a line extending left and right from the position Ph of the head of the player character P indicates the line-of-sight direction of the player character P (different from the line-of-sight direction of the virtual camera C). In the above description, it has been described that the line-of-sight direction of the player character P is the horizontal direction. When the line-of-sight direction of the player character P is tilted up and down, the line extending left and right in FIG. 17 is also tilted, and the gazing point of the virtual camera C is a point on the line extending left and right (a point away from Ph by T1). The point of the virtual camera C is shifted downward by V2 from the point on the line extending left and right (the point separated from Ph by V1).
また、上述した主観的画像における仮想カメラCの位置および方向は、第2操作モードにおける基本設定であり、第2操作モードにおけるコントローラ7への操作に応じて仮想カメラCが当該基本位置から移動することもある。ただし、第2操作モードでは、基本位置から移動したとしても、プレイヤキャラクタPの位置の近傍または一致する位置を視点としており、本発明ではこのようなゲーム画像を主観的画像と定義する。
Further, the position and direction of the virtual camera C in the subjective image described above are basic settings in the second operation mode, and the virtual camera C moves from the basic position in response to an operation on the
図14と図16とを比較すれば明らかなように、客観的画像によるゲーム画像は、プレイヤキャラクタPの周辺の空間Sが広く見渡せるため、プレイヤキャラクタPが空間Sを移動するときに好適な画像である。一方、主観的画像によるゲーム画像は、プレイヤキャラクタPが空間Sを見ているような視界であるため、敵キャラクタEを銃Gでシューティングするようなシチュエーションで好適な画像である。さらに、プレイヤがコントローラ7を把持した手をモニタ2の表示画面に対して動かすことによって、照準カーソルTの位置(射撃位置)を直接的に指示し、操作ボタン72dや操作ボタン72i(図3参照)の押下に応じて、プレイヤキャラクタPが所持する銃Gが照準カーソルTに向かって射撃されるように制御することによって、あたかもプレイヤ自身が敵キャラクタEを射撃しているような操作感覚が得られる。
As apparent from a comparison between FIG. 14 and FIG. 16, the game image based on the objective image is a suitable image when the player character P moves in the space S because the space S around the player character P can be widely viewed. It is. On the other hand, the game image based on the subjective image is an image suitable for the situation where the enemy character E is shot with the gun G because the player character P is in the field of view as if looking at the space S. Further, the position of the aiming cursor T (shooting position) is directly indicated by moving the hand holding the
次に、ゲームシステム1において行われるゲーム処理の詳細を説明する。まず、図18〜図20を参照して、ゲーム処理において用いられる主なデータについて説明する。なお、図18は、ゲーム装置3のメインメモリ33に記憶される主なプログラムおよびデータの一例を示す図である。図19は、メインメモリ33に記憶される第1操作テーブルデータDc4の一例を示す図である。図20は、メインメモリ33に記憶される第2操作テーブルデータDc5の一例を示す図である。
Next, the details of the game process performed in the
図18に示すように、メインメモリ33には、ゲームプログラムGP、操作情報Da、操作状態情報Db、およびゲーム情報Dc等が記憶される。なお、メインメモリ33には、図18に示す情報に含まれるデータの他、ゲームに登場するプレイヤキャラクタに関する他のデータ、敵キャラクタのデータ、およびゲーム空間に関するデータ(地形データ等)等、ゲーム処理に必要なデータが記憶される。
As shown in FIG. 18, the
ゲームプログラムGPは、CPU30が処理に必要なプログラムを光ディスク4から読み出して適宜記憶するものであり、ゲーム処理(後述するステップ50〜ステップ94)を定義するプログラムである。このゲームプログラムGPの実行開始によってゲーム処理が開始される。
The game program GP is a program that the
操作情報Daは、コントローラ7から送信データとして送信されてくる一連の操作情報であり、最新の操作情報に更新される。操作情報Daには、上述の処理結果データに相当する第1座標データDa1および第2座標データDa2が含まれる。第1座標データDa1は、撮像素子743が撮像した撮像画像に対して、2つのマーカ8Lおよび8Rのうちの一方の画像の位置(撮像画像内における位置)を表す座標のデータである。第2座標データDa2は、他方のマーカの画像の位置(撮像画像内における位置)を表す座標のデータである。例えば、マーカの画像の位置は、撮像画像におけるXY座標系によって表される。
The operation information Da is a series of operation information transmitted as transmission data from the
また、操作情報Daには、撮像画像から得られる処理結果データの一例の座標データ(第1座標データDa1および第2座標データDa2)の他、操作部72から得られるキーデータDa3および加速度センサ701から得られる加速度データDa4等が含まれる。なお、ゲーム装置3に備える受信ユニット6は、コントローラ7から所定間隔例えば5msごとに送信される操作情報Daを受信し、受信ユニット6に備える図示しないバッファに蓄えられる。その後、ゲーム処理間隔である例えば1フレーム毎(1/60秒)に読み出され、その最新の情報がメインメモリ33に記憶される。
The operation information Da includes coordinate data (first coordinate data Da1 and second coordinate data Da2) as an example of processing result data obtained from the captured image, as well as key data Da3 and
操作状態情報Dbは、コントローラ7の操作状態を撮像画像に基づいて判断した情報である。操作状態情報Dbは、撮像画像に含まれる対象画像(マーカ)の位置や向きから得られるデータであり、具体的には、方向データDb1、中点データDb2、スクリーン座標データDb3、チェックカウンタデータDb4、および有効フラグデータDb5等を含む。方向データDb1は、第1座標データDa1から第2座標データDa2への方向を示すデータである。例えば、方向データDb1は、第1座標データDa1の位置を始点とし第2座標データDa2の位置を終点とするベクトルのデータとする。中点データDb2は、第1座標データDa1と第2座標データDa2との中点の座標を示す。ここで、2つのマーカ(マーカ8Lおよび8R)の画像を1つの対象画像としてみた場合、中点データDb2は、対象画像の位置を示すことになる。スクリーン座標データDb3は、モニタ2の表示画面に対してコントローラ7が指し示している位置を示すスクリーン座標系の位置データであり、方向データDb1および中点データDb2を用いて算出される。チェックカウンタデータDb4は、チェックカウンタ値CCを示すデータである。チェックカウンタ値CCは、コントローラ7が指し示している位置が連続して所定範囲内であった回数を正の整数で示し、連続して所定範囲外であった回数を負の整数で示す。有効フラグデータDb5は、有効フラグfの状態を示すデータである。有効フラグfは、コントローラ7からの処理結果データをゲーム処理に用いることが可能な状態であるときに有効(true)に設定され、処理結果データをゲーム処理に用いることができない状態であるときに無効(false)に設定される。
The operation state information Db is information obtained by determining the operation state of the
ゲーム情報Dcは、指示位置データDc1、プレイヤキャラクタ位置データDc2、仮想カメラデータDc3、第1操作テーブルデータDc4、第2操作テーブルデータDc5、および画像データDc6等が含まれる。指示位置データDc1は、スクリーン座標データDb3に基づいて、表示画面に表示される仮想3次元ゲーム画像上において、当該スクリーン座標に対応する(重なる)仮想ゲーム空間の位置を示す座標データである。プレイヤキャラクタ位置データDc2は、プレイヤキャラクタPが配置される仮想ゲーム空間の位置を示す座標データである。仮想カメラデータDc3は、仮想カメラCが配置される仮想ゲーム空間の視点位置および視線方向を示すデータである。第1操作テーブルデータDc4および第2操作テーブルデータDc5は、第1操作モードおよび第2操作モードでそれぞれ操作手段に対応するゲーム制御処理内容を示すデータである。画像データDc6は、プレイヤキャラクタ画像データ、他のキャラクタ画像データ、背景画像データ等を含み、仮想ゲーム空間にプレイヤキャラクタや他のキャラクタを配置してゲーム画像を生成するためのデータである。 The game information Dc includes designated position data Dc1, player character position data Dc2, virtual camera data Dc3, first operation table data Dc4, second operation table data Dc5, image data Dc6, and the like. The designated position data Dc1 is coordinate data indicating the position of the virtual game space corresponding to (overlapping with) the screen coordinates on the virtual three-dimensional game image displayed on the display screen based on the screen coordinate data Db3. The player character position data Dc2 is coordinate data indicating the position of the virtual game space where the player character P is placed. The virtual camera data Dc3 is data indicating the viewpoint position and line-of-sight direction of the virtual game space where the virtual camera C is arranged. The first operation table data Dc4 and the second operation table data Dc5 are data indicating game control process contents corresponding to the operation means in the first operation mode and the second operation mode, respectively. The image data Dc6 includes player character image data, other character image data, background image data, and the like, and is data for arranging a player character and other characters in the virtual game space to generate a game image.
図19を参照して、第1操作テーブルデータDc4の一例について説明する。第1操作テーブルデータDc4は、上述した第1操作モードにおいてプレイヤの操作に対応したゲーム制御処理内容が記述された第1操作テーブルを示すデータである。例えば、第1操作テーブルには、プレイヤが十字キー(操作ボタン72a)の上下方向の突出片(コントローラ7を横持ちするとプレイヤから見て左右方向の突出片)を押下することに応じて、仮想ゲーム空間をプレイヤキャラクタPが左右に移動することが記述されている。プレイヤが十字キーの左方向の突出片(コントローラ7を横持ちするとプレイヤから見て下方向の突出片)を押下することに応じて、仮想ゲーム空間でプレイヤキャラクタPがしゃがむ動作をすることが記述されている。プレイヤが1番ボタン(操作ボタン72b)を押下することに応じて、プレイヤキャラクタPが第1ビームを撃つことが記述されている。プレイヤが1番ボタンを所定時間継続して押下(長押し)した後、1番ボタンの押下をやめる(離す、リリースする)ことに応じて、プレイヤキャラクタPがチャージした後に第1ビームを撃つことが記述されている。プレイヤが十字キーの右方向の突出片(コントローラ7を横持ちするとプレイヤから見て上方向の突出片)を押下しながら、1番ボタンを押下することに応じて、プレイヤキャラクタPが第1ビームとは異なった第2ビームを撃つことが記述されている。プレイヤが2番ボタン(操作ボタン72c)を押下することに応じて、仮想ゲーム空間をプレイヤキャラクタPがジャンプすることが記述されている。プレイヤがAボタン(操作ボタン72d)を押下することに応じて、仮想カメラCとプレイヤキャラクタPとの距離を長くすることが記述されている。そして、加速度データDa4を用いて算出されたコントローラ7の傾きに応じて、プレイヤキャラクタPが所持する銃Gの銃口方向(プレイヤキャラクタPの攻撃方向であり、弾の発射方向)を変更することが記述されている(すなわち、弾の発射方向パラメータが決定される)。具体的には、たとえば、横持ち時にコントローラの左端を上に持ち上げたとき、弾の発射方向がプレイヤキャラクタの位置から左上方向になるように設定される。
An example of the first operation table data Dc4 will be described with reference to FIG. The first operation table data Dc4 is data indicating a first operation table in which game control processing content corresponding to the player's operation is described in the first operation mode described above. For example, in the first operation table, the virtual key is displayed in response to the player pressing down a vertical protruding piece of the cross key (
なお、本実施例では、後述の通り、プレイヤキャラクタPはルートR上を移動するので、プレイヤキャラクタPの移動制御は、十字キーの左右方向のみでおこなうが、プレイヤキャラクタPがルートR上に限らず自由に移動できる場合には、十字キーの上下方向の指示でプレイヤキャラクタPを他の方向へ移動させてもよい。 In this embodiment, as will be described later, since the player character P moves on the route R, the movement control of the player character P is performed only in the left and right direction of the cross key, but the player character P is limited to the route R. If the player character P can move freely, the player character P may be moved in the other direction by an instruction in the up / down direction of the cross key.
図20を参照して、第2操作テーブルデータDc5の一例について説明する。第2操作テーブルデータDc5は、上述した第2操作モードにおいてプレイヤの操作に対応したゲーム制御処理内容が記述された第2操作テーブルを示すデータである。例えば、第2操作テーブルには、プレイヤがコントローラ7で指し示したスクリーン座標の位置に照準カーソルTを移動させることが記述されている(なお、照準カーソルTは射撃位置を示すものであり、照準カーソルTを移動することによって弾の発射方向パラメータが決定される。より具体的には、照準カーソルTに対応する仮想ゲーム空間内の位置とプレイヤキャラクタの位置を結ぶ方向が発射方向パラメータとして設定される)。プレイヤがBボタン(操作ボタン72i)を押下しながらコントローラ7でゲーム画像の周辺領域を指し示すことに応じて、仮想カメラCの方向を変更することが記述されている。プレイヤがAボタンを押下することに応じて、プレイヤキャラクタPが第1ビームを撃つことが記述されている。プレイヤがAボタンを長押しした後、Aボタンを離すことに応じて、プレイヤキャラクタPがチャージした後に第1ビームを撃つことが記述されている。プレイヤがAボタンおよびBボタンを押下した後、Aボタンのみ離すことに応じて、プレイヤキャラクタPが第1ミサイルを撃つことが記述されている。プレイヤがAボタンおよびBボタンを押下した後、Aボタンを長押しして離すことに応じて、プレイヤキャラクタPが第1ミサイルとは異なった第2ミサイルを撃つことが記述されている。
An example of the second operation table data Dc5 will be described with reference to FIG. The second operation table data Dc5 is data indicating a second operation table in which game control processing content corresponding to the player's operation is described in the second operation mode described above. For example, the second operation table describes that the player moves the aiming cursor T to the position of the screen coordinates pointed by the controller 7 (the aiming cursor T indicates the shooting position, and the aiming cursor T The bullet firing direction parameter is determined by moving T. More specifically, the direction connecting the position in the virtual game space corresponding to the aiming cursor T and the position of the player character is set as the firing direction parameter. ). It is described that the direction of the virtual camera C is changed in response to the player pointing the peripheral area of the game image with the
加速度データDa4を用いて算出されたコントローラ7の動きが振り上げる動作の場合、仮想ゲーム空間をプレイヤキャラクタPがジャンプすることが記述されている。加速度データDa4を用いて算出されたコントローラ7の動きが手前に引く動作の場合、仮想ゲーム空間をプレイヤキャラクタPが振り返ることが記述されている。そして、プレイヤがBボタンを押下している間、仮想カメラCの視点がプレイヤキャラクタPの頭部に移動する(すなわち、前述のPhの位置に移動する)ことが記述されている。また、プレイヤがコントローラ7で仮想ゲーム空間(疑似3次元画像)を照準カーソルTにより指し示した状態で、Aボタンを押しながら、コントローラ7を上に振り上げた後振り下ろす動作をした場合、当該照準カーソルTで指し示された仮想ゲーム空間内の位置に対して第1ビームとは異なった第2ビームを撃つ(または、先端に鎖のついたチェーンなどの武器が飛んでいくようにしてもよい)ことが記述されている。この場合、Aボタンを押すことで、後述のステップ84の判断がYESとなり、その後コントローラ7の振り上げによりコントローラ7で指し示されたスクリーン座標系の位置座標が所定範囲内でなくなったとしても、客観的画像への切り替えや第1操作モードへの切り替えがおこらない。
It is described that the player character P jumps in the virtual game space when the motion of the
なお、本実施例では、照準カーソルTの位置に対応する仮想ゲーム空間の位置に弾が発射されるように制御するが、変形例では、照準カーソルTの位置に対応する仮想ゲーム空間の位置に向かってプレイヤキャラクタPが移動するように制御しても良い。 In the present embodiment, control is performed so that bullets are fired at the position of the virtual game space corresponding to the position of the aiming cursor T. You may control so that the player character P moves toward.
第1操作テーブルおよび第2操作テーブルを比較すれば明らかなように、それぞれ操作手段に対応するゲーム制御処理内容が異なっている。例えば、プレイヤがAボタンを押下することに応じて、第1操作テーブルでは仮想カメラCの位置が変更されるが、第2操作テーブルではプレイヤキャラクタPが第1ビームを撃つ。また、第1操作テーブルでは撮像情報演算部74からの処理結果データやBボタンを用いる処理が記述されていない。これは、第1操作モードではプレイヤがコントローラ7を横持ちするためにBボタンを押下しにくい状態にあり、また撮像情報演算部74がマーカ8Lおよび8Rを撮像できない状態にあるため、プレイヤがそれらの操作手段を用いることが困難になるからである。このように、第1操作テーブルおよび第2操作テーブルには、プレイヤがコントローラ7を把持する方向やコントローラ7が指し示す方向によって切り替わる操作モードに応じて、プレイヤの操作に好適なゲーム制御内容が記述される。
As is apparent from a comparison between the first operation table and the second operation table, the game control process contents corresponding to the operation means are different. For example, in response to the player pressing the A button, the position of the virtual camera C is changed in the first operation table, but the player character P shoots the first beam in the second operation table. In the first operation table, the processing result data from the imaging
次に、図21および図22を参照して、ゲーム装置3において行われるゲーム処理の詳細を説明する。なお、図21は、ゲーム装置3において実行されるゲーム処理の前半の流れを示すフローチャートである。図22は、ゲーム装置3において実行されるゲーム処理の後半の流れを示すフローチャートである。なお、図21および図22に示すフローチャートにおいては、ゲーム処理のうち、コントローラ7を用いた操作モードの切り替えに関するゲーム処理について主に説明し、本願発明と直接関連しない他のゲーム処理については詳細な説明を省略する。また、図21および図22では、CPU30が実行する各ステップを「S」と略称する。
Next, with reference to FIG. 21 and FIG. 22, the details of the game process performed in the
ゲーム装置3の電源が投入されると、ゲーム装置3のCPU30は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ33等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムがメインメモリ33に読み込まれ、CPU30によって当該ゲームプログラムの実行が開始される。図21および図22に示すフローチャートは、以上の処理が完了した後に行われるゲーム処理を示すフローチャートである。
When the power of the
図21において、CPU30は、ゲーム処理の初期設定を行い(ステップ50)、処理を次のステップに進める。例えば、CPU30は、チェックカウンタ値CCを0に設定してチェックカウンタデータDb4として記憶させる。また、CPU30は、有効フラグfをfalseに設定して有効フラグデータDb5として記憶させる。
In FIG. 21, the
次に、CPU30は、コントローラ7から受信した操作情報を取得して(ステップ51)、処理を次のステップに進める。そして、CPU30は、操作情報を操作情報Daとしてメインメモリ33に記憶する。ここで、ステップ51で取得される操作情報には、マーカ8Lおよび8Rの撮像画像内における位置を示す座標データ(第1座標データDa1および第2座標データDa2)の他、コントローラ7の操作部72がどのように操作されたか示すデータ(キーデータDa3)、および加速度センサ701が検出した加速度を示すデータ(加速度データDa4)が含まれている。ここでは、通信部75は、所定の時間間隔(例えば5ms間隔)で操作情報をゲーム装置3へ送信する。そして、CPU30は、1フレーム毎に操作情報を利用するものとする。したがって、図21および図22に示すステップ51〜ステップ94の処理ループは、1フレーム毎に繰り返し実行される。
Next, the
次に、CPU30は、コントローラ7から有効な処理結果データ(第1座標データDa1および第2座標データDa2)が得られているか否かを判断する(ステップ52)。例えば、CPU30は、第1座標データDa1および第2座標データDa2の少なくとも一方が最新の座標情報に更新されている場合(つまり、撮像情報演算部74がマーカ8Lおよび8Rの少なくとも一方を撮像している場合)、有効な処理結果データが得られていると判断する。そして、CPU30は、有効な処理結果データが得られている場合、処理を次のステップ53に進める。一方、CPU30は、有効な処理結果データが得られていない場合、処理を次のステップ58に進める。
Next, the
ステップ53において、CPU30は、上記ステップ51で取得した操作情報を用いてスクリーン座標系の位置座標を算出してスクリーン座標データDb3として格納し(ステップ51)、処理を次のステップ54に進める。以下、操作情報を用いてスクリーン座標を算出する一例について詳述する。
In
上記ステップ53において、CPU30は、第1座標データDa1から第2座標データDa2への方向データDb1を算出する。具体的には、CPU30は、第1座標データDa1および第2座標データDa2を参照して、第1座標データDa1の位置を始点とし第2座標データDa2の位置を終点とするベクトルを算出する。そして、CPU30は、算出されたベクトルのデータを、方向データDb1としてメインメモリ33に記憶する。方向データDb1と所定の基準方向との差によって、コントローラ7の撮像面に垂直な方向を軸とする回転を算出することができる。
In
また、CPU30は、第1座標データDa1と第2座標データDa2との中点を示す中点データDb2を算出する。具体的には、CPU30は、第1座標データDa1および第2座標データDa2を参照して、当該中点の座標を算出する。そして、CPU30は、算出された中点の座標のデータを、中点データDb2としてメインメモリ33に記憶する。ここで、中点データDb2は、撮像画像内における対象画像(マーカ8Lおよび8R)の位置を示している。中点データDb2と所定の基準位置との差によって、コントローラ7の位置の変化による画像位置の変化を算出することができる。
Further, the
ここで、マーカ8Lおよび8Rと、モニタ2の表示画面と、コントローラ7との位置関係について考える。例えば、モニタ2の上面に2つのマーカ8Lおよび8Rを設置し(図10参照)、上面が上方向を向いたコントローラ7を用いてプレイヤがモニタ2の表示画面の中央を指し示した場合(撮像情報演算部74の撮像画像の中央に表示画面中央が撮像されている状態)を考える。このとき、撮像情報演算部74の撮像画像において、対象画像の中点(マーカ8Lおよび8Rの中点)位置と指し示した位置(表示画面中央)とが一致しない。具体的には、上記撮像画像における対象画像の位置は撮像画像の中心から上方の位置となる。このような位置に対象画像が位置する場合に、表示画面中央を指し示しているという基準位置の設定を行う。一方、コントローラ7の移動に対応して、撮像画像中の対象画像の位置も移動する(移動方向は逆方向となる)ので、撮像画像中の対象画像の位置の移動に対応させて表示画面を指し示す位置を移動させる処理を行うことによって、コントローラ7で指し示された表示画面基準の位置(スクリーン座標系の位置座標)を算出することができる。ここで、基準位置の設定は、予めプレイヤが表示画面の所定位置を指し示し、そのときの対象画像の位置を当該所定位置と対応させて記憶しておくようにしてもよいし、対象画像と表示画面との位置関係が固定的であれば、予め設定されていても良い。また、マーカ8Lおよび8Rが、モニタ2とは別体で設けられてモニタ2の近く(モニタ2の上や下など)に載置されて使用されるものである場合には、ゲーム開始前に、マーカ8Lおよび8Rをモニタに対してどの位置に載置しているかをプレイヤに入力させ(例えば、モニタ2の上に載置したか下に載置したか等の選択肢から選択させ)、光ディスク4やゲーム装置3の内蔵不揮発メモリなどに、モニタの上に載置した場合の基準位置データと、モニタの下に載置した場合の基準位置データをそれぞれ記憶しておいて、それらを選択して使用してもよい。このようなスクリーン座標系の位置座標は、中点データDb2からモニタ2の表示画面基準の座標(スクリーン座標データDb3)を算出する関数を用いた線形変換で算出される。この関数は、ある撮像画像から算出される中点座標の値を、当該撮像画像が撮像される時のコントローラ7によって指し示される表示画面上の位置(スクリーン座標系の位置座標)を表す座標に変換するものである。この関数によって、中点座標から表示画面を基準とした指し示し位置を算出することができる。
Here, the positional relationship among the
しかしながら、上面が上方向以外(例えば、右方向)を向いたコントローラ7を用いてプレイヤがモニタ2の表示画面の中央を指し示した場合、上記撮像画像における対象画像の位置は撮像画像の中心から上方以外(例えば、左方)の方向にずれた位置となる。つまり、コントローラ7の傾きによって、コントローラ7の移動方向と、表示画面基準の指し示し位置の移動方向が一致しないことになる。そこで、方向データDb1に基づいて、中点データDb2を補正する。具体的には、中点データDb2を、コントローラ7の上面が上方向を向いた状態であるとした場合における中点座標に補正する。より具体的には、上記基準位置の設定の際には方向データの基準も設定され、ステップ64で算出された中点データDb2を、方向データDb1と当該基準方向との角度差に応じた量だけ、撮像画像の中心を軸として中点データDb2が示す座標を回転移動させて補正する。そして、補正された中点データDb2を用いて上述したようにスクリーン座標データDb3を算出する。
However, when the player points to the center of the display screen of the
図21に戻り、ステップ54において、CPU30は、スクリーン座標系の位置座標が所定範囲内か否かを判断する。そして、CPU30は、位置座標が所定範囲内である場合、処理を次のステップ55に進める。一方、CPU30は、位置座標が所定範囲外である場合、処理を次のステップ58に進める。ここで、上記所定範囲は、コントローラ7が指し示した位置が検出可能な範囲内であれば、どのような範囲でもよい。例えば、検出可能な範囲がモニタ2の表示画面より大きな領域である場合、上記所定範囲を表示画面と同じ範囲に指定してもいいし、表示画面より大きな範囲に指定してもかまわない。また、表示画面の一部を上記所定範囲に指定してもかまわない。
Returning to FIG. 21, in
ステップ55において、CPU30は、チェックカウンタデータDb4として記憶されているチェックカウンタ値CCが0未満か否かを判断する。そして、CPU30は、チェックカウンタ値CCが0未満である場合、チェックカウンタ値CCを0に設定して(ステップ56)、処理を次のステップ57に進める。一方、CPU30は、チェックカウンタ値CCが0以上である場合、そのまま処理を次のステップ57に進める。そして、CPU30は、ステップ57において現在のチェックカウンタ値CCに1を加算してチェックカウンタデータDb4を更新し、処理を次のステップ61に進める。
In
一方、有効な処理結果データが得られていない場合(上記ステップ52でNo)およびスクリーン座標系の位置座標が所定範囲外である場合(上記ステップ54でNo)、CPU30は、処理をステップ58に進める。ステップ58において、CPU30は、チェックカウンタデータDb4として記憶されているチェックカウンタ値CCが0より大きいか否かを判断する。そして、CPU30は、チェックカウンタ値CCが0より大きい場合、チェックカウンタ値CCを0に設定して(ステップ59)、処理を次のステップ60に進める。一方、CPU30は、チェックカウンタ値CCが0以下である場合、そのまま処理を次のステップ60に進める。そして、CPU30は、ステップ60において現在のチェックカウンタ値CCから1を減算してチェックカウンタデータDb4を更新し、処理を次のステップ61に進める。
On the other hand, when valid processing result data is not obtained (No in Step 52) and when the position coordinates of the screen coordinate system are outside the predetermined range (No in Step 54), the
次に、CPU30は、チェックカウンタデータDb4に記憶されているチェックカウンタ値CCが2より大きいか否か(ステップ61)、およびチェックカウンタ値CCが−8以下か否か(ステップ63)を判断する。そして、CPU30は、チェックカウンタ値CCが2より大きい場合(ステップ61でYes)、有効フラグfをtrueに設定して有効フラグデータDb5として記憶させて(ステップ62)、処理を次のステップ81(図22)に進める。また、CPU30は、チェックカウンタ値CCが−8以下である場合(ステップ63でYes)、有効フラグfをfalseに設定して有効フラグデータDb5として記憶させて(ステップ64)、処理を次のステップ81に進める。また、CPU30は、チェックカウンタ値CCが−8より大きく2以下である場合(ステップ61およびステップ63が何れもNo)、そのまま処理を次のステップ81に進める。
Next, the
上記ステップ52〜ステップ64の処理から明らかなように、スクリーン座標系の位置座標が所定範囲外から所定範囲内に移動したときにチェックカウンタ値CCが0に設定され、連続して、再度スクリーン座標系の位置座標が所定範囲内であることが確認できたときに有効フラグfがtrueに設定される。そして、スクリーン座標系の位置座標が所定範囲内である限り、有効フラグfがtrueとなる。一方、スクリーン座標系の位置座標が所定範囲内から所定範囲外に移動したときにチェックカウンタ値CCが0に設定され、その後連続して7回の処理周期でスクリーン座標系の位置座標が所定範囲外であることが確認されたときに有効フラグfがfalseに設定される。そして、スクリーン座標系の位置座標が所定範囲外である限り、有効フラグfがfalseとなる。つまり、有効フラグfがfalseからtrueへの変化に対して、有効フラグfがtrueからfalseへの変化が遅いことになる。したがって、後述により明らかとなるが、第1操作モードから第2操作モードへは移行が早く、第2操作モードから第1操作モードへは移行が遅い設定となっている。
As is clear from the processing in
図22において、ステップ81でCPU30は、有効フラグデータDb5として記憶されている有効フラグfがfalseか否かを判断する。そして、CPU30は、有効フラグfがfalseである場合、現在、客観的画像であるか否か(ステップ82)、特殊な動作中であるか否か(ステップ83)、特殊な操作中であるか否か(ステップ84)、および加速度変化量が閾値以上か否か(ステップ85)をそれぞれ判断して、ステップ82〜ステップ85が何れもNoである場合、処理を次のステップ86に進める。一方、CPU30は、有効フラグfがtrueである場合、またはステップ83〜ステップ85の少なくとも1つの判断がYesである場合、処理を次のステップ88に進める。また、CPU30は、ステップ82の判断がYesである場合、処理を次のステップ92に進める。
In FIG. 22, in step 81, the
ステップ86において、CPU30は、第2操作モードから第1操作モードに移行し、客観的画像(図14および図15参照)に切り替えた仮想カメラCの位置および方向を算出して仮想カメラデータDc3に記憶する。なお、客観的画像における仮想カメラCの位置および方向については、図14および図15を用いて説明した方法と同様であるため、ここでは詳細な説明を省略する。そして、CPU30は、ゲーム制御処理に用いる操作テーブルを第2操作テーブルから第1操作テーブル(図19参照)に切り替えて(ステップ87)、処理を次のステップ92に進める。
In
一方、CPU30は、有効フラグfがtrueである場合、またはステップ83〜ステップ85の少なくとも1つの判断がYesである場合、現在、主観的画像であるか否か(ステップ88)および特殊な動作中であるか否か(ステップ89)をそれぞれ判断する。そして、ステップ88およびステップ89の判断が何れもNoである場合、処理を次のステップ90に進める。一方、CPU30は、ステップ88およびステップ89の少なくとも1つの判断がYesである場合、処理を次のステップ92に進める。
On the other hand, when the valid flag f is true, or when at least one of the determinations in
ステップ90において、CPU30は、第1操作モードから第2操作モードに移行し、主観的画像(図16および図17参照)に切り替えて仮想カメラCの位置および方向を算出して仮想カメラデータDc3に記憶する。なお、主観的画像における仮想カメラCの位置および方向については、図16および図17を用いて説明した方法と同様であるため、ここでは詳細な説明を省略する。そして、CPU30は、ゲーム制御処理に用いる操作テーブルを第1操作テーブルから第2操作テーブル(図20参照)に切り替えて(ステップ91)、処理を次のステップ92に進める。
In
ステップ92において、CPU30は、現在対象となっている第1操作テーブルまたは第2操作テーブルを用いて、上記ステップ51で取得した操作情報に応じたゲーム制御処理を行い、処理を次のステップに進める。CPU30は、操作情報Daとして更新されて格納されているキーデータDa3および加速度データDa4と、操作状態情報Dbとして更新されて格納されているスクリーン座標データDb3および指示位置データDc1とを用いて、プレイヤキャラクタPにアクションや移動をさせたり、仮想カメラCを移動させたりする。ここで、ステップ92で用いる操作テーブルは、第1操作モードおよび第2操作モードによってそれぞれ異なるため、それぞれの操作手段に対応するゲーム制御処理の内容が異なることになる。したがって、プレイヤは、それぞれの操作モードに応じてコントローラ7を操作してゲームをコントロールすることができる。
In
また、第2操作モードにおいて、上記ステップ53で算出したスクリーン座標系の位置座標をゲーム空間内における位置を表す座標に変換する場合には、当該スクリーン座標系における位置に対応するゲーム空間内における位置にさらに変換すればよい。ここで、スクリーン座標系における位置に対応するゲーム空間内における位置とは、モニタ2の表示画面上における位置に表示されるゲーム空間内における位置(例えば、透視投影される位置)やスクリーン座標系の位置座標から直接的に指定されるゲーム空間の3次元座標値等である。
In the second operation mode, when the position coordinate in the screen coordinate system calculated in
上記スクリーン座標データDb3の算出処理の本質的な原理は、コントローラ7の移動による対象画像の位置の変化によって、指し示された2次元座標の所定の基準位置からの変位を算出し、座標を設定するというものである。したがって、スクリーン座標系の位置座標は、他の2次元座標の入力としても幅広く用いることができる。例えば、スクリーン座標系の位置座標をワールド座標系におけるx座標およびy座標の値として直接的に用いることができる。この場合、モニタ2の表示画面とは無関係に、対象画像の移動をワールド座標系におけるx座標およびy座標の基準位置からの移動に対応付ける算出処理を行えばよい。また、2次元のゲーム画像がモニタ2に表示されている場合などは、スクリーン座標系の位置座標をそのまま2次元のゲーム座標系におけるx座標およびy座標の値として直接的に用いることができる。
The essential principle of the calculation process of the screen coordinate data Db3 is that the displacement of the indicated two-dimensional coordinates from the predetermined reference position is calculated by setting the coordinates by changing the position of the target image by the movement of the
次に、CPU30は、仮想カメラCを視点とした仮想ゲーム空間を描画し、モニタ2にゲーム画像を表示して(ステップ93)、処理を次のステップに進める。ここで、仮想ゲーム空間の仮想カメラCは、現在の操作モードに応じてプレイヤキャラクタPに対する客観的画像または主観的画像となるようにパラメータが設定される。そして、プレイヤの操作に応じて、仮想カメラCの配置位置を調整してゲーム画像を生成する。
Next, the
例えば、第2操作モードにおいてプレイヤがコントローラ7の1番ボタン(操作ボタン72b)を押下している場合、プレイヤキャラクタPの頭部を視点とする主観的画像の位置に仮想カメラCが配置される。
For example, when the player is pressing the first button (
また、第2操作モードにおいてプレイヤがコントローラ7のBボタン(操作ボタン72i)を押下しながら、コントローラ7で指し示す位置(照準カーソルTの位置)を移動した場合に、当該照準カーソルTの位置がゲーム画像の周辺領域(例えば、図16に示すの表示画像内の周辺領域A、または、表示画像外の周辺領域)に入ったとき、または、当該照準カーソルTが当該周辺領域に入っている状態で、Bボタンを押下した場合には、当該照準カーソルTの位置に応じた仮想ゲーム空間の位置がモニタ2の表示画面に表示されるような方向に仮想カメラCの方向を変化させる(このとき、仮想カメラCの視点位置は変更しなくてもよい)。すなわち、照準カーソルTがゲーム画像の上部領域にあるときには、仮想カメラCの方向を現在の方向よりも上向きに変更し、下部領域にあるときには、現在の方向より下向きに変更し、右部領域にあるときには、現在の方向よりも右向きに変更し、左部領域にあるときには、現在の方向よりも左向きに変更する(つまり、プレイヤがコントローラ7で表示画面外を指し示した方向にゲーム画像がスクロールするようにモニタ2に表示される。)。なお、この状態において(すなわち、Bボタンを押しながら照準カーソルが当該周辺領域に入ったとき、または、照準カーソルが当該周辺領域に入っている状態でBボタンを押したときに、仮想カメラCの方向が変化している状態において)、さらに、コントローラ7で指し示す位置がゲーム画像外または表示画面外または検出不能になったときは、Bボタンが押され続けている限り、当該周辺領域において最後に照準カーソルが存在していた領域(上部/下部/左部/右部)に応じて上方向/下方向/左方向/右方向に仮想カメラの方向を変化させ続けても良い。
In the second operation mode, when the player moves the position indicated by the controller 7 (the position of the aiming cursor T) while pressing the B button (the
ここで、上述したゲーム画像がスクロールする状態は、後述から明らかとなるがステップ84でYesと判断されてコントローラ7が上記所定範囲外を指し示しているにもかかわらず第2操作モードから第1操作モードへの移行がされない状態である。つまり、この状態は、プレイヤにコントローラ7で上記所定範囲外を指し示しているのに第1操作モードに移行しない不安を与えることが考えられる。例えば、プレイヤがBボタンを押下した状態でコントローラ7を縦持ちから横持ちへ変更した場合、この事態が顕著となる。しかしながら、コントローラ7の下面凹部に設けられたBボタンは、コントローラ7を横持ちするとプレイヤの指から強制的に離れる(図9参照)ため、上記不安を与える事態を自然に避けることができる。
Here, the state in which the above-described game image is scrolled will be apparent from the following, but the first operation is started from the second operation mode in spite of being determined Yes in
次に、CPU30は、ゲームを終了するか否かを判断する(ステップ94)。ゲームを終了する条件としては、例えば、ゲームオーバーとなる条件(例えば、プレイヤキャラクタPの体力を示すパラメータが0になったこと等)が満たされたことや、プレイヤがゲームを終了する操作を行ったこと等がある。CPU30は、ゲームを終了しない場合に上記ステップ51(図21)に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。
Next, the
ここで、上述した各ステップ81〜ステップ85の具体的内容について説明する。上記ステップ83〜ステップ85が実行される条件は、有効フラグfがfalseで主観的画像である状態である。つまり、コントローラ7で指し示されたスクリーン座標系の位置座標が所定範囲内にない状態(例えば、プレイヤがコントローラ7の前面をモニタ2に向けていない)でありながら、仮想カメラCの視点が主観的画像に設定されている状態である。具体的には、特殊な動作中、特殊な操作中、および加速度変化量が閾値以上のときは、第2操作モードから第1操作モードへの移行および主観的画像から客観的画像への移行を行わない。
Here, the specific contents of the above-described steps 81 to 85 will be described. The condition for executing the
上記ステップ83の条件である特殊な動作中とは、第2操作モードにおいて仮想ゲーム空間でプレイヤキャラクタPが特殊な動作をしている途中であることを示しており、例えば、加速度センサの振り上げ入力により仮想ゲーム空間においてプレイヤキャラクタPがジャンプ中の状態や、Aボタンの長押によりビームチャージ中の状態等である。なお、ジャンプ中の状態を判定する場合、ジャンプ動作が完了するまで「動作中」と判定してもよいし、ジャンプ動作が完了してしばらくの間も含めて「動作中」と判定してもよいし、ジャンプ動作の途中までの所定期間のみ「動作中」と判定してもよい。また、上記ステップ84の条件である特殊な操作中とは、第2操作モードにおいてプレイヤがコントローラ7を用いた特殊な操作をしている途中であることを示しており、例えば、プレイヤがBボタン(操作ボタン72i)や1番ボタン(操作ボタン72b)を押下している操作中であることを示している。ここで、図20に示したように、第2操作モードでプレイヤがBボタンを押下しているときは、ゲーム画像をスクロールするように表示している状態や、他のボタン操作の組み合わせによって操作する途中段階であることが多い。また、第2操作モードでプレイヤが1番ボタンを押下しているときは、視点がプレイヤキャラクタPの頭部に移動している状態である。これらの例のように、特殊な動作中や特殊な操作中に操作モードや視点を強制的に切り替えると、プレイヤの操作が強制的にキャンセルされたり、視点の切り替えに無理があるゲーム画面の変更になったりすることによって、操作に混乱が生じることがある。このようなモード変更を防止するために、動作中および操作中においてモード切り替えを一部制限している。
The special action that is the condition of
上記ステップ85の条件である加速度変化量が閾値以上のときとは、加速度センサ701が検出したX、Y、およびZ軸方向の加速度を合成した変化量が予め設定された閾値以上を示しているときである(なお、所定成分が閾値以上であることを検出してもよい)。例えば、第2操作モードにおいて、プレイヤがコントローラ7全体を移動させることによって操作しているとき(例えば、コントローラ7を振り上げる等)、コントローラ7で指し示している位置が上述した所定範囲から逸脱することもある。この所定範囲からの逸脱に応じて、第2操作モードから第1操作モードへ移行してしまうと、プレイヤの操作に混乱が生じる。また、コントローラ7で指し示す位置が上記所定範囲から逸脱することなくコントローラ7全体を移動させることは、非常に困難となる。したがって、このようなモード変更を防止するために、コントローラ7全体をプレイヤが移動させているときは、加速度センサ701が検出するX、Y、およびZ軸方向の加速度の変化量の何れかが大きくなることを利用して、コントローラ7の移動中はモード変更が行われないように制御している。
When the acceleration change amount that is the condition of step 85 is equal to or greater than a threshold value, the change amount obtained by combining the accelerations in the X, Y, and Z axis directions detected by the
また、上述した各ステップ81、ステップ88、およびステップ89の具体的内容について説明する。上記ステップ89が実行される条件は、有効フラグfがtrueで客観的画像である状態である。つまり、コントローラ7で指し示されたスクリーン座標系の位置座標が所定範囲内にある状態(例えば、プレイヤがコントローラ7の前面をモニタ2に向けている)でありながら、仮想カメラCの視点が客観的画像に設定されている状態である。具体的には、特殊な動作中のときは、第1操作モードから第2操作モードへの移行および客観的画像から主観的画像への移行を行わない。
In addition, the specific contents of the above-described
上記ステップ89の条件である特殊な動作中とは、第1操作モードにおいて仮想ゲーム空間でプレイヤキャラクタPが特殊な動作をしている途中であることを示しており、例えば、上記ステップ83と同様に仮想ゲーム空間においてプレイヤキャラクタPがジャンプ中の状態等である。この例のように、特殊な動作中に操作モードや視点を強制的に切り替えると、視点の切り替えに無理があるゲーム画面の変更になることによって、操作に混乱が生じることがある。このようなモード変更を防止するために、第1操作モードから第2操作モードへの移行においても動作中においてモード切り替えを一部制限している。
The special action being the condition of
なお、上述した客観的画像および主観的画像や各操作手段における操作に対応するゲーム制御内容は、単なる一例であり他の視点変更や他のゲーム制御内容に設定しても本発明を実現できることは言うまでもない。例えば、第1操作モードでは、仮想ゲーム空間における銃口方向を加速度センサ701が検出した加速度に応じて変更しているが、コントローラ7に設けられた操作部72の何れかの操作によって変更してもかまわない。また、コントローラ7にジョイスティックが設けられている場合、第1操作モードでは当該スティックの傾倒方向に応じて銃口方向を変更してもかまわない。このように、コントローラ7に設けられている操作部72の態様に応じて、プレイヤの操作姿勢に合わせて各操作手段における操作に対応するゲーム制御内容を設定することによって、様々な変更が可能となる。
Note that the above-described objective image and subjective image, and the game control content corresponding to the operation on each operation means are merely examples, and the present invention can be realized even if other viewpoint changes or other game control content are set. Needless to say. For example, in the first operation mode, the muzzle direction in the virtual game space is changed according to the acceleration detected by the
このように、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いてプレイヤが座標指定する位置に応じて、ゲーム処理内容が異なったそれぞれの操作モードに自動的に変更される。変更されるゲーム処理内容の一例として、ゲーム空間における仮想カメラCの配置位置や方向が主観的画像や客観的画像に変更される。変更されるゲーム処理内容の他の例として、各操作手段における操作に対応するゲーム制御内容を変更する。例えば、第1操作モードでは、プレイヤキャラクタPが所持する銃の仮想ゲーム空間における銃口方向(照準位置)を加速度センサ701が検出した加速度や操作部72に対する操作に応じて変更しているが、第2操作モードでは、撮像情報演算部74の処理結果データに応じて照準位置を変更している。また、第1操作モードでは、プレイヤがコントローラ7を横持ちすることによって、プレイヤキャラクタPの横方向から注視点をプレイヤキャラクタPとほぼ一致させたゲーム画像が表示される。そして、第2操作モードでは、モニタ2を指し示すようにプレイヤがコントローラ7を縦持ちすることによって、視点をプレイヤキャラクタPとほぼ一致させて当該プレイヤキャラクタPが対向する方向に注視点を設定したゲーム画像が表示される。したがって、本発明では、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いたゲーム装置において、同じゲームの実行中に適宜操作方法や視点を自動的に変更することができる。
As described above, each operation mode having different game processing contents is automatically set according to the position where the player designates coordinates using a pointing device capable of outputting data for remotely designating coordinates on the display screen. Be changed. As an example of the changed game processing content, the arrangement position and direction of the virtual camera C in the game space are changed to a subjective image or an objective image. As another example of the changed game process content, game control content corresponding to an operation on each operation means is changed. For example, in the first operation mode, the muzzle direction (sighting position) of the gun possessed by the player character P in the virtual game space is changed according to the acceleration detected by the
なお、上述した説明では、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスの一例として、コントローラ7に設けられた撮像素子743で撮像対象を撮像した画像データを解析することによって、モニタ2の表示画面に対して座標指定する態様を用いた。この態様は、表示画面近傍に撮像対象となる2つのマーカを設置し、撮像手段およびその撮像方向を自在に変更可能なハウジングを備えたデバイスが撮像画像中の2つのマーカを検出し、当該撮像画像におけるマーカの位置に基づいて当該デバイスが指定する座標位置を導出するものである。しかしながら、他の態様で上記ポインティングデバイスを構成してもかまわない。
In the above description, as an example of a pointing device that can output data for remotely specifying coordinates on the display screen, image data obtained by imaging an imaging target with the
例えば、表示画面近傍に設置する撮像対象は、上述した電気的なマーカ(LEDモジュール)の他に、光を反射する部材や特定色や特定形状を有する物理的なマーカでもかまわない。また、モニタ2の表示画面に撮像対象を表示してもかまわない。また、コントローラ7が備える撮像手段でラスタスキャン型モニタの走査線を読み取ることによって、当該モニタ自体を撮像対象にしてもかまわない。また、磁気発生装置を設け、当該磁気発生装置から生じる磁気を利用して遠隔から座標指定してもかまわない。この場合、コントローラ7には、上記磁気を検出するための磁気センサを設けることになる。
For example, the imaging target placed in the vicinity of the display screen may be a member that reflects light, or a physical marker having a specific color or shape, in addition to the electrical marker (LED module) described above. Further, the imaging target may be displayed on the display screen of the
また、上述した説明では、2つのマーカ8Lおよび8Rからの赤外光を、コントローラ7の撮像情報演算部74の撮像対象としたが、他のものを撮像対象にしてもかまわない。例えば、1つまたは3つ以上のマーカをモニタ2の近傍に設置し、それらのマーカからの赤外光を撮像情報演算部74の撮像対象としてもかまわない。例えば、所定の長さを有する1つのマーカをモニタ2の近傍に設置しても、本発明を同様に実現することができる。また、モニタ2の表示画面自体や他の発光体(室内灯等)を撮像情報演算部74の撮像対象としてもかまわない。撮像対象とモニタ2の表示画面との配置関係に基づいて、当該表示画面に対するコントローラ7の位置を演算すれば、様々な発光体を撮像情報演算部74の撮像対象として用いることができる。
In the above description, the infrared light from the two
また、コントローラ7側にマーカ等の撮像対象を設けて、撮像手段をモニタ2側に設けてもかまわない。さらに他の例では、コントローラ7の前面から光を放射する機構を設けてもかまわない。この場合、コントローラ7およびモニタ2とは別の場所にモニタ2の表示画面を撮像する撮像装置を設置し、モニタ2の表示画面にコントローラ7から放射された光が反射した位置を当該撮像装置が撮像した画像から解析することによって、同様に表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを構成することができる。さらに、コントローラ7に設けられた加速度センサ701からの加速度データを用いてコントローラ7の姿勢や動作を算出することによって、表示画面に対して遠隔から座標指定するように構成してもかまわない。このように、ハウジングに加速度センサを備えたコントローラであっても、同様に表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを構成することができる。
Further, an imaging target such as a marker may be provided on the
また、上述した説明では、コントローラ7とゲーム装置3とが無線通信によって接続された態様を用いたが、コントローラ7とゲーム装置3とがケーブルを介して電気的に接続されてもかまわない。この場合、コントローラ7に接続されたケーブルをゲーム装置3の接続端子に接続する。
In the above description, the
また、コントローラ7から無線送信される送信データを受信する受信手段として、ゲーム装置3の接続端子に接続された受信ユニット6を用いて説明したが、ゲーム装置3の本体内部に設けられた受信モジュールによって当該受信手段を構成してもかまわない。この場合、受信モジュールが受信した送信データは、所定のバスを介してCPU30に出力される。
Further, the reception unit 6 connected to the connection terminal of the
また、撮像素子743で撮像した画像データを解析してマーカ8Lおよび8Rからの赤外光の位置座標やそれらの重心座標等を取得し、それらを処理結果データとしてコントローラ7内で生成してゲーム装置3へ送信する態様を説明したが、他の処理段階のデータをコントローラ7からゲーム装置3へ送信してもかまわない。例えば、撮像素子743が撮像した画像データをコントローラ7からゲーム装置3へ送信し、CPU30において上記解析処理を行って処理結果データを取得してもかまわない。この場合、コントローラ7に設けられた画像処理回路744が不要となる。また、上記画像データの解析途中のデータをコントローラ7からゲーム装置3へ送信してもかまわない。例えば、画像データから得られる輝度、位置、および面積等を示すデータをコントローラ7からゲーム装置3へ送信し、CPU30において残りの解析処理を行って処理結果データを取得してもかまわない。
Further, the image data picked up by the
また、上述したコントローラ7の形状や、それらに設けられている操作部72の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、コントローラ7における撮像情報演算部74の位置(撮像情報演算部74の光入射口)は、ハウジング71の前面でなくてもよく、ハウジング71の外部から光を取り入れることができれば他の面に設けられてもかまわない。
In addition, the shape of the
また、上述した説明では、第1操作モードにおけるゲーム画像および第2操作モードにおけるゲーム画像は、共に同一の3次元ゲーム空間に対して視点を変更して生成される例を説明したが、他のゲーム画像をモニタ2に表示してもかまわない。例えば、少なくとも一方のゲーム画像が、2次元のゲーム画像であってもかまわない。また、一方のゲーム画像が、アイコン画像等の機能的画像であってもかまわない。例えば、第2操作モードにおけるゲーム画像を複数のアイコンが表示された機能的画像を表示することによって、コントローラ7で指し示されたアイコンを選択する等のプレイヤの操作に好適な態様となる。
In the above description, the game image in the first operation mode and the game image in the second operation mode are both generated by changing the viewpoint with respect to the same three-dimensional game space. The game image may be displayed on the
本発明に係るゲームプログラム、ゲーム装置、およびゲームシステムは、表示画面に対して遠隔から座標指定するためのデータを出力可能なポインティングデバイスを用いてプレイヤが座標指定する位置に応じて、ゲーム処理内容が異なったそれぞれの操作モードに自動的に変更することができ、当該ポインティングデバイス等を用いて操作するゲーム装置で実行されるゲームプログラム、ゲーム装置、ゲームシステム等として有用である。 The game program, the game device, and the game system according to the present invention provide a game processing content according to a position where a player designates coordinates using a pointing device that can output data for remotely designating coordinates on a display screen. Can be automatically changed to different operation modes, and is useful as a game program, a game device, a game system, or the like executed by a game device operated using the pointing device or the like.
1…ゲームシステム
2…モニタ
2a、706…スピーカ
3…ゲーム装置
30…CPU
31…メモリコントローラ
32…GPU
33…メインメモリ
34…DSP
35…ARAM
36…コントローラI/F
37…ビデオI/F
38…外部メモリI/F
39…オーディオI/F
40…ディスクドライブ
41…ディスクI/F
4…光ディスク
5…外部メモリカード
6…受信ユニット
7…コントローラ
71…ハウジング
72…操作部
73…コネクタ
74…撮像情報演算部
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
751…マイコン
752…メモリ
753…無線モジュール
754…アンテナ
700…基板
701…加速度センサ
702…LED
703…水晶振動子
704…バイブレータ
707…サウンドIC
708…アンプ
8…マーカ
DESCRIPTION OF
31 ...
33 ...
35 ... ARAM
36 ... Controller I / F
37 ... Video I / F
38 ... External memory I / F
39 ... Audio I / F
40 ...
DESCRIPTION OF SYMBOLS 4 ...
703 ...
708 ...
Claims (22)
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記装置へ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記コンピュータに、
前記ポインティングデバイスから無線出力されたデータを受信して前記検出面上の座標を取得する座標取得ステップと、
前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたか否かを検出する検出ステップと、
前記検出ステップによる検出に応じて、指示座標関連処理ステップと、指示座標非関連処理ステップとを切り替えて実行する切替ステップとを実行させ、
前記指示座標関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いた情報処理である指示座標関連処理を前記コンピュータに実行させ、
前記指示座標非関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理を前記コンピュータに実行させる、情報処理プログラム。 An information processing program that is executed by a computer of a device that is wirelessly connected to a pointing device that can wirelessly output data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the device ,
The housing is provided with operation portions on both sides along the long axis direction,
In the computer,
A coordinate acquisition step of receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
A detection step of detecting whether or not coordinates within a predetermined area on the detection surface are acquired by the coordinate acquisition step;
In response to the detection by the detection step, the designated coordinate related processing step and the designated coordinate non-related processing step are performed by switching and executed,
In the designated coordinate related processing step, the computer is caused to execute designated coordinate related processing which is information processing using the coordinates obtained in the coordinate obtaining step,
In the designated coordinate non-related processing step, the designated coordinate non-related processing which is information processing using the operation data output from the operation units on both sides is not performed on the computer without using the coordinates obtained in the coordinate obtaining step. An information processing program to be executed.
前記指示座標非関連処理ステップは、情報処理パラメータに基づいて第1の演算をすることによって前記仮想カメラのパラメータを決定する第1仮想カメラ制御ステップを含み、
前記指示座標関連処理ステップは、情報処理パラメータに基づいて前記第1の演算とは異なった第2の演算をすることによって前記仮想カメラのパラメータを決定する第2仮想カメラ制御ステップを含む、請求項1に記載の情報処理プログラム。 Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
The designated coordinate unrelated processing step includes a first virtual camera control step of determining a parameter of the virtual camera by performing a first calculation based on an information processing parameter;
The instruction coordinate related processing step includes a second virtual camera control step of determining a parameter of the virtual camera by performing a second calculation different from the first calculation based on an information processing parameter. 1. An information processing program according to 1.
前記指示座標非関連処理ステップは、仮想3次元空間に存在するオブジェクトを客観的に眺めた画像が生成されるように、前記仮想カメラのパラメータを決定する第1仮想カメラ制御ステップを含み、
前記指示座標関連処理ステップは、前記オブジェクトから主観的に仮想3次元空間を眺めた画像が生成されるように、前記仮想カメラのパラメータを決定する第2仮想カメラ制御ステップを含む、請求項1に記載の情報処理プログラム。 Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
The designated coordinate unrelated processing step includes a first virtual camera control step of determining parameters of the virtual camera so that an image in which an object existing in the virtual three-dimensional space is objectively viewed is generated.
2. The specified coordinate related processing step includes a second virtual camera control step of determining parameters of the virtual camera so that an image in which a virtual three-dimensional space is subjectively viewed from the object is generated. The information processing program described.
前記指示座標非関連処理ステップは、前記仮想カメラの注視点がオブジェクトの位置とほぼ一致するように前記仮想カメラのパラメータを決定する第1仮想カメラ制御ステップを含み、
前記指示座標関連処理ステップは、前記仮想カメラの視点が当該オブジェクトの位置とほぼ一致するように前記仮想カメラのパラメータを決定する第2仮想カメラ制御ステップを含む、請求項1に記載の情報処理プログラム。 Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
The designated coordinate unrelated processing step includes a first virtual camera control step of determining a parameter of the virtual camera so that a gazing point of the virtual camera substantially matches a position of the object,
2. The information processing program according to claim 1, wherein the designated coordinate related processing step includes a second virtual camera control step of determining a parameter of the virtual camera so that a viewpoint of the virtual camera substantially coincides with a position of the object. .
前記指示座標非関連処理ステップでは、前記仮想カメラの視点からオブジェクトの位置までの距離が、前記指示座標関連処理ステップで決定される当該距離より長くなるように前記仮想カメラのパラメータが決定される、請求項1に記載の情報処理プログラム。 Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
In the designated coordinate non-related processing step, the parameters of the virtual camera are determined such that the distance from the viewpoint of the virtual camera to the position of the object is longer than the distance determined in the designated coordinate related processing step. The information processing program according to claim 1.
前記指示座標非関連処理ステップでは、オブジェクトの進行方向または向きに対して横方向から仮想3次元空間を眺めた画像が生成されるように前記仮想カメラのパラメータが決定され、
前記指示座標関連処理ステップでは、前記オブジェクトの進行方向または向きに向かって仮想3次元空間を眺めた画像が生成されるように前記仮想カメラのパラメータが決定される、請求項1に記載の情報処理プログラム。 Causing the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen;
In the designated coordinate unrelated processing step, the parameters of the virtual camera are determined so that an image in which the virtual three-dimensional space is viewed from the lateral direction with respect to the traveling direction or orientation of the object is generated,
The information processing according to claim 1, wherein in the designated coordinate-related processing step, parameters of the virtual camera are determined so that an image in which a virtual three-dimensional space is viewed in the traveling direction or direction of the object is generated. program.
前記指示座標非関連処理ステップでは、前記方向指示部からの操作データに応じてオブジェクトが仮想3次元空間において移動制御される、請求項1乃至7の何れかに記載の情報処理プログラム。 The operation unit includes a direction instruction unit capable of instructing a direction by a user operation,
The information processing program according to any one of claims 1 to 7, wherein, in the designated coordinate unrelated processing step, an object is controlled to move in a virtual three-dimensional space in accordance with operation data from the direction designating unit.
前記指示座標関連処理ステップでは、前記指示座標関連処理に加えて、前記操作部が発生した同じ操作データに基づいて前記所定の情報処理とは異なる情報処理が実行される、請求項1に記載の情報処理プログラム。 In the designated coordinate non-related process step, as the designated coordinate non-related process, predetermined information processing is executed based on operation data generated by the operation unit,
The information processing different from the predetermined information processing is executed in the instruction coordinate related processing step, in addition to the instruction coordinate related processing, based on the same operation data generated by the operation unit. Information processing program.
前記操作部は、ユーザによる操作を検出可能な第1操作部および第2操作部が設けられ、
前記指示座標非関連処理ステップでは、前記指示座標非関連処理として、前記第1操作部が発生した操作データに基づいて所定の情報処理が実行され、
前記指示座標関連処理ステップでは、前記指示座標関連処理に加えて、前記第2操作部が発生した操作データに基づいて前記所定の情報処理と同じ情報処理が実行される、請求項1に記載の情報処理プログラム。 The pointing device includes a housing that is gripped by a user;
The operation unit includes a first operation unit and a second operation unit that can detect an operation by a user.
In the designated coordinate non-related process step, as the designated coordinate non-related process, predetermined information processing is executed based on operation data generated by the first operation unit,
The information processing same as the predetermined information processing according to claim 1, wherein, in the designated coordinate related processing step, in addition to the designated coordinate related processing, the same information processing as the predetermined information processing is executed based on operation data generated by the second operation unit. Information processing program.
前記指示座標非関連処理ステップでは、前記指示座標非関連処理として、前記操作部が発生した操作データに基づいて前記情報処理パラメータが決定される、請求項1に記載の情報処理プログラム。 In the designated coordinate related processing step, as the designated coordinate related processing, a predetermined information processing parameter is determined based on the coordinates obtained in the coordinate obtaining step,
The information processing program according to claim 1, wherein, in the designated coordinate non-related processing step, the information processing parameter is determined based on operation data generated by the operation unit as the designated coordinate non-related processing.
前記操作部は、方向指示可能な操作部を含み、
前記指示座標関連処理ステップでは、前記指示座標関連処理として、前記座標取得ステップで取得された座標に基づいて前記方向パラメータが決定され、
前記指示座標非関連処理ステップでは、前記指示座標非関連処理として、前記方向指示可能な操作部により指示された方向に基づいて前記方向パラメータが決定される、請求項12に記載の情報処理プログラム。 The information processing parameter is a direction parameter indicating a direction in a virtual three-dimensional space,
The operation unit includes an operation unit capable of instructing a direction,
In the designated coordinate related processing step, as the designated coordinate related processing, the direction parameter is determined based on the coordinates obtained in the coordinate obtaining step,
13. The information processing program according to claim 12, wherein in the designated coordinate non-related processing step, the direction parameter is determined based on a direction designated by the operation unit capable of directing the direction as the designated coordinate non-related processing.
前記ポインティングデバイスは、前記表示画面に対して遠隔から座標指示するためのデータを出力可能なものであり、
前記情報処理プログラムは、空間を表現した画像を前記表示画面に表示する表示制御ステップを、さらに前記コンピュータに実行させ、
前記指示座標関連処理ステップでは、前記指示座標関連処理として、前記座標取得ステップで取得された座標が前記画像上で重なる空間の対応座標の位置に応じた処理が行われる、請求項1に記載の情報処理プログラム。 The detection surface is set corresponding to a display screen on which an image is displayed,
The pointing device is capable of outputting data for remotely instructing coordinates on the display screen,
The information processing program causes the computer to further execute a display control step of displaying an image representing a space on the display screen,
2. The process according to claim 1, wherein in the designated coordinate-related processing step, as the designated coordinate-related process, processing according to a position of a corresponding coordinate in a space where the coordinates acquired in the coordinate obtaining step overlap on the image is performed. Information processing program.
前記検出ステップでは、前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出され、
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときであっても、前記操作部から所定の操作データが出力されているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。 In the designated coordinate related processing step, in addition to the designated coordinate related processing, based on operation data from the operation unit, information processing different from information processing in the designated coordinate related processing is performed.
In the detection step, it is detected that the state has been shifted from a state where it is detected that the coordinates within the predetermined area on the detection surface have been acquired by the coordinate acquisition step,
In the switching step, even when the transition is detected by the detection step, when predetermined operation data is output from the operation unit, the designated coordinate related processing step to the designated coordinate non-related processing step. The information processing program according to claim 1, wherein the execution of the designated coordinate-related processing step is continued without being executed.
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときであっても、前記操作部から所定の操作データが出力されているときには、前記指示座標非関連処理ステップから前記指示座標関連処理ステップに切り替えて実行されず、前記指示座標非関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。 In the detection step, it is detected that the coordinate acquisition step has shifted to a state in which the detection is performed from a state in which the coordinates in the predetermined area on the detection surface are acquired and are not detected,
In the switching step, even when the transition is detected by the detection step, when predetermined operation data is output from the operation unit, the designated coordinate related processing step to the designated coordinate related processing step. The information processing program according to claim 1, wherein the execution of the designated coordinate unrelated processing step is continued without being switched to.
前記検出ステップでは、前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出され、
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときに、前記操作部から所定の操作データが出力されているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続され、かつ、前記座標取得ステップにより取得される座標に応じて前記仮想カメラの視線方向が変更される、請求項1に記載の情報処理プログラム。 The information processing program causes the computer to further execute a display control step of displaying an image viewed from a virtual camera arranged in a virtual three-dimensional space on a display screen,
In the detection step, it is detected that the state has been shifted from a state where it is detected that the coordinates within the predetermined area on the detection surface have been acquired by the coordinate acquisition step,
In the switching step, when the transition is detected by the detection step and the predetermined operation data is output from the operation unit, the designated coordinate related processing step is switched to the designated coordinate non-related processing step. The information processing program according to claim 1, wherein the information processing program is not executed, the execution of the designated coordinate-related processing step is continued, and the line-of-sight direction of the virtual camera is changed according to the coordinates acquired by the coordinate acquisition step. .
前記検出ステップでは、前記座標取得ステップにより前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出され、
前記切替ステップでは、前記検出ステップにより前記移行が検出されたときに、前記オブジェクトが特定の動作をしているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。 The information processing program causes the computer to further execute an object operation control step for operating an object placed in a virtual world according to a user operation,
In the detection step, it is detected that the state has been shifted from a state where it is detected that the coordinates within the predetermined area on the detection surface have been acquired by the coordinate acquisition step,
In the switching step, when the transition is detected by the detection step and the object is performing a specific motion, the instruction coordinate related processing step is not switched to the instruction coordinate non-related processing step. The information processing program according to claim 1, wherein execution of the designated coordinate related processing step is continued.
前記ハウジングは、動きセンサが設けられ、
前記検出ステップにおいて前記検出面における所定領域内の座標が取得されたと検出される状態から当該検出がされない状態に移行したことが検出された場合、前記切替ステップでは、前記検出ステップにより前記移行が検出されたときであっても、前記動きセンサが所定の閾値以上の出力を示しているときには、前記指示座標関連処理ステップから前記指示座標非関連処理ステップに切り替えて実行されず、前記指示座標関連処理ステップの実行が継続される、請求項1に記載の情報処理プログラム。 The pointing device includes a housing that is gripped by a user;
The housing is provided with a motion sensor;
In the detection step, when it is detected that the state where the coordinates within the predetermined area on the detection surface have been acquired is shifted to the state where the detection is not performed, the transition step detects the transition in the switching step. Even when the motion sensor indicates an output equal to or greater than a predetermined threshold, it is not executed by switching from the designated coordinate related processing step to the designated coordinate non-related processing step. The information processing program according to claim 1, wherein execution of the steps is continued.
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記情報処理装置へ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記ポインティングデバイスから無線出力されたデータを受信して前記検出面上の座標を取得する座標取得手段と、
前記座標取得手段で取得された座標を用いた情報処理である指示座標関連処理をおこなう指示座標関連処理手段と、
前記座標取得手段で取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理をおこなう指示座標非関連処理手段と、
前記座標取得手段により前記検出面における所定領域内の座標が取得されたか否かを検出する検出手段と、
前記検出手段による検出に応じて、前記指示座標関連処理手段と、前記指示座標非関連処理手段とを切り替えて実行する切替手段とを備える、情報処理装置。 An information processing apparatus wirelessly connected to a pointing device capable of wirelessly outputting data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the information processing apparatus ;
The housing is provided with operation portions on both sides along the long axis direction,
Coordinate acquisition means for receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
Designated coordinate related processing means for performing designated coordinate related processing which is information processing using the coordinates acquired by the coordinate acquisition means;
Instruction coordinate unrelated processing means for performing instruction coordinate non-related processing which is information processing using operation data output from the operation units on both sides without using the coordinates acquired by the coordinate acquisition means;
Detecting means for detecting whether or not coordinates within a predetermined region on the detection surface are acquired by the coordinate acquiring means;
An information processing apparatus comprising: a switching unit that switches and executes the designated coordinate related processing unit and the designated coordinate non-related processing unit in response to detection by the detection unit.
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記情報処理装置へ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記情報処理装置は、
前記ポインティングデバイスから無線出力されたデータを受信して、前記検出面上の座標を取得する座標取得手段と、
前記座標取得手段で取得された座標を用いた情報処理である指示座標関連処理をおこなう指示座標関連処理手段と、
前記座標取得手段で取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理をおこなう指示座標非関連処理手段と、
前記座標取得手段により前記検出面における所定領域内の座標が取得されたか否かを検出する検出手段と、
前記検出手段による検出に応じて、前記指示座標関連処理手段と、前記指示座標非関連処理手段とを切り替えて実行する切替手段とを備える、情報処理システム。 An information processing system including an information processing apparatus wirelessly connected to a pointing device capable of wirelessly outputting data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the information processing apparatus ;
The housing is provided with operation portions on both sides along the long axis direction,
The information processing apparatus includes:
Coordinate acquisition means for receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
Designated coordinate related processing means for performing designated coordinate related processing which is information processing using the coordinates acquired by the coordinate acquisition means;
Instruction coordinate unrelated processing means for performing instruction coordinate non-related processing which is information processing using operation data output from the operation units on both sides without using the coordinates acquired by the coordinate acquisition means;
Detecting means for detecting whether or not coordinates within a predetermined region on the detection surface are acquired by the coordinate acquiring means;
An information processing system comprising: switching means for switching and executing the designated coordinate related processing means and the designated coordinate non-related processing means in response to detection by the detection means.
前記ポインティングデバイスは、ユーザによって把持される縦長形状のハウジングを含み、かつ、その長軸方向の端部から当該長軸方向に伸ばした直線が前記検出面と交わる位置を指示座標として取得するためのデータを前記コンピュータへ無線出力するものであり、
前記ハウジングには、前記長軸方向に沿った両側部にそれぞれ操作部が設けられ、
前記ポインティングデバイスから無線出力されたデータを受信して前記検出面上の座標を取得する座標取得ステップと、
前記座標取得ステップにおいて前記検出面における所定領域内の座標が取得されたか否かを検出する検出ステップと、
前記検出ステップにおける検出に応じて、指示座標関連処理ステップと、指示座標非関連処理ステップとを切り替えて実行する切替ステップとを含み、
前記指示座標関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いた情報処理である指示座標関連処理がおこなわれ、
前記指示座標非関連処理ステップでは、前記座標取得ステップにおいて取得された座標を用いず、前記両側部の操作部から出力された操作データを用いた情報処理である指示座標非関連処理がおこなわれる、情報処理方法。 An information processing method in which the following steps are realized by computer processing using a pointing device capable of wirelessly outputting data for instructing coordinates to a predetermined detection surface remotely,
The pointing device includes a vertically long housing that is gripped by a user, and obtains a position at which a straight line extending in the long axis direction from an end in the long axis direction intersects the detection surface as indicated coordinates. Wirelessly outputting data to the computer ,
The housing is provided with operation portions on both sides along the long axis direction,
A coordinate acquisition step of receiving data wirelessly output from the pointing device and acquiring coordinates on the detection surface;
A detection step of detecting whether or not coordinates within a predetermined area on the detection surface are acquired in the coordinate acquisition step;
In accordance with detection in the detection step, includes a switching step of switching and executing a designated coordinate related processing step and a designated coordinate non-related processing step,
In the designated coordinate related processing step, designated coordinate related processing that is information processing using the coordinates acquired in the coordinate acquisition step is performed.
In the designated coordinate non-related processing step, the designated coordinate non-related processing which is information processing using the operation data output from the operation unit on both sides is performed without using the coordinates obtained in the coordinate obtaining step. Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013004426A JP5331259B2 (en) | 2013-01-15 | 2013-01-15 | Information processing program, information processing apparatus, information processing system, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013004426A JP5331259B2 (en) | 2013-01-15 | 2013-01-15 | Information processing program, information processing apparatus, information processing system, and information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006130727A Division JP5330640B2 (en) | 2006-05-09 | 2006-05-09 | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013090941A JP2013090941A (en) | 2013-05-16 |
JP5331259B2 true JP5331259B2 (en) | 2013-10-30 |
Family
ID=48614536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013004426A Active JP5331259B2 (en) | 2013-01-15 | 2013-01-15 | Information processing program, information processing apparatus, information processing system, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5331259B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6734236B2 (en) * | 2017-08-14 | 2020-08-05 | 株式会社 ディー・エヌ・エー | Program, system, and method for providing game |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3538285B2 (en) * | 1995-09-07 | 2004-06-14 | 株式会社ナムコ | Shooting game apparatus and control method thereof |
JPH1186038A (en) * | 1997-03-03 | 1999-03-30 | Sega Enterp Ltd | Image processor, image processing method, medium and game machine |
JP2002018128A (en) * | 2000-07-10 | 2002-01-22 | Namco Ltd | Game system and information storage medium |
US7510477B2 (en) * | 2003-12-11 | 2009-03-31 | Argentar Eric J | Control apparatus for use with a computer or video game system |
-
2013
- 2013-01-15 JP JP2013004426A patent/JP5331259B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013090941A (en) | 2013-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5330640B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD | |
JP4907128B2 (en) | Game system and game program | |
JP4798705B2 (en) | POSITION CALCULATION DEVICE, POSITION CALCULATION PROGRAM, GAME DEVICE, AND GAME PROGRAM | |
JP4471910B2 (en) | Virtual positioning program | |
JP4794957B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD | |
JP4262726B2 (en) | Game controller and game system | |
JP4989105B2 (en) | Game controller | |
JP5004518B2 (en) | GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD | |
JP2009064449A (en) | Controller and computer system | |
JP2007236697A (en) | Image processor and image processing program | |
US9751013B2 (en) | Storage medium, information processing system, and information processing method for adjusting images based on movement information | |
JP2007075213A (en) | Information processing program | |
JP2007300962A (en) | Game program and game device | |
JP2009015793A (en) | Image processing program and image processing apparatus | |
JP2007283134A (en) | Game controller and game system | |
JP2013078624A (en) | Game system and game program | |
JP5259965B2 (en) | Information processing program and information processing apparatus | |
JP2010142404A (en) | Game program, and game apparatus | |
JP5945297B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP5735865B2 (en) | Game system and game program | |
JP5331259B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5357998B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD | |
JP5352626B2 (en) | Information processing program | |
JP2012135694A (en) | Information processing program, information processing device, information processing system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20130418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5331259 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |