JP2008071069A - Program, information storage medium, and image generation system - Google Patents
Program, information storage medium, and image generation system Download PDFInfo
- Publication number
- JP2008071069A JP2008071069A JP2006248400A JP2006248400A JP2008071069A JP 2008071069 A JP2008071069 A JP 2008071069A JP 2006248400 A JP2006248400 A JP 2006248400A JP 2006248400 A JP2006248400 A JP 2006248400A JP 2008071069 A JP2008071069 A JP 2008071069A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- unit
- information
- controller
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。 The present invention relates to a program, an information storage medium, and an image generation system.
従来より、ハンマー投げなど、選手が回転して被投てき物を投てきするゲームを行う画像生成システムが知られている。このような画像生成システムでは、回転する選手の画像やガイド表示を視認させながら選手の向きを見定めさせてボタンなどのON/OFF入力を行わせ、ON/OFF入力のタイミングにより投てきの結果を出力する。かかる制御を行う技術として、例えば特開平10−52572号公報に開示される従来技術がある。
しかしながら従来の画像生成システムでは、投てきの結果に影響するものは主にON/OFF入力のタイミングであるため、投てき動作の仮想現実感を高めることが困難であった。 However, in the conventional image generation system, it is difficult to enhance the virtual reality of the throwing operation because it is mainly the ON / OFF input timing that affects the throwing result.
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、投てき動作等、操作者の操作の仮想現実感を効果的に高めることができるプログラム、情報記憶媒体及び画像生成システムを提供することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a program and an information storage medium that can effectively enhance the virtual reality of an operator's operation such as a throwing operation. And providing an image generation system.
(1)本発明は、
コントローラの操作に応じた画像を生成するための画像生成システムであって、
前記コントローラの動きに応じて変化する情報を検出する検出部の検出結果に基づいて、表示部に対する前記コントローラの指示位置情報と、前記コントローラの動き情報とを取得する情報取得部と、
前記指示位置情報に基づいて仮想空間に基準位置を設定する基準位置設定部と、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する移動処理部と、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体の到達位置、移動方向、移動経路の少なくとも1つを示す移動結果表示を表示させる移動結果表示制御処理を行う表示制御部と、
を含むことを特徴とする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(1) The present invention
An image generation system for generating an image according to an operation of a controller,
Based on the detection result of the detection unit that detects information that changes according to the movement of the controller, an information acquisition unit that acquires the controller's indicated position information with respect to the display unit, and the movement information of the controller;
A reference position setting unit that sets a reference position in a virtual space based on the indicated position information;
Based on the reference position and the movement information, a movement processing unit that calculates at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space;
Based on at least one of the arrival position, movement direction, and movement path of the moving object in the virtual space, the display unit displays a movement result display indicating at least one of the arrival position, movement direction, and movement path of the moving object. A display control unit that performs a movement result display control process, and
It is related with the image generation system characterized by including. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.
本発明によれば、コントローラの指示位置情報に基づく基準位置と、コントローラの動き情報とに基づいて、移動体の到達位置、移動方向、移動経路の少なくとも1つが演算される。従って本発明では、必ずしもコントローラの指示位置が移動体の到達位置等になるとは限らず、コントローラの指示位置にコントローラの動きを加味した結果を移動体の到達位置等に反映させることができる。即ち本発明によれば、コントローラの向き(指示位置)と動きとを変化させる操作者の動作に対応させて移動体の到達位置等を求めるので、例えば投てき動作等の仮想現実感を効果的に高めることができる画像生成システムを実現することができる。 According to the present invention, at least one of the arrival position, the moving direction, and the moving path of the moving body is calculated based on the reference position based on the controller position information and the controller movement information. Therefore, in the present invention, the indicated position of the controller is not necessarily the arrival position of the moving body, and the result of adding the movement of the controller to the indicated position of the controller can be reflected in the reaching position of the moving body. That is, according to the present invention, the arrival position of the moving body is obtained in accordance with the operation of the operator that changes the direction (instructed position) and movement of the controller, so that virtual reality such as throwing motion can be effectively obtained. An image generation system that can be enhanced can be realized.
(2)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記情報取得部が、
前記コントローラの所与の方向への動き情報を取得し、
前記移動処理部が、
前記所与の方向への動き情報に基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算するようにしてもよい。
(2) In the image generation system, program, and information storage medium according to the present invention,
The information acquisition unit
Obtaining movement information of the controller in a given direction;
The movement processing unit is
Based on the movement information in the given direction, at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space may be calculated.
本発明によれば、プレーヤがコントローラの向き(指示位置)と、所与の方向への動きとを変化させる動作に対応させて移動体の到達位置等を求めるので、例えば所与の方向への投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。 According to the present invention, the player finds the arrival position or the like of the moving body in correspondence with the operation of changing the direction (indicated position) of the controller and the movement in the given direction. It is possible to realize an image generation system that can more effectively enhance virtual reality such as throwing motion.
(3)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記移動処理部が、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達範囲を設定し、設定された前記到達範囲から前記到達位置を決定するようにしてもよい。
(3) In the image generation system, the program, and the information storage medium according to the present invention,
The movement processing unit is
Based on the reference position and the motion information, a reachable range of the moving body in the virtual space may be set, and the reachable position may be determined from the set reachable range.
本発明によれば、到達位置を決定するための到達範囲を設定するので、例えば取得される動き情報に誤差やぶれなどが生じるような場合であっても、指示位置情報との組合せによって、不自然とならない到達位置を求めることができる。 According to the present invention, since the reach range for determining the reach position is set, for example, even if an error or blurring occurs in the acquired motion information, it is unnatural depending on the combination with the indicated position information. An arrival position that does not become can be obtained.
(4)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記移動処理部が、
前記移動体の種類に応じて前記移動体の到達範囲を設定するようにしてもよい。
(4) In the image generation system, the program, and the information storage medium according to the present invention,
The movement processing unit is
You may make it set the reachable range of the said mobile body according to the kind of said mobile body.
本発明によれば、到達位置を決定するための到達範囲を、移動体の種類に応じて設定するので、例えば取得される動き情報に誤差やぶれなどが生じるような場合であっても、指示位置情報と移動体の種類の組合せによって、より不自然とならない到達位置を求めることができる。 According to the present invention, since the reach range for determining the reach position is set according to the type of the moving body, for example, even if an error or a shake occurs in the acquired motion information, the indicated position The arrival position that is not unnatural can be obtained by combining the information and the type of the moving object.
(5)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記移動処理部が、
前記動き情報に基づいて、前記仮想空間における移動体の移動速度を演算するようにしてもよい。
(5) In the image generation system, the program, and the information storage medium according to the present invention,
The movement processing unit is
Based on the motion information, the moving speed of the moving body in the virtual space may be calculated.
本発明によれば、プレーヤがコントローラの動きを変化させる動作に対応させて移動体の移動速度を求めるので、例えばコントローラを早く動かせば移動体も早く動くなど、投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。 According to the present invention, the player obtains the moving speed of the moving body in response to an operation that changes the movement of the controller. Therefore, for example, if the controller is moved quickly, the moving body moves faster. An image generation system that can be effectively enhanced can be realized.
(6)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記コントローラに設けられた操作子の操作入力を受け付ける入力受付部を更に含み、
前記基準位置設定部が、
前記操作子の操作タイミングに応じて、前記指示位置情報に基づいて仮想空間に基準位置を設定するようにしてもよい。
(6) In the image generation system, the program, and the information storage medium according to the present invention,
An input receiving unit for receiving an operation input of an operator provided in the controller;
The reference position setting unit is
A reference position may be set in the virtual space based on the designated position information according to the operation timing of the operation element.
本発明によれば、操作子の操作タイミングに応じて基準位置が設定されるので、例えば、操作子を押下することにより基準位置を設定してからすぐにコントローラを動かして動き情報を取得させると標的等への命中率が上がるような構成とすれば、基準位置の設定操作から動き情報の入力操作までの動きを、一連の流れでスムースに行うようにすることができる。その他例えば、動き情報の入力操作中にボタン等の操作子を押下させるようにし、操作子を放したタイミングの指示位置情報に基づいて基準位置を設定させれば、現実の投てき動作のリリースポイントを表現することができる。 According to the present invention, since the reference position is set according to the operation timing of the operation element, for example, when the reference position is set by pressing the operation element and the controller is immediately moved to acquire movement information. With a configuration that increases the accuracy of hitting a target or the like, the movement from the reference position setting operation to the movement information input operation can be smoothly performed in a series of flows. In addition, for example, if an operator such as a button is pressed during an input operation of motion information, and the reference position is set based on the indicated position information of the timing when the operator is released, the release point of the actual throwing operation is set. Can be expressed.
(7)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記表示制御部が、
前記操作子の操作タイミングを指示する操作指示表示を表示部に表示させる操作指示表示制御処理を更に行い、
前記移動処理部が、
前記操作子の操作タイミングに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算するようにしてもよい。
(7) In the image generation system, the program, and the information storage medium according to the present invention,
The display control unit
Further performing an operation instruction display control process for causing the display unit to display an operation instruction display for instructing the operation timing of the operator,
The movement processing unit is
Based on the operation timing of the operation element, at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space may be calculated.
本発明によれば、操作指示表示によって、操作者による操作子の操作タイミングを補助することができるとともに、仮想現実感を効果的に高めることができる操作タイミングを指示して、これを操作者に行わせることができる。従って本発明によれば、例えば投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。 According to the present invention, the operation instruction display can assist the operation timing of the operator by the operator, and can instruct the operation timing that can effectively enhance the virtual reality, and this can be indicated to the operator. Can be done. Therefore, according to the present invention, it is possible to realize an image generation system capable of more effectively enhancing virtual reality such as throwing motion.
(8)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記情報取得部が、
前記コントローラの動きに応じて変化する情報が所与のしきい値を超えた場合に、前記コントローラの動き情報を取得するようにしてもよい。
(8) In the image generation system, the program, and the information storage medium according to the present invention,
The information acquisition unit
When the information that changes according to the movement of the controller exceeds a given threshold, the movement information of the controller may be acquired.
本発明によれば、所与のしきい値を超えない入力を動き情報に反映させないことにより、プレーヤが意図しない動きを移動体の到達位置等に反映させないようにすることができる。 According to the present invention, an input that does not exceed a given threshold value is not reflected in the motion information, so that a motion that is not intended by the player can be prevented from being reflected in the arrival position of the moving object.
(9)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に表示させる標的と前記移動体との位置関係を判定する判定部と、
前記判定の結果に基づいて前記コントローラの操作を評価する評価部とを更に含むようにしてもよい。
(9) In the image generation system, the program, and the information storage medium according to the present invention,
A determination unit that determines a positional relationship between the target to be displayed on the display unit and the moving body, based on at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space;
An evaluation unit that evaluates the operation of the controller based on the result of the determination may be further included.
本発明によれば、判定に応じた評価を行うことにより、操作者にコントローラの操作に対する目的意識や、緊張感を与えることができる。例えば、「うまい!」などのように操作を評価する表示や、得点演算、アイテムの獲得などのイベントの発生により、操作者を評価することができる。 According to the present invention, it is possible to give the operator a sense of purpose for the operation of the controller and a sense of tension by performing the evaluation according to the determination. For example, the operator can be evaluated by the occurrence of an event such as a display that evaluates the operation such as “delicious!”, Score calculation, item acquisition, or the like.
(10)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記判定部が、
前記標的と前記移動体とが前記標的に設定された複数の判定領域のいずれにおいて交差したか判定し、
前記評価部が、
前記交差判定の結果に基づいて前記コントローラの操作を評価するようにしてもよい。
(10) In the image generation system, the program, and the information storage medium according to the present invention,
The determination unit is
Determining in which of the plurality of determination regions set for the target the target and the moving body intersect;
The evaluation unit is
The operation of the controller may be evaluated based on the result of the intersection determination.
本発明によれば、操作者に高い操作技量を要求することにより、コントローラの操作に対する目的意識や、緊張感をより高めることができる。 According to the present invention, by requesting the operator to have a high operating skill, it is possible to further increase the sense of purpose for the operation of the controller and a sense of tension.
(11)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記表示制御部が、
前記標的表示制御処理として、前記複数の判定領域を前記標的において識別可能に表示するとともに前記標的を移動させる処理を行うようにしてもよい。
(11) In the image generation system, the program, and the information storage medium according to the present invention,
The display control unit
As the target display control process, a process of displaying the plurality of determination areas so as to be identifiable on the target and moving the target may be performed.
本発明によれば、操作者に要求する操作技量を更に高め、コントローラの操作に対する目的意識や、緊張感を更に高めることができる。 According to the present invention, it is possible to further increase the operating skill required of the operator and further increase the sense of purpose for the operation of the controller and the sense of tension.
(12)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記表示制御部が、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体を表示させる移動体表示制御処理を行うようにしてもよい。
(12) In the image generation system, the program, and the information storage medium according to the present invention,
The display control unit
A moving body display control process for displaying the moving body on the display unit may be performed based on at least one of the arrival position, moving direction, and moving path of the moving body in the virtual space.
本発明によれば、演算結果に応じて移動体を表示させることにより、例えば投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。 ADVANTAGE OF THE INVENTION According to this invention, the image generation system which can raise virtual reality, such as throwing operation, more effectively can be implement | achieved by displaying a mobile body according to a calculation result.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.システム概略
図1は、本実施形態の画像生成システムを適用したゲームシステム10の概略外観図である。本実施形態のゲームシステム10は、表示画面11にゲーム画像を表示させる表示部12と、ゲーム処理等を行うゲーム機14と、プレーヤPが把持して所定範囲内での位置、向きを任意に変更可能なコントローラ16とを含む。本実施形態のコントローラ16は、コントローラ16の動きに応じて変化する情報を検出する検出部を内蔵しており、コントローラ16自体の位置や向き等の動きに関する情報を取得できるようになっている。なお図1の例では、ゲーム機14とコントローラ16とがケーブルにより接続されているが、ゲーム機14とコントローラ16との間で無線通信により情報を送受信するようにしてもよい。
1. System Overview FIG. 1 is a schematic external view of a
本実施形態ではコントローラ16は、その先端にCMOSセンサ等の撮像素子(受光素子)が設けられており、コントローラ16の先端を向けた方向の画像を取得することができる。また本実施形態の表示部12の表示画面11の上方には、2個の赤外線LED等からなる赤外光原18、20が設けられている。そして予め設定された基準位置情報と、撮像素子が取得した2つの赤外光原18、20の位置情報とから、表示画面11上におけるコントローラ16の指示位置の情報が演算できるようになっている。
In the present embodiment, the
従って図1に示すように、プレーヤPがコントローラ16を把持しながら手を動かしてコントローラ16自体の位置、向きを変化させると、かかる位置、向きの変化に応じて、表示部12に表示される操作対象COの位置、向きを変化させることができる。即ちコントローラ16自体の動きにより、操作対象COを操作することができる。
Therefore, as shown in FIG. 1, when the player P moves the hand while holding the
図2は、表示画面11におけるコントローラ16の指示位置の情報を演算する手法を説明するための図である。図2に示す矩形の領域は、CMOSセンサが取得した画像データが格納される画像データ領域PAである。本実施形態ではこの画像データ領域PAには、1/60秒ごとにコントローラ16の位置、向きに応じた画像データが格納される。そして画像データ領域PAに格納された画像データのうち、赤外光原18、20を撮像した領域である赤外光原領域IrA1、IrA2を用いて、表示画面11におけるコントローラ16の指示位置の情報を演算する。本実施形態では、画像データ領域PAの原点Oをコントローラ16が指示する点とし、原点Oと、画像データ領域PAにおける赤外光原領域IrA1、IrA2の位置座標と、画像データ領域PAにおける表示画面11に対応する領域である表示画面領域DpAとの相対的な位置関係から、表示画面11上におけるコントローラ16の指示位置の情報を演算する。
FIG. 2 is a diagram for explaining a method of calculating information on the indicated position of the
図2の例では、赤外光原領域IrA1、IrA2が、画像データ領域PAの中央よりもやや上方において、画像データ領域PAの基準線L(X軸)に対して時計回りにθ°回転された状態で形成されている。従って図2の例では、原点Oは表示画面領域DpAの右下部の所定位置に対応させることができ、表示画面11上におけるコントローラ16の指示位置の座標を求めることができる。そして、赤外光原領域IrA1、IrA2を結ぶ直線lの基準線Lに対する回転角度θから、表示画面11に対するコントローラ16の指示方向軸回りの回転角度を求めることができる。また、コントローラ16が表示画面11と所定距離にあるときの赤外光原領域IrA1とIrA2との基準距離Dを予め設定しておくことにより、基準距離Dと、図2の例における赤外光原領域IrA1とIrA2との距離dとの比に基づき、図2の例における表示画面11に対するコントローラ16の距離を求めることができる。
In the example of FIG. 2, the infrared light source areas IrA1 and IrA2 are rotated by θ ° clockwise with respect to the reference line L (X axis) of the image data area PA slightly above the center of the image data area PA. It is formed in the state. Accordingly, in the example of FIG. 2, the origin O can correspond to a predetermined position at the lower right of the display screen area DpA, and the coordinates of the indicated position of the
また本実施形態ではコントローラ16は、その内部に加速度センサ等を内蔵している。この加速度センサは、コントローラ16自体の動きに応じてコントローラ16の位置、向きが一定時間にどの位変化したか、コントローラ16自体の動きをコントローラ16にかかる加速度ベクトルとして検出することができる。本実施形態では、ゲーム空間としての仮想3次元空間(ワールド座標系)における3軸(X軸、Y軸、Z軸)それぞれの加速度ベクトルとして検出することができる。
In the present embodiment, the
従って本実施形態では、コントローラ16自体の動きの大きさ、方向、速度を検出することができる。また本実施形態では、予め設定されたコントローラ16の現実空間における基準位置(例えばコントローラ16の指示方向が、表示画面11の中心と直交する状態でのコントローラ16位置、向き)と、検出した3軸の加速度ベクトルとを比較することにより、表示画面11(基準位置)に対するコントローラ16の位置、向き、及び表示画面11上におけるコントローラ16の指示位置、及び表示画面11に対するコントローラ16の回転角度等を求めることができる。
Therefore, in this embodiment, the magnitude, direction, and speed of the movement of the
こうして本実施形態では、コントローラ16に内蔵されたCMOSセンサ、加速度センサ等により、コントローラ16の動きに応じて変化する情報を検出し、コントローラ16自体の現実空間における位置、指示位置、向きの変化や、コントローラ16自体の動きの大きさ、方向、速度等、コントローラ16自体の動きに関する情報を取得することができる。
Thus, in the present embodiment, information that changes according to the movement of the
2.ゲーム概略
図3は、回転する的に向けて矢を投げるダーツゲームを本実施形態のゲームシステム10に適用した例を説明するための図である。図3の例では、表示画面11上におけるコントローラ16の指示位置に基準マークSMが表示される。そして表示画面11の中央部には、操作目標となる円形の標的オブジェクトTOが配置されている。この標的オブジェクトTOは、複数の判定領域JAに色分けされており、各判定領域JAに応じて評価が異なるように設定されている。そしてこの標的オブジェクトTOは、その円中心を回転中心として図中時計回りに回転している。
2. Game Outline FIG. 3 is a diagram for explaining an example in which a dart game in which an arrow is thrown toward a rotating object is applied to the
そしてプレーヤPが、コントローラ16に設けられたボタン17を押下しながらコントローラ16の向きを変えることにより、基準マークSMを移動させる。そして標的オブジェクトTOのいずれかの領域について狙いを定め、ボタン17の押下を解除する(ボタン17から指を放す)と、押下を解除したタイミングで基準マークSMの位置が固定される。
Then, the player P moves the reference mark SM by changing the direction of the
そしてプレーヤが、図4(A)に示すようにコントローラ16を持っていた手を、図4(B)に示すように、表示画面11から離れる方向に引き(テイクバック)、表示画面11に近づく方向に向けて振る(リリース)。すると図3に示すように、基準マークSMの位置と、プレーヤの手の振りの強さ等に応じて、矢オブジェクトAOが標的オブジェクトTOに向けて放たれる。そして矢オブジェクトAOが標的オブジェクトTOに当たった場合には、判定領域JAに応じた得点が、表示画面11の左上部に得点表示PGとして表示される。
Then, the player pulls the hand holding the
このように本実施形態では、現実のダーツゲームでは手の振りの力加減によっては狙った位置に投げられないことがあるのと同様に、コントローラ16の指示位置に応じた基準マークSMの位置が必ずしも矢オブジェクとAOの到達点とならないように制御する。図3の例では、手の振りが弱かったため、矢オブジェクとAOが基準マークSMの位置にそのまま飛ばず、若干下方向にそれるように飛んでいる。
As described above, in the present embodiment, in the actual dart game, the position of the reference mark SM corresponding to the position indicated by the
かかる制御を行うため本実施形態では、コントローラ16の指示位置情報に基づく基準位置と、コントローラの動き情報とに基づいて、矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つが演算される。従って本実施形態では、必ずしもコントローラ16の指示位置が移動体の到達位置等になるとは限らず、コントローラ16の指示位置にコントローラ16の振り操作の強さ等を加味した結果を矢オブジェクトAOの到達位置等に反映させることができる。即ち本実施形態によれば、プレーヤによるコントローラ16の向き(指示位置)と動きとを変化させる動作に対応させて移動体の到達位置等を求めるので、投てき動作等の仮想現実感を効果的に高めることができる。
In order to perform such control, in the present embodiment, at least one of the arrival position, movement direction, and movement path of the arrow object AO is calculated based on the reference position based on the designated position information of the
ここで本実施形態では図3に示すように、表示画面11の左下部には、複数種類の形状をした複数の矢オブジェクトAOが表示されている。これら複数の矢オブジェクトAOは、それぞれどのような特性で飛ぶものであるか予め定められている。従ってプレーヤは、これから投げる矢オブジェクトAOの形状を見て、当該矢オブジェクトAOがどのような特性で飛んでいくか予測することができるようになっている。
Here, in the present embodiment, as shown in FIG. 3, a plurality of arrow objects AO having a plurality of types of shapes are displayed in the lower left portion of the
こうして本実施形態のダーツゲームシステム10では、基準マークSMを基準としつつ、これから投げる矢オブジェクトAOの形状から、適切な力加減でコントローラ16を表示画面11方向に振り、矢オブジェクトAOを狙った判定領域JAに刺す(到達させる)というゲームを楽しむ。
Thus, in the
3.構成
次に、図5を用いて本実施形態における画像生成システム(ゲームシステム)の構成について説明する。図5は、本実施形態における画像生成システムの機能ブロック図の一例である。なお、本実施形態の画像生成システムは、図5の構成要素(各部)の一部を省略した構成としてもよい。
3. Configuration Next, the configuration of the image generation system (game system) in the present embodiment will be described with reference to FIG. FIG. 5 is an example of a functional block diagram of the image generation system in the present embodiment. Note that the image generation system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 5 are omitted.
操作部160は、プレーヤが操作データを入力するためのものであり、特に本実施形態では、プレーヤが操作部160を把持して操作部160自体の位置、向きを任意に変更可能なものである。そして操作部160は、操作部160自体の動きに応じて変化する情報を検出する検出部162を内蔵する。従って本実施形態の操作部160では、操作部160自体の動きを操作データとして入力することができる。
The
検出部162は、例えばCMOSセンサやCCDカメラなど、撮像素子(受光素子)により撮像側の基準位置と撮像対象の受光位置との相対関係を取得して、操作部160自体の動きを検出する第1の検出部と、加速度センサや姿勢方位センサやジャイロなど、加速度、角速度、速度により基準位置、基準向き(基準軸)からの位置、向きの変位を検出する第2の検出部とを含む。例えば加速度センサとしては、圧電型や動電式、歪みケージ式等のハードウェアにより実現できる。これにより検出部162は、操作部160自体の動きを連続的な値として検出することができる。特に本実施形態では、検出部162は、操作部160の所定方向への振りの強さを検出することができる。
The
また操作部160は、プレーヤがON/OFF入力を行うための操作子としてのボタンが設けられている。なおボタンの他に、レバー(アナログパッド)、十字キー、ステアリング、マイク、タッチパネル型ディスプレイなどを備えるようにして、種々の操作データを入力できるようにしてもよい。
The
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部171と、最終的な表示画像等が記憶されるフレームバッファ172と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部173と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部174と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ176と、を含む。なお、これらの一部を省略する構成としてもよい。
The
特に本実施形態では記憶部170は、複数種類の矢オブジェクトAOの各矢オブジェクトAOについて、コントローラ16の所定方向への振りの強さと、基準マークSMに対する矢オブジェクトAOの到達範囲とを規定する到達範囲テーブル178を含む。ここで到達範囲とは、標的オブジェクトTOにおける矢オブジェクトAOの到達位置となり得る範囲の情報であって、所定の領域情報や、点情報の集合とすることができる。
In particular, in the present embodiment, the
なお本実施形態では、到達範囲テーブル178以外にも、コントローラ16の所定方向への振りの強さと、基準マークSMに対する矢オブジェクトAOの移動経路とを規定する移動経路テーブルを採用してもよい。ここで移動経路の情報としては、仮想3次元空間における曲線を示す方程式や直線を示す方程式などとすることができる。また、コントローラ16の所定方向への振りの強さと、基準マークSMに対する矢オブジェクトAOの移動方向や移動ベクトル等の方向情報とを規定する移動方向テーブルを採用するようにしてもよい。
In the present embodiment, in addition to the reach range table 178, a movement path table that defines the strength of swinging of the
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。 The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).
この情報記憶媒体180には、処理部100において本実施形態の種々の処理を行うためのプログラム(データ)が記憶されている。即ち、この情報記録媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。
The
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイなどにより実現できる。特に本実施形態では、表示部190の表示画面の中や、その周辺に、操作部160と表示部190の表示画面の相対位置を演算するための光源が設けられている。本実施形態ではこの光源は、不可視光を射出する赤外線LEDを用いている。
The
音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
The
携帯型情報記憶装置194には、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。
The portable
通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
The
なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。
Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the
特に、本実施形態の処理部100は、情報取得部108と、入力受付部109と、基準位置設定部110と、オブジェクト空間設定部111と、移動・動作処理部112と、表示制御部113と、判定部122と、標的状態設定部124と、評価部126と、音生成部130と、を含む。なお、これらの一部を省略する構成としてもよい。
In particular, the
情報取得部108は、操作部160の動きに応じて変化する情報を検出する検出部162の検出結果に基づいて、操作部160の動き情報を取得する。本実施形態では、操作部160に内蔵された検出部162の検出結果を1/60秒ごとに取得し、操作部160自体の動きに関する情報を演算しこれを取得する。また操作部160の動きに応じて変化する情報が所与のしきい値を超えた場合に、操作部160の動き情報を取得するようにしてもよい。
The
具体的には情報取得部108は、操作部160の先端に設けられたCMOSセンサ(第1の検出部)が検出した画像情報に基づいて、表示部190の表示画面上における操作部160の指示位置の座標、及び、表示部190の表示画面に対する操作部160の回転角度、及び、表示部190の表示画面に対する操作部160の距離を求め、これを取得することができる。
Specifically, the
また情報取得部108は、操作部160に内蔵された加速度センサ(第2の検出部)が検出した3軸(X軸、Y軸、Z軸)方向の加速度ベクトルに基づいて、操作部160自体の動きの大きさ、方向、速度を取得することができる。また表示部190の表示画面(基準位置、基準向き)に対する操作部160の位置、向き、及び、表示部190の表示画面上における操作部160の指示位置、及び、表示部190の表示画面(基準角度)に対する操作部160の回転角度等を求め、これを取得することができる。
The
特に情報取得部108は、操作部160自体の所与の方向への動きの大きさ、速度を取得する。具体的には本実施形態では、図3に示すコントローラ16の指示方向(例えばコントローラ16の先端に設けられた受光センサ面の法線方向や、カメラの基準軸方向、本実施形態では加速度センサの3軸のうちZ軸方向)への動きの大きさ、速度を取得する。即ち本実施形態では、図4(B)に示すように、表示画面11から離れる方向に引かれたコントローラ16が、表示画面11に近づく方向に向けて振られたときのコントローラ16の動き(振り動作)の大きさ、速度を取得する。
In particular, the
入力受付部109は、操作部160に設けられた操作子の操作入力を受け付ける。具体的には入力受付部109は、操作部160からの操作入力信号を1/60秒ごとに監視して、検出する。本実施形態では入力受付部109は、表示部190に対する操作部160の距離が第2の距離よりも近づいた場合に、操作入力を受付けないようにしている。
The
基準位置設定部110は、操作部160に設けられた操作子の操作入力タイミングに応じて、表示部190の表示画面上における操作部160の指示位置情報に基づいて、仮想空間(オブジェクト空間、ゲーム空間、画像領域)に基準位置を設定する。例えば操作ボタンが押下された時点や、押下された長さ、回数、間隔、又は押下されていた操作ボタンの押下が解除された時点などに応じて、指示位置情報を取得し、基準位置を設定する。
The reference
オブジェクト空間設定部111は、標的オブジェクトTOや矢オブジェクトAOなどの移動体オブジェクトや、キャラクタオブジェクト、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ち、オブジェクト空間設定部111は、ワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。なお、基準マークSMを移動体オブジェクトとして3次元的に表示させるようにしてもよい。
The object
移動・動作処理部112は、標的オブジェクトTOや矢オブジェクトAOなどの移動体オブジェクトの移動・動作演算(移動・動作シミュレーション)を行う。即ち、この移動・動作処理部112は、操作部160によりプレーヤが入力した操作データ、設定されたパラメータや属性又はプログラム(移動・動作アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。
The movement /
具体的には、本実施形態の移動・動作処理部112は、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは毎フレーム固定としてもよいし、処理負荷に応じて可変としてもよい。
Specifically, the movement /
特に、本実施形態の移動・動作処理部112は、設定された基準位置と操作部160の動き情報(所定方向への振り動作情報)とに基づいて、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つを演算する。このとき移動・動作処理部112は、設定された基準位置と操作部160の動き情報(所定方向への振り動作情報)とに基づいて、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路を規定するテーブルを参照し、到達位置、移動方向、移動経路の少なくとも1つを求めるようにしてもよい。
In particular, the movement /
具体的には移動・動作処理部112は、基準位置と動き情報とに基づいて、到達範囲テーブル178を参照し、標的オブジェクトTOにおける矢オブジェクトAOの到達範囲を設定し、設定された到達範囲から到達位置をランダムに、或いは所与のアルゴリズムに応じて決定する。
Specifically, the movement /
ここで移動・動作処理部112は、矢オブジェクトAOの種類に応じて矢オブジェクトAOの到達範囲を設定するようにしてもよい。また移動・動作処理部112は、動き情報に基づいて、前記仮想空間における移動体の移動速度を演算するようにしてもよい。
Here, the movement /
表示制御部113は、表示部190に標的オブジェクトTOを表示させる標的表示制御処理と、操作部160の表示部190上の指示位置情報や、操作部160自体の向き情報に基づいて、表示部190に基準マークSMを表示させる基準マーク表示制御処理と、移動・動作処理部112が求めた仮想空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つに基づいて、表示部190に矢オブジェクトAOを表示させる移動体表示制御処理と、を行う。
The
具体的には表示制御部113は、表示部190に矢オブジェクトAOが飛んでいく様子を表示するようにしてもよいし、矢オブジェクトAOは表示させずに矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つを示すマークや弾痕等の移動結果表示を表示させるようにしてもよい。
Specifically, the
また表示制御部113は、操作ボタンの操作タイミングを指示する操作指示表示を表示部に表示させる操作指示表示制御処理を更に行い、移動・動作処理部112が、操作ボタンの操作タイミングに基づいて、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つを演算するようにしてもよい。例えば、ゲージ上を指示マークが移動するような表示を行い、指示マークがゲージ上の所定の位置にあるときに操作ボタンを操作(押す、離す等)すると、矢オブジェクトAOの命中率が上がるようにしてもよい。
The
また表示部190に対する操作部160の距離が第1の距離よりも近づいた場合に、表示部190に所与の警告表示を表示させる警告表示制御処理を行う。ここで基準マーク表示制御処理、警告表示制御処理については、3次元画像演算、2次元画像演算のいずれによっても実現することができる。
In addition, when the distance of the
そしてより詳細には表示制御部113は、仮想カメラ制御部114と描画部120とを含む。
More specifically, the
仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。なお本実施形態では、仮想カメラは固定とされている。
The virtual
例えば仮想カメラにより移動体オブジェクトを追従して撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。
For example, when shooting a moving object following a virtual camera, the position or rotation angle (the direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows a change in the position or rotation of the object. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement /
描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、本実施形態の描画部120は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the
また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。 In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. The given vertex data is changed (updated or adjusted) for the vertex group to be configured. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed.
ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色をフレームバッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。 In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the frame buffer 174 (buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.
これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。 Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.
なお、描画部120が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。 Note that the vertex processing and pixel processing performed by the drawing unit 120 are performed by hardware that enables the polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .
そして、描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。 The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.
ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部170に記憶する。
In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the
テクスチャマッピングでは、記憶部170のテクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部174からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。
In texture mapping, a process of mapping a texture (texel value) stored in the
隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。 In the hidden surface removal processing, hidden surface removal processing is performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value at the drawing pixel of the primitive are obtained. In comparison, if the Z value at the drawing pixel is a Z value (for example, a small Z value) that is on the near side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is updated. Update to the correct Z value.
αブレンディング(α合成)では、描画部120は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。 In α blending (α synthesis), the rendering unit 120 performs translucent synthesis processing (normal α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.
判定部122は、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つに基づいて、表示部190に表示させる標的オブジェクトTOと矢オブジェクトAOとの位置関係を判定する。
The
具体的には判定部122は、矢オブジェクトAOの到達位置が、標的オブジェクトTOの複数の判定領域JAのうちいずれの判定領域JAに属するか判定する。また移動・動作処理部が矢オブジェクトAOの移動経路や移動方向を求めた場合には、矢オブジェクトAOと標的オブジェクトTOとに設定されたヒットポリゴンによるヒットチェック等により交差判定を行うことができる。
Specifically, the
評価部126は、交差判定の結果に基づいて、操作部160の操作に関する評価を行う。具体的には本実施形態では、矢オブジェクトAOの到達位置が標的オブジェクトTOの判定領域JAであった場合、即ち矢オブジェクトAOが標的オブジェクトTOに刺さった場合に、矢オブジェクトAOが刺さった判定領域JAに応じた得点を得点表示PGとして表示したり、「うまい!」などの表示を行うなどして、操作者の操作を評価する処理を行う。
The
音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
The
なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。 Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.
また、複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。 In addition, when a plurality of players play, game images and game sounds provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).
4.処理の詳細
図6は、本実施形態の処理の一例の詳細を示すフローチャート図である。本実施形態では、まず複数種類の矢オブジェクトAOから1の矢オブジェクトAOを、ランダムに或いはプレーヤの選択操作により、次に投げる矢オブジェクトAOとして設定する表示を行う(ステップS10)。本実施形態では、重い、普通、軽いという3種類の矢オブジェクトAOが用意されている。そして、プレーヤがコントローラ16のボタン17を押下し(ステップS12のY)、プレーヤがコントローラ16の向きを変えることにより指示位置情報が変更されると(ステップS14のY)、コントローラ16の指示位置に基準マークSMを移動させる(ステップS16)。
4). Details of Processing FIG. 6 is a flowchart showing details of an example of processing according to this embodiment. In the present embodiment, first, display is performed in which one arrow object AO from a plurality of types of arrow objects AO is set as an arrow object AO to be thrown next at random or by a player's selection operation (step S10). In the present embodiment, three types of arrow objects AO, which are heavy, normal, and light, are prepared. Then, when the player presses the
図7(A)、(B)は、コントローラ16の向きに応じた基準マークSMの動きを説明するための図である。図7(A)に示すように本実施形態では、プレーヤがコントローラ16を表示部12の表示画面11に対して上下左右に移動させたり、コントローラ16の指示方向(コントローラ16の向き)を上下左右に変化させると、表示画面11上におけるコントローラ16の指示位置に基準マークSMが移動する。即ち、表示画面11上におけるコントローラ16の指示位置情報に基づいて、基準マークSMを移動させる。
7A and 7B are diagrams for explaining the movement of the reference mark SM according to the orientation of the
また図7(B)に示すように、プレーヤがコントローラ16を表示部12の表示画面11に近づけると、表示画面11に対するコントローラ16の距離情報が変化するが、表示画面11上におけるコントローラ16の指示位置が変わらない場合には、基準マークSMは移動しない。
As shown in FIG. 7B, when the player brings the
このように本実施形態では、表示画面11上におけるコントローラ16の指示位置情報に基づいて、基準マークSMの位置を2次元的に制御する。なお、コントローラ16の指示位置情報、距離情報等を取得するセンサは、CMOSセンサ(第1の検出部)としてもよいし、加速度センサ(第2の検出部)としてもよい。またそれらの任意の組合せとしてもよい。
Thus, in the present embodiment, the position of the reference mark SM is controlled two-dimensionally based on the indicated position information of the
こうして基準マークSMの位置を制御して(図6のステップS16)、コントローラ16の操作ボタン17の押下操作が解除されると(ステップS18のY)、押下操作が解除されたタイミングにおける指示位置に基準マークSMを固定表示し、当該指示位置を基準位置として設定する(ステップS20)。一方、操作ボタン17の押下操作が解除されないと(ステップS18のN)、ステップS14からステップS18の処理を繰り返す。即ち、プレーヤが操作ボタン17を押下している間は(ステップS18のN)、コントローラ16の指示位置に応じて基準マークSMを移動させる。
In this way, the position of the reference mark SM is controlled (step S16 in FIG. 6), and when the pressing operation of the
そして図4(B)に示すように、コントローラ16の指示方向にコントローラ16が振られる操作が行われることにより、コントローラ16の指示方向への加速度情報が所定のしきい値以上検出されると(ステップS22のY)、検出した加速度情報を取得する(ステップS24)。そして、コントローラ16の指示方向への加速度情報が所定のしきい値を下回らない間(ステップS26のN)、加速度情報を取得する(ステップS24)。即ちコントローラ16の指示方向への一回の振り(リリース動作)の大きさを取得する。
Then, as shown in FIG. 4B, when the
そして加速度情報が所定のしきい値を下回ると、即ちコントローラ16の指示方向への一回の振り(リリース動作)が終了すると(ステップS26のY)、値がしきい値以上であった期間の加速度情報を時間で積分し、これを振り情報として求める(ステップS28)。本実施形態では、コントローラ16の指示方向への加速度情報は、コントローラ16の振り方によって様々に変位するが、こうして所定期間の値を積分することにより、ばらつきの少ない値として振り情報を取得することができる。
When the acceleration information falls below a predetermined threshold value, that is, when one swing (release operation) in the instruction direction of the
すると、設定された基準位置と、求めた振り情報とに基づいて、到達範囲テーブル178を参照し、到達範囲を設定する(ステップS30)。そして、設定した到達範囲内の位置から矢オブジェクトAOの到達位置をランダムに決定し(ステップS32)、決定した到達位置に向けて矢オブジェクトAOを移動させ(ステップS34)、到達位置に矢オブジェクトAOが刺さる表示を行う。そして、矢オブジェクトAOが標的オブジェクトTOのいずれの領域に刺さったか否か判定し(ステップS38)、矢オブジェクトAOが刺さった領域に応じた点数を得点表示PGとして表示したり、「うまい!」などの表示を行うなどして、操作者の操作を評価する(ステップS40)。 Then, based on the set reference position and the obtained swing information, the reach range is set by referring to the reach range table 178 (step S30). Then, the arrival position of the arrow object AO is randomly determined from the position within the set arrival range (step S32), the arrow object AO is moved toward the determined arrival position (step S34), and the arrow object AO is moved to the arrival position. Is displayed. Then, it is determined whether or not the area of the target object TO has been pierced by the arrow object AO (step S38). The operator's operation is evaluated by displaying (step S40).
図8は、本実施形態で設定される到達範囲の例を説明するための図である。図8(A)〜(C)に示すように本実施形態では、振り情報に応じて3段階の到達範囲が設けられている。図8(A)に示す第1の到達範囲A1は、振り情報の値が、相対的に小さい(振りの強さが弱い)第1の範囲の値であった場合に設定される到達範囲である。図8(A)の例では第1の到達範囲A1は、基準位置(基準マークSM)を上端として下方向に延びた楕円形状の範囲となっている。従って、振り情報の値が小さい場合には、基準位置よりも左右方向にはぶれが少ないが、下方向にぶれる確率が高くなるように矢オブジェクトAOを移動させることができる。 FIG. 8 is a diagram for explaining an example of the reach range set in the present embodiment. As shown in FIGS. 8A to 8C, in the present embodiment, three stages of reach ranges are provided according to the swing information. The first reachable range A1 shown in FIG. 8A is a reachable range that is set when the value of the swing information is a value in the first range that is relatively small (the swing strength is weak). is there. In the example of FIG. 8A, the first reachable range A1 is an elliptical range extending downward with the reference position (reference mark SM) as the upper end. Therefore, when the value of the swing information is small, the arrow object AO can be moved so that there is less blur in the left-right direction than the reference position, but there is a higher probability of shaking in the downward direction.
また図8(B)に示す第2の到達範囲A2は、振り情報の値が、相対的に中程(振りの強さが中程)である第2の範囲の値であった場合に設定される到達範囲である。図8(B)の例では第2の到達範囲A2は、基準位置(基準マークSM)を中心として基準マークSMとほぼ同じ大きさの円形状の範囲となっている。従って、振り情報の値が中程である場合には、ほぼ基準位置付近に矢オブジェクトAOを移動させることができる。 The second reachable range A2 shown in FIG. 8B is set when the value of the swing information is a value in the second range that is relatively middle (the swing strength is medium). Reachable range. In the example of FIG. 8B, the second reachable range A2 is a circular range having the same size as the reference mark SM around the reference position (reference mark SM). Accordingly, when the value of the swing information is intermediate, the arrow object AO can be moved approximately near the reference position.
また図8(C)に示す第3の到達範囲A3は、振り情報の値が、相対的に大きい(振りの強さが強い)第3の範囲の値であった場合に設定される到達範囲である。図8(C)の例では第3の到達範囲A3は、基準位置(基準マークSM)を中心として標的オブジェクトTOとほぼ同じ大きさの円形状の範囲となっている。従って、振り情報の値が大きい場合には、基準位置から上下左右方向にぶれが大きくなるように矢オブジェクトAOを移動させることができる。 Further, the third reachable range A3 shown in FIG. 8C is a reachable range that is set when the value of the swing information is a third range value that is relatively large (strong swing strength). It is. In the example of FIG. 8C, the third reachable range A3 is a circular range having the same size as the target object TO with the reference position (reference mark SM) as the center. Therefore, when the value of the swing information is large, the arrow object AO can be moved so that the shake is increased in the vertical and horizontal directions from the reference position.
そして本実施形態では、軽い、普通、重いという3種類の矢オブジェクトAOの各矢オブジェクトAOについて、コントローラ16の指示方向への振りの強さに応じた到達範囲が、図9に示すような到達範囲テーブル178として記憶されている。図9の例では、振りの強さが極極小である場合には、軽い矢では矢オブジェクトAOが標的オブジェクトTOまで届かず、手前に落下するように表示されるが、普通の矢と重い矢では反応がなく、矢オブジェクトAOが飛ぶ表示もなされない。
In this embodiment, for each of the arrow objects AO of the three types of arrow objects AO, which are light, normal, and heavy, the arrival range corresponding to the strength of the swing in the direction indicated by the
一方、振りの強さが中である場合には、軽い矢では図8(C)に示す第3の到達範囲A3が設定されるので、基準位置から上下左右方向にぶれが大きくなるように矢オブジェクトAOが移動するが、普通の矢では図8(B)に示す第2の到達範囲A2が設定されるので、ほぼ基準位置付近に矢オブジェクトAOが移動する。また、重い矢では図8(A)に示す第1の到達範囲A1が設定されるので、基準位置よりも左右方向にはぶれが少ないが、下方向にぶれる確率が高くなるように矢オブジェクトAOが移動する。このように本実施形態では、振りの強さが同じでも、矢オブジェクトAOの種類に応じて設定される到達範囲が異なるようにすることができる。 On the other hand, when the swing strength is medium, the lighter arrow sets the third reachable range A3 shown in FIG. 8C, so that the arrow increases so as to increase the shake vertically and horizontally from the reference position. Although the object AO moves, since the second reachable range A2 shown in FIG. 8B is set for a normal arrow, the arrow object AO moves approximately near the reference position. In addition, since the first reachable range A1 shown in FIG. 8A is set for a heavy arrow, the arrow object AO is less likely to shake in the left-right direction than the reference position but has a higher probability of being shaken downward. Move. As described above, in the present embodiment, even when the swing strength is the same, the reach ranges set according to the type of the arrow object AO can be made different.
また本実施形態では図3に示すように、標的オブジェクトTOは、その円中心を回転中心として図中時計回りに回転している。そして標的オブジェクトTOは、複数の判定領域JAに分割されている。これにより、プレーヤが所望の判定領域JA1に狙いを定めて操作ボタン17の押下を解除して、判定領域JA1に基準位置を設定(基準マークSMを固定)させても、すぐに振り動作を行わなければ、基準位置が所望の判定領域JA1から外れてしまう。すると、たとえ第2の到達範囲が設定される振りの強さを入力できたとしても、所望の判定領域JA1に矢オブジェクトAOを到達させることができない。
In the present embodiment, as shown in FIG. 3, the target object TO rotates in the clockwise direction in the figure with the circle center as the rotation center. The target object TO is divided into a plurality of determination areas JA. As a result, even if the player aims at the desired determination area JA1 and releases the
従って、本実施形態では、図10(A)に示すように、まず操作ボタン17を指で押しながら基準位置を移動させ(狙い)、狙いが定まったら操作ボタン17から指を放し、すぐに表示画面11から離れる方向にコントローラ16を引き(テイクバック)、表示画面11に近づく方向に向けて振る(リリース)ことにより、基準位置が所望の判定領域JA1から外れないうちに矢オブジェクトAOを移動させることができる。
Therefore, in this embodiment, as shown in FIG. 10A, first, the reference position is moved (aimed) while pushing the
こうして本実施形態では、基準位置を設定してからテイクバックしてリリースするまでの操作を、一連の流れでスムースに行えば、より命中率を上げることができる。なお標的オブジェクトTOを回転など移動させなくとも、基準位置を設定してから振り動作を検出するまでの時間が短い方が、或いは所定の時間に近い方が、基準位置近くに矢オブジェクトAOが到達するように構成すれば、同様の効果を奏することができる。また図10(B)に示すように、操作ボタン17を指で押した状態での指示方向への振り動作を検出させ、操作ボタン17から指を放した時点での指示位置情報に基づいて、基準位置を設定するようにすれば、あたかも矢を投げたかのような操作入力を行わせることができる。
In this way, in this embodiment, if the operations from setting the reference position to taking back and releasing are performed smoothly in a series of flows, the hit rate can be further increased. Even if the target object TO is not rotated or moved, the arrow object AO arrives near the reference position when the time from setting the reference position to detecting the swing motion is shorter or closer to the predetermined time. If configured to do so, similar effects can be achieved. Further, as shown in FIG. 10B, based on the indicated position information at the time when the swinging motion in the indicated direction with the
6.ハードウェア構成
図11に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
6). Hardware Configuration FIG. 11 shows an example of a hardware configuration capable of realizing this embodiment. The
ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。
The
描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。
The drawing
サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。
The
ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるDVD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。
The
なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。 The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.
そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。
When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。 The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced by broad or synonymous terms in other descriptions in the specification or drawings.
また本発明は種々の画像生成システムに適用できる。上述の実施形態では、本発明をダーツゲームシステムに適用した場合を例に挙げて説明したが、本発明は、基準位置と動き情報とに基づいて、仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する種々の画像生成システムにも適用することができる。 The present invention can be applied to various image generation systems. In the above embodiment, the case where the present invention is applied to the dart game system has been described as an example. However, the present invention is based on the reference position and the movement information, and the arrival position and the movement direction of the moving object in the virtual space. The present invention can also be applied to various image generation systems that calculate at least one of the movement paths.
また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。 Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.
P プレーヤ、CO 操作対象、PA 画像データ領域、
IrA1・IrA2 赤外光原領域、DpA 表示画面領域、
AO 矢オブジェクト、TO 標的オブジェクト、
SM 基準マーク、E 弾道情報、
16 コントローラ、17 操作ボタン
100 処理部、108 情報取得部、109 入力受付部、
110 オブジェクト空間設定部、112 移動・動作処理部、113 表示制御部、
114 仮想カメラ制御部、120 描画部、122 判定部、124 標的状態更新部、126 評価部、160 操作部、162 検出部、170 記憶部、190 表示部
P player, CO operation target, PA image data area,
IrA1 / IrA2 infrared light source area, DpA display screen area,
AO arrow object, TO target object,
SM reference mark, E ballistic information,
16 controller, 17
110 Object space setting unit, 112 Movement / motion processing unit, 113 Display control unit,
114 virtual camera control unit, 120 drawing unit, 122 determination unit, 124 target state update unit, 126 evaluation unit, 160 operation unit, 162 detection unit, 170 storage unit, 190 display unit
Claims (14)
前記コントローラの動きに応じて変化する情報を検出する検出部の検出結果に基づいて、表示部に対する前記コントローラの指示位置情報と、前記コントローラの動き情報とを取得する情報取得部と、
前記指示位置情報に基づいて仮想空間に基準位置を設定する基準位置設定部と、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する移動処理部と、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体の到達位置、移動方向、移動経路の少なくとも1つを示す移動結果表示を表示させる移動結果表示制御処理を行う表示制御部としてコンピュータを機能させることを特徴とするプログラム。 A program for generating an image according to the operation of the controller,
Based on the detection result of the detection unit that detects information that changes according to the movement of the controller, an information acquisition unit that acquires the controller's indicated position information with respect to the display unit, and the movement information of the controller;
A reference position setting unit that sets a reference position in a virtual space based on the indicated position information;
Based on the reference position and the movement information, a movement processing unit that calculates at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space;
Based on at least one of the arrival position, movement direction, and movement path of the moving object in the virtual space, the display unit displays a movement result display indicating at least one of the arrival position, movement direction, and movement path of the moving object. A program that causes a computer to function as a display control unit that performs a movement result display control process.
前記情報取得部が、
前記コントローラの所与の方向への動き情報を取得し、
前記移動処理部が、
前記所与の方向への動き情報に基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算することを特徴とするプログラム。 In claim 1,
The information acquisition unit
Obtaining movement information of the controller in a given direction;
The movement processing unit is
A program that calculates at least one of an arrival position, a moving direction, and a moving path of a moving object in the virtual space based on movement information in the given direction.
前記移動処理部が、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達範囲を設定し、設定された前記到達範囲から前記到達位置を決定することを特徴とするプログラム。 In any one of Claims 1, 2.
The movement processing unit is
A program that sets a reachable range of a moving object in the virtual space based on the reference position and the motion information, and determines the reachable position from the set reachable range.
前記移動処理部が、
前記移動体の種類に応じて前記移動体の到達範囲を設定することを特徴とするプログラム。 In claim 3,
The movement processing unit is
A program for setting a reachable range of the moving body according to a type of the moving body.
前記移動処理部が、
前記動き情報に基づいて、前記仮想空間における移動体の移動速度を演算することを特徴とするプログラム。 In any one of Claims 1-4,
The movement processing unit is
A program for calculating a moving speed of a moving body in the virtual space based on the movement information.
前記コントローラに設けられた操作子の操作入力を受け付ける入力受付部としてコンピュータを更に機能させ、
前記基準位置設定部が、
前記操作子の操作タイミングに応じて、前記指示位置情報に基づいて仮想空間に基準位置を設定することを特徴とするプログラム。 In any one of Claims 1-5,
The computer further functions as an input receiving unit that receives an operation input of an operator provided in the controller,
The reference position setting unit is
A program that sets a reference position in a virtual space based on the indicated position information in accordance with an operation timing of the operation element.
前記表示制御部が、
前記操作子の操作タイミングを指示する操作指示表示を表示部に表示させる操作指示表示制御処理を更に行い、
前記移動処理部が、
前記操作子の操作タイミングに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算することを特徴とするプログラム。 In claim 6,
The display control unit
Further performing an operation instruction display control process for causing the display unit to display an operation instruction display for instructing the operation timing of the operator,
The movement processing unit is
A program for calculating at least one of an arrival position, a moving direction, and a moving path of a moving body in the virtual space based on an operation timing of the operation element.
前記情報取得部が、
前記コントローラの動きに応じて変化する情報が所与のしきい値を超えた場合に、前記コントローラの動き情報を取得することを特徴とするプログラム。 In any one of Claims 1-7,
The information acquisition unit
A program for acquiring motion information of the controller when information that changes according to the motion of the controller exceeds a given threshold value.
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に表示させる標的と前記移動体との位置関係を判定する判定部と、
前記判定の結果に基づいて前記コントローラの操作を評価する評価部としてコンピュータを更に機能させることを特徴とするプログラム。 In any one of Claims 1-8,
A determination unit that determines a positional relationship between the target to be displayed on the display unit and the moving body, based on at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space;
A program that causes a computer to further function as an evaluation unit that evaluates the operation of the controller based on the result of the determination.
前記判定部が、
前記標的と前記移動体とが前記標的に設定された複数の判定領域のいずれにおいて交差したか判定し、
前記評価部が、
前記交差判定の結果に基づいて前記コントローラの操作を評価することを特徴とするプログラム。 In claim 9,
The determination unit is
Determining in which of the plurality of determination regions set for the target the target and the moving body intersect;
The evaluation unit is
A program for evaluating an operation of the controller based on a result of the intersection determination.
前記表示制御部が、
前記標的表示制御処理として、前記複数の判定領域を前記標的において識別可能に表示するとともに前記標的を移動させる処理を行うことを特徴とするプログラム。 In claim 10,
The display control unit
As the target display control process, a program for displaying the plurality of determination areas so as to be identifiable on the target and moving the target is performed.
前記表示制御部が、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体を表示させる移動体表示制御処理を行うことを特徴とするプログラム。 In any one of Claims 1-11,
The display control unit
A program for performing a moving body display control process for displaying the moving body on the display unit, based on at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space.
前記コントローラの動きに応じて変化する情報を検出する検出部の検出結果に基づいて、表示部に対する前記コントローラの指示位置情報と、前記コントローラの動き情報とを取得する情報取得部と、
前記指示位置情報に基づいて仮想空間に基準位置を設定する基準位置設定部と、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する移動処理部と、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体の到達位置、移動方向、移動経路の少なくとも1つを示す移動結果表示を表示させる移動結果表示制御処理を行う表示制御部と、
を含むことを特徴とする画像生成システム。 An image generation system for generating an image according to an operation of a controller,
Based on the detection result of the detection unit that detects information that changes according to the movement of the controller, an information acquisition unit that acquires the controller's indicated position information with respect to the display unit, and the movement information of the controller;
A reference position setting unit that sets a reference position in a virtual space based on the indicated position information;
Based on the reference position and the movement information, a movement processing unit that calculates at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space;
Based on at least one of the arrival position, movement direction, and movement path of the moving object in the virtual space, the display unit displays a movement result display indicating at least one of the arrival position, movement direction, and movement path of the moving object. A display control unit that performs a movement result display control process, and
An image generation system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006248400A JP4806608B2 (en) | 2006-09-13 | 2006-09-13 | Program, information storage medium, and image generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006248400A JP4806608B2 (en) | 2006-09-13 | 2006-09-13 | Program, information storage medium, and image generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008071069A true JP2008071069A (en) | 2008-03-27 |
JP4806608B2 JP4806608B2 (en) | 2011-11-02 |
Family
ID=39292608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006248400A Expired - Fee Related JP4806608B2 (en) | 2006-09-13 | 2006-09-13 | Program, information storage medium, and image generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4806608B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011053779A (en) * | 2009-08-31 | 2011-03-17 | Namco Bandai Games Inc | Program, information storage medium, and image controller |
JP2011053777A (en) * | 2009-08-31 | 2011-03-17 | Namco Bandai Games Inc | Program, information storage medium, and image control system |
US8514255B2 (en) | 2009-08-31 | 2013-08-20 | Namco Bandai Games Inc. | Information storage medium, image control device, and image control method |
KR101401910B1 (en) | 2010-05-03 | 2014-06-02 | 서용창 | Game Terminal for Using a Camera and Operating Method for the same |
KR101406668B1 (en) | 2013-03-20 | 2014-06-20 | 한국과학기술원 | System, method for controlling user terminal using finger gesture, and user terminal comprising the same |
-
2006
- 2006-09-13 JP JP2006248400A patent/JP4806608B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011053779A (en) * | 2009-08-31 | 2011-03-17 | Namco Bandai Games Inc | Program, information storage medium, and image controller |
JP2011053777A (en) * | 2009-08-31 | 2011-03-17 | Namco Bandai Games Inc | Program, information storage medium, and image control system |
US8514255B2 (en) | 2009-08-31 | 2013-08-20 | Namco Bandai Games Inc. | Information storage medium, image control device, and image control method |
KR101401910B1 (en) | 2010-05-03 | 2014-06-02 | 서용창 | Game Terminal for Using a Camera and Operating Method for the same |
KR101406668B1 (en) | 2013-03-20 | 2014-06-20 | 한국과학기술원 | System, method for controlling user terminal using finger gesture, and user terminal comprising the same |
Also Published As
Publication number | Publication date |
---|---|
JP4806608B2 (en) | 2011-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5597837B2 (en) | Program, information storage medium, and image generation apparatus | |
JP5085059B2 (en) | Image generation system, program, and information storage medium | |
JP5089079B2 (en) | Program, information storage medium, and image generation system | |
JP4974319B2 (en) | Image generation system, program, and information storage medium | |
JP5390115B2 (en) | Program, game system | |
US8882593B2 (en) | Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein | |
JP6643775B2 (en) | Game machine, game system and program | |
JP5520443B2 (en) | Program, information storage medium, and game system | |
JP2007300974A (en) | Program, information storage medium and image generation system | |
JP2008225985A (en) | Image recognition system | |
JP2011053838A (en) | Program, information storage medium, and image generation device | |
US8662976B2 (en) | Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein | |
JP2009061161A (en) | Program, information storage medium and game system | |
JP4806608B2 (en) | Program, information storage medium, and image generation system | |
JP2009213559A (en) | Game apparatus | |
JP4662271B2 (en) | Program, information storage medium, and image generation system | |
JP2019166218A (en) | Program and game device | |
JP2006268511A (en) | Program, information storage medium and image generation system | |
JP2008067853A (en) | Program, information storage medium and image generation system | |
JP3786671B1 (en) | Program, information storage medium, and image generation system | |
JP2009061159A (en) | Program, information storage medium and game system | |
JP5054908B2 (en) | Program, information storage medium, and image generation system | |
JP5558008B2 (en) | Program, information storage medium, and game system | |
JP4420729B2 (en) | Program, information storage medium, and image generation system | |
JP2011255114A (en) | Program, information storage medium, and image generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090713 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090812 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091111 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20091120 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20100129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110706 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4806608 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140819 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140819 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |