JP2008071069A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2008071069A
JP2008071069A JP2006248400A JP2006248400A JP2008071069A JP 2008071069 A JP2008071069 A JP 2008071069A JP 2006248400 A JP2006248400 A JP 2006248400A JP 2006248400 A JP2006248400 A JP 2006248400A JP 2008071069 A JP2008071069 A JP 2008071069A
Authority
JP
Japan
Prior art keywords
movement
unit
information
controller
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006248400A
Other languages
Japanese (ja)
Other versions
JP4806608B2 (en
Inventor
Kazuya Usui
和也 薄井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2006248400A priority Critical patent/JP4806608B2/en
Publication of JP2008071069A publication Critical patent/JP2008071069A/en
Application granted granted Critical
Publication of JP4806608B2 publication Critical patent/JP4806608B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To effectively enhance the virtual reality of an operator's operation such as throwing operation. <P>SOLUTION: An arrival position of a mobile body or the like is determined in conformation to the operator's motion for changing the direction (instructing position) and motion of a controller. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、ハンマー投げなど、選手が回転して被投てき物を投てきするゲームを行う画像生成システムが知られている。このような画像生成システムでは、回転する選手の画像やガイド表示を視認させながら選手の向きを見定めさせてボタンなどのON/OFF入力を行わせ、ON/OFF入力のタイミングにより投てきの結果を出力する。かかる制御を行う技術として、例えば特開平10−52572号公報に開示される従来技術がある。
特開平10−52572号公報
2. Description of the Related Art Conventionally, an image generation system that performs a game in which a player rotates and throws an object to be thrown, such as hammer throwing, is known. In such an image generation system, the player's orientation is determined while visually recognizing the rotating player's image and the guide display, and buttons are turned ON / OFF input, and the throwing result is output at the ON / OFF input timing. To do. As a technique for performing such control, for example, there is a conventional technique disclosed in JP-A-10-52572.
JP-A-10-52572

しかしながら従来の画像生成システムでは、投てきの結果に影響するものは主にON/OFF入力のタイミングであるため、投てき動作の仮想現実感を高めることが困難であった。   However, in the conventional image generation system, it is difficult to enhance the virtual reality of the throwing operation because it is mainly the ON / OFF input timing that affects the throwing result.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、投てき動作等、操作者の操作の仮想現実感を効果的に高めることができるプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a program and an information storage medium that can effectively enhance the virtual reality of an operator's operation such as a throwing operation. And providing an image generation system.

(1)本発明は、
コントローラの操作に応じた画像を生成するための画像生成システムであって、
前記コントローラの動きに応じて変化する情報を検出する検出部の検出結果に基づいて、表示部に対する前記コントローラの指示位置情報と、前記コントローラの動き情報とを取得する情報取得部と、
前記指示位置情報に基づいて仮想空間に基準位置を設定する基準位置設定部と、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する移動処理部と、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体の到達位置、移動方向、移動経路の少なくとも1つを示す移動結果表示を表示させる移動結果表示制御処理を行う表示制御部と、
を含むことを特徴とする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(1) The present invention
An image generation system for generating an image according to an operation of a controller,
Based on the detection result of the detection unit that detects information that changes according to the movement of the controller, an information acquisition unit that acquires the controller's indicated position information with respect to the display unit, and the movement information of the controller;
A reference position setting unit that sets a reference position in a virtual space based on the indicated position information;
Based on the reference position and the movement information, a movement processing unit that calculates at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space;
Based on at least one of the arrival position, movement direction, and movement path of the moving object in the virtual space, the display unit displays a movement result display indicating at least one of the arrival position, movement direction, and movement path of the moving object. A display control unit that performs a movement result display control process, and
It is related with the image generation system characterized by including. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、コントローラの指示位置情報に基づく基準位置と、コントローラの動き情報とに基づいて、移動体の到達位置、移動方向、移動経路の少なくとも1つが演算される。従って本発明では、必ずしもコントローラの指示位置が移動体の到達位置等になるとは限らず、コントローラの指示位置にコントローラの動きを加味した結果を移動体の到達位置等に反映させることができる。即ち本発明によれば、コントローラの向き(指示位置)と動きとを変化させる操作者の動作に対応させて移動体の到達位置等を求めるので、例えば投てき動作等の仮想現実感を効果的に高めることができる画像生成システムを実現することができる。   According to the present invention, at least one of the arrival position, the moving direction, and the moving path of the moving body is calculated based on the reference position based on the controller position information and the controller movement information. Therefore, in the present invention, the indicated position of the controller is not necessarily the arrival position of the moving body, and the result of adding the movement of the controller to the indicated position of the controller can be reflected in the reaching position of the moving body. That is, according to the present invention, the arrival position of the moving body is obtained in accordance with the operation of the operator that changes the direction (instructed position) and movement of the controller, so that virtual reality such as throwing motion can be effectively obtained. An image generation system that can be enhanced can be realized.

(2)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記情報取得部が、
前記コントローラの所与の方向への動き情報を取得し、
前記移動処理部が、
前記所与の方向への動き情報に基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算するようにしてもよい。
(2) In the image generation system, program, and information storage medium according to the present invention,
The information acquisition unit
Obtaining movement information of the controller in a given direction;
The movement processing unit is
Based on the movement information in the given direction, at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space may be calculated.

本発明によれば、プレーヤがコントローラの向き(指示位置)と、所与の方向への動きとを変化させる動作に対応させて移動体の到達位置等を求めるので、例えば所与の方向への投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。   According to the present invention, the player finds the arrival position or the like of the moving body in correspondence with the operation of changing the direction (indicated position) of the controller and the movement in the given direction. It is possible to realize an image generation system that can more effectively enhance virtual reality such as throwing motion.

(3)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記移動処理部が、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達範囲を設定し、設定された前記到達範囲から前記到達位置を決定するようにしてもよい。
(3) In the image generation system, the program, and the information storage medium according to the present invention,
The movement processing unit is
Based on the reference position and the motion information, a reachable range of the moving body in the virtual space may be set, and the reachable position may be determined from the set reachable range.

本発明によれば、到達位置を決定するための到達範囲を設定するので、例えば取得される動き情報に誤差やぶれなどが生じるような場合であっても、指示位置情報との組合せによって、不自然とならない到達位置を求めることができる。   According to the present invention, since the reach range for determining the reach position is set, for example, even if an error or blurring occurs in the acquired motion information, it is unnatural depending on the combination with the indicated position information. An arrival position that does not become can be obtained.

(4)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記移動処理部が、
前記移動体の種類に応じて前記移動体の到達範囲を設定するようにしてもよい。
(4) In the image generation system, the program, and the information storage medium according to the present invention,
The movement processing unit is
You may make it set the reachable range of the said mobile body according to the kind of said mobile body.

本発明によれば、到達位置を決定するための到達範囲を、移動体の種類に応じて設定するので、例えば取得される動き情報に誤差やぶれなどが生じるような場合であっても、指示位置情報と移動体の種類の組合せによって、より不自然とならない到達位置を求めることができる。   According to the present invention, since the reach range for determining the reach position is set according to the type of the moving body, for example, even if an error or a shake occurs in the acquired motion information, the indicated position The arrival position that is not unnatural can be obtained by combining the information and the type of the moving object.

(5)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記移動処理部が、
前記動き情報に基づいて、前記仮想空間における移動体の移動速度を演算するようにしてもよい。
(5) In the image generation system, the program, and the information storage medium according to the present invention,
The movement processing unit is
Based on the motion information, the moving speed of the moving body in the virtual space may be calculated.

本発明によれば、プレーヤがコントローラの動きを変化させる動作に対応させて移動体の移動速度を求めるので、例えばコントローラを早く動かせば移動体も早く動くなど、投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。   According to the present invention, the player obtains the moving speed of the moving body in response to an operation that changes the movement of the controller. Therefore, for example, if the controller is moved quickly, the moving body moves faster. An image generation system that can be effectively enhanced can be realized.

(6)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記コントローラに設けられた操作子の操作入力を受け付ける入力受付部を更に含み、
前記基準位置設定部が、
前記操作子の操作タイミングに応じて、前記指示位置情報に基づいて仮想空間に基準位置を設定するようにしてもよい。
(6) In the image generation system, the program, and the information storage medium according to the present invention,
An input receiving unit for receiving an operation input of an operator provided in the controller;
The reference position setting unit is
A reference position may be set in the virtual space based on the designated position information according to the operation timing of the operation element.

本発明によれば、操作子の操作タイミングに応じて基準位置が設定されるので、例えば、操作子を押下することにより基準位置を設定してからすぐにコントローラを動かして動き情報を取得させると標的等への命中率が上がるような構成とすれば、基準位置の設定操作から動き情報の入力操作までの動きを、一連の流れでスムースに行うようにすることができる。その他例えば、動き情報の入力操作中にボタン等の操作子を押下させるようにし、操作子を放したタイミングの指示位置情報に基づいて基準位置を設定させれば、現実の投てき動作のリリースポイントを表現することができる。   According to the present invention, since the reference position is set according to the operation timing of the operation element, for example, when the reference position is set by pressing the operation element and the controller is immediately moved to acquire movement information. With a configuration that increases the accuracy of hitting a target or the like, the movement from the reference position setting operation to the movement information input operation can be smoothly performed in a series of flows. In addition, for example, if an operator such as a button is pressed during an input operation of motion information, and the reference position is set based on the indicated position information of the timing when the operator is released, the release point of the actual throwing operation is set. Can be expressed.

(7)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記表示制御部が、
前記操作子の操作タイミングを指示する操作指示表示を表示部に表示させる操作指示表示制御処理を更に行い、
前記移動処理部が、
前記操作子の操作タイミングに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算するようにしてもよい。
(7) In the image generation system, the program, and the information storage medium according to the present invention,
The display control unit
Further performing an operation instruction display control process for causing the display unit to display an operation instruction display for instructing the operation timing of the operator,
The movement processing unit is
Based on the operation timing of the operation element, at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space may be calculated.

本発明によれば、操作指示表示によって、操作者による操作子の操作タイミングを補助することができるとともに、仮想現実感を効果的に高めることができる操作タイミングを指示して、これを操作者に行わせることができる。従って本発明によれば、例えば投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。   According to the present invention, the operation instruction display can assist the operation timing of the operator by the operator, and can instruct the operation timing that can effectively enhance the virtual reality, and this can be indicated to the operator. Can be done. Therefore, according to the present invention, it is possible to realize an image generation system capable of more effectively enhancing virtual reality such as throwing motion.

(8)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記情報取得部が、
前記コントローラの動きに応じて変化する情報が所与のしきい値を超えた場合に、前記コントローラの動き情報を取得するようにしてもよい。
(8) In the image generation system, the program, and the information storage medium according to the present invention,
The information acquisition unit
When the information that changes according to the movement of the controller exceeds a given threshold, the movement information of the controller may be acquired.

本発明によれば、所与のしきい値を超えない入力を動き情報に反映させないことにより、プレーヤが意図しない動きを移動体の到達位置等に反映させないようにすることができる。   According to the present invention, an input that does not exceed a given threshold value is not reflected in the motion information, so that a motion that is not intended by the player can be prevented from being reflected in the arrival position of the moving object.

(9)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に表示させる標的と前記移動体との位置関係を判定する判定部と、
前記判定の結果に基づいて前記コントローラの操作を評価する評価部とを更に含むようにしてもよい。
(9) In the image generation system, the program, and the information storage medium according to the present invention,
A determination unit that determines a positional relationship between the target to be displayed on the display unit and the moving body, based on at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space;
An evaluation unit that evaluates the operation of the controller based on the result of the determination may be further included.

本発明によれば、判定に応じた評価を行うことにより、操作者にコントローラの操作に対する目的意識や、緊張感を与えることができる。例えば、「うまい!」などのように操作を評価する表示や、得点演算、アイテムの獲得などのイベントの発生により、操作者を評価することができる。   According to the present invention, it is possible to give the operator a sense of purpose for the operation of the controller and a sense of tension by performing the evaluation according to the determination. For example, the operator can be evaluated by the occurrence of an event such as a display that evaluates the operation such as “delicious!”, Score calculation, item acquisition, or the like.

(10)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記判定部が、
前記標的と前記移動体とが前記標的に設定された複数の判定領域のいずれにおいて交差したか判定し、
前記評価部が、
前記交差判定の結果に基づいて前記コントローラの操作を評価するようにしてもよい。
(10) In the image generation system, the program, and the information storage medium according to the present invention,
The determination unit is
Determining in which of the plurality of determination regions set for the target the target and the moving body intersect;
The evaluation unit is
The operation of the controller may be evaluated based on the result of the intersection determination.

本発明によれば、操作者に高い操作技量を要求することにより、コントローラの操作に対する目的意識や、緊張感をより高めることができる。   According to the present invention, by requesting the operator to have a high operating skill, it is possible to further increase the sense of purpose for the operation of the controller and a sense of tension.

(11)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記表示制御部が、
前記標的表示制御処理として、前記複数の判定領域を前記標的において識別可能に表示するとともに前記標的を移動させる処理を行うようにしてもよい。
(11) In the image generation system, the program, and the information storage medium according to the present invention,
The display control unit
As the target display control process, a process of displaying the plurality of determination areas so as to be identifiable on the target and moving the target may be performed.

本発明によれば、操作者に要求する操作技量を更に高め、コントローラの操作に対する目的意識や、緊張感を更に高めることができる。   According to the present invention, it is possible to further increase the operating skill required of the operator and further increase the sense of purpose for the operation of the controller and the sense of tension.

(12)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記表示制御部が、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体を表示させる移動体表示制御処理を行うようにしてもよい。
(12) In the image generation system, the program, and the information storage medium according to the present invention,
The display control unit
A moving body display control process for displaying the moving body on the display unit may be performed based on at least one of the arrival position, moving direction, and moving path of the moving body in the virtual space.

本発明によれば、演算結果に応じて移動体を表示させることにより、例えば投てき動作等の仮想現実感をより効果的に高めることができる画像生成システムを実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image generation system which can raise virtual reality, such as throwing operation, more effectively can be implement | achieved by displaying a mobile body according to a calculation result.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.システム概略
図1は、本実施形態の画像生成システムを適用したゲームシステム10の概略外観図である。本実施形態のゲームシステム10は、表示画面11にゲーム画像を表示させる表示部12と、ゲーム処理等を行うゲーム機14と、プレーヤPが把持して所定範囲内での位置、向きを任意に変更可能なコントローラ16とを含む。本実施形態のコントローラ16は、コントローラ16の動きに応じて変化する情報を検出する検出部を内蔵しており、コントローラ16自体の位置や向き等の動きに関する情報を取得できるようになっている。なお図1の例では、ゲーム機14とコントローラ16とがケーブルにより接続されているが、ゲーム機14とコントローラ16との間で無線通信により情報を送受信するようにしてもよい。
1. System Overview FIG. 1 is a schematic external view of a game system 10 to which the image generation system of this embodiment is applied. The game system 10 according to this embodiment includes a display unit 12 that displays a game image on a display screen 11, a game machine 14 that performs game processing, and the like, and a position and orientation within a predetermined range that are held by the player P. And a changeable controller 16. The controller 16 of the present embodiment has a built-in detection unit that detects information that changes in accordance with the movement of the controller 16, and can acquire information related to movement such as the position and orientation of the controller 16 itself. In the example of FIG. 1, the game machine 14 and the controller 16 are connected by a cable, but information may be transmitted and received between the game machine 14 and the controller 16 by wireless communication.

本実施形態ではコントローラ16は、その先端にCMOSセンサ等の撮像素子(受光素子)が設けられており、コントローラ16の先端を向けた方向の画像を取得することができる。また本実施形態の表示部12の表示画面11の上方には、2個の赤外線LED等からなる赤外光原18、20が設けられている。そして予め設定された基準位置情報と、撮像素子が取得した2つの赤外光原18、20の位置情報とから、表示画面11上におけるコントローラ16の指示位置の情報が演算できるようになっている。   In the present embodiment, the controller 16 is provided with an imaging element (light receiving element) such as a CMOS sensor at the tip, and can acquire an image in a direction in which the tip of the controller 16 is directed. In addition, infrared light sources 18 and 20 including two infrared LEDs and the like are provided above the display screen 11 of the display unit 12 of the present embodiment. Information on the indicated position of the controller 16 on the display screen 11 can be calculated from preset reference position information and position information of the two infrared light sources 18 and 20 acquired by the image sensor. .

従って図1に示すように、プレーヤPがコントローラ16を把持しながら手を動かしてコントローラ16自体の位置、向きを変化させると、かかる位置、向きの変化に応じて、表示部12に表示される操作対象COの位置、向きを変化させることができる。即ちコントローラ16自体の動きにより、操作対象COを操作することができる。   Therefore, as shown in FIG. 1, when the player P moves the hand while holding the controller 16 to change the position and orientation of the controller 16 itself, the player P is displayed on the display unit 12 in accordance with the change in the position and orientation. The position and orientation of the operation target CO can be changed. That is, the operation target CO can be operated by the movement of the controller 16 itself.

図2は、表示画面11におけるコントローラ16の指示位置の情報を演算する手法を説明するための図である。図2に示す矩形の領域は、CMOSセンサが取得した画像データが格納される画像データ領域PAである。本実施形態ではこの画像データ領域PAには、1/60秒ごとにコントローラ16の位置、向きに応じた画像データが格納される。そして画像データ領域PAに格納された画像データのうち、赤外光原18、20を撮像した領域である赤外光原領域IrA1、IrA2を用いて、表示画面11におけるコントローラ16の指示位置の情報を演算する。本実施形態では、画像データ領域PAの原点Oをコントローラ16が指示する点とし、原点Oと、画像データ領域PAにおける赤外光原領域IrA1、IrA2の位置座標と、画像データ領域PAにおける表示画面11に対応する領域である表示画面領域DpAとの相対的な位置関係から、表示画面11上におけるコントローラ16の指示位置の情報を演算する。   FIG. 2 is a diagram for explaining a method of calculating information on the indicated position of the controller 16 on the display screen 11. A rectangular area shown in FIG. 2 is an image data area PA in which image data acquired by the CMOS sensor is stored. In this embodiment, the image data area PA stores image data corresponding to the position and orientation of the controller 16 every 1/60 seconds. Information on the indicated position of the controller 16 on the display screen 11 using the infrared light source regions IrA1 and IrA2, which are regions where the infrared light sources 18 and 20 are imaged, of the image data stored in the image data region PA. Is calculated. In the present embodiment, the origin 16 of the image data area PA is designated as a point designated by the controller 16, the origin O, the position coordinates of the infrared light original areas IrA1 and IrA2 in the image data area PA, and the display screen in the image data area PA. 11 is calculated from the relative positional relationship with the display screen area DpA, which is an area corresponding to 11, on the display screen 11.

図2の例では、赤外光原領域IrA1、IrA2が、画像データ領域PAの中央よりもやや上方において、画像データ領域PAの基準線L(X軸)に対して時計回りにθ°回転された状態で形成されている。従って図2の例では、原点Oは表示画面領域DpAの右下部の所定位置に対応させることができ、表示画面11上におけるコントローラ16の指示位置の座標を求めることができる。そして、赤外光原領域IrA1、IrA2を結ぶ直線lの基準線Lに対する回転角度θから、表示画面11に対するコントローラ16の指示方向軸回りの回転角度を求めることができる。また、コントローラ16が表示画面11と所定距離にあるときの赤外光原領域IrA1とIrA2との基準距離Dを予め設定しておくことにより、基準距離Dと、図2の例における赤外光原領域IrA1とIrA2との距離dとの比に基づき、図2の例における表示画面11に対するコントローラ16の距離を求めることができる。   In the example of FIG. 2, the infrared light source areas IrA1 and IrA2 are rotated by θ ° clockwise with respect to the reference line L (X axis) of the image data area PA slightly above the center of the image data area PA. It is formed in the state. Accordingly, in the example of FIG. 2, the origin O can correspond to a predetermined position at the lower right of the display screen area DpA, and the coordinates of the indicated position of the controller 16 on the display screen 11 can be obtained. Then, the rotation angle around the indicated direction axis of the controller 16 with respect to the display screen 11 can be obtained from the rotation angle θ with respect to the reference line L of the straight line 1 connecting the infrared light original regions IrA1 and IrA2. Further, by setting in advance a reference distance D between the infrared light source regions IrA1 and IrA2 when the controller 16 is at a predetermined distance from the display screen 11, the reference distance D and the infrared light in the example of FIG. Based on the ratio of the distance d between the original areas IrA1 and IrA2, the distance of the controller 16 relative to the display screen 11 in the example of FIG. 2 can be obtained.

また本実施形態ではコントローラ16は、その内部に加速度センサ等を内蔵している。この加速度センサは、コントローラ16自体の動きに応じてコントローラ16の位置、向きが一定時間にどの位変化したか、コントローラ16自体の動きをコントローラ16にかかる加速度ベクトルとして検出することができる。本実施形態では、ゲーム空間としての仮想3次元空間(ワールド座標系)における3軸(X軸、Y軸、Z軸)それぞれの加速度ベクトルとして検出することができる。   In the present embodiment, the controller 16 has an acceleration sensor or the like built therein. This acceleration sensor can detect how much the position and orientation of the controller 16 have changed in a certain time according to the movement of the controller 16 itself, and can detect the movement of the controller 16 itself as an acceleration vector applied to the controller 16. In this embodiment, it can be detected as an acceleration vector of each of three axes (X axis, Y axis, Z axis) in a virtual three-dimensional space (world coordinate system) as a game space.

従って本実施形態では、コントローラ16自体の動きの大きさ、方向、速度を検出することができる。また本実施形態では、予め設定されたコントローラ16の現実空間における基準位置(例えばコントローラ16の指示方向が、表示画面11の中心と直交する状態でのコントローラ16位置、向き)と、検出した3軸の加速度ベクトルとを比較することにより、表示画面11(基準位置)に対するコントローラ16の位置、向き、及び表示画面11上におけるコントローラ16の指示位置、及び表示画面11に対するコントローラ16の回転角度等を求めることができる。   Therefore, in this embodiment, the magnitude, direction, and speed of the movement of the controller 16 itself can be detected. In the present embodiment, the preset reference position in the real space of the controller 16 (for example, the position and orientation of the controller 16 in a state where the indication direction of the controller 16 is orthogonal to the center of the display screen 11) and the detected three axes Are compared with the acceleration vector, the position and orientation of the controller 16 with respect to the display screen 11 (reference position), the indicated position of the controller 16 on the display screen 11, the rotation angle of the controller 16 with respect to the display screen 11, and the like are obtained. be able to.

こうして本実施形態では、コントローラ16に内蔵されたCMOSセンサ、加速度センサ等により、コントローラ16の動きに応じて変化する情報を検出し、コントローラ16自体の現実空間における位置、指示位置、向きの変化や、コントローラ16自体の動きの大きさ、方向、速度等、コントローラ16自体の動きに関する情報を取得することができる。   Thus, in the present embodiment, information that changes according to the movement of the controller 16 is detected by a CMOS sensor, an acceleration sensor, or the like built in the controller 16, and changes in the position, designated position, orientation of the controller 16 itself in the real space, Information regarding the motion of the controller 16 itself, such as the magnitude, direction, and speed of the motion of the controller 16 itself, can be acquired.

2.ゲーム概略
図3は、回転する的に向けて矢を投げるダーツゲームを本実施形態のゲームシステム10に適用した例を説明するための図である。図3の例では、表示画面11上におけるコントローラ16の指示位置に基準マークSMが表示される。そして表示画面11の中央部には、操作目標となる円形の標的オブジェクトTOが配置されている。この標的オブジェクトTOは、複数の判定領域JAに色分けされており、各判定領域JAに応じて評価が異なるように設定されている。そしてこの標的オブジェクトTOは、その円中心を回転中心として図中時計回りに回転している。
2. Game Outline FIG. 3 is a diagram for explaining an example in which a dart game in which an arrow is thrown toward a rotating object is applied to the game system 10 of the present embodiment. In the example of FIG. 3, the reference mark SM is displayed at the indicated position of the controller 16 on the display screen 11. In the center of the display screen 11, a circular target object TO that is an operation target is arranged. The target object TO is color-coded into a plurality of determination areas JA, and is set so that the evaluation differs depending on each determination area JA. The target object TO rotates clockwise in the figure with the circle center as the rotation center.

そしてプレーヤPが、コントローラ16に設けられたボタン17を押下しながらコントローラ16の向きを変えることにより、基準マークSMを移動させる。そして標的オブジェクトTOのいずれかの領域について狙いを定め、ボタン17の押下を解除する(ボタン17から指を放す)と、押下を解除したタイミングで基準マークSMの位置が固定される。   Then, the player P moves the reference mark SM by changing the direction of the controller 16 while pressing the button 17 provided on the controller 16. Then, when aiming at any region of the target object TO and releasing the pressing of the button 17 (releasing the finger from the button 17), the position of the reference mark SM is fixed at the timing when the pressing is released.

そしてプレーヤが、図4(A)に示すようにコントローラ16を持っていた手を、図4(B)に示すように、表示画面11から離れる方向に引き(テイクバック)、表示画面11に近づく方向に向けて振る(リリース)。すると図3に示すように、基準マークSMの位置と、プレーヤの手の振りの強さ等に応じて、矢オブジェクトAOが標的オブジェクトTOに向けて放たれる。そして矢オブジェクトAOが標的オブジェクトTOに当たった場合には、判定領域JAに応じた得点が、表示画面11の左上部に得点表示PGとして表示される。   Then, the player pulls the hand holding the controller 16 as shown in FIG. 4A away from the display screen 11 as shown in FIG. 4B (takeback), and approaches the display screen 11. Shake in the direction (release). Then, as shown in FIG. 3, the arrow object AO is released toward the target object TO according to the position of the reference mark SM and the strength of the player's hand swing. When the arrow object AO hits the target object TO, a score corresponding to the determination area JA is displayed as a score display PG on the upper left portion of the display screen 11.

このように本実施形態では、現実のダーツゲームでは手の振りの力加減によっては狙った位置に投げられないことがあるのと同様に、コントローラ16の指示位置に応じた基準マークSMの位置が必ずしも矢オブジェクとAOの到達点とならないように制御する。図3の例では、手の振りが弱かったため、矢オブジェクとAOが基準マークSMの位置にそのまま飛ばず、若干下方向にそれるように飛んでいる。   As described above, in the present embodiment, in the actual dart game, the position of the reference mark SM corresponding to the position indicated by the controller 16 is the same as the case where it is not thrown to the target position depending on the power of the hand swing. Control is performed so that it is not necessarily the arrival point of the arrow object and AO. In the example of FIG. 3, since the hand swing is weak, the arrow object and the AO do not fly to the position of the reference mark SM as they are, but fly slightly downward.

かかる制御を行うため本実施形態では、コントローラ16の指示位置情報に基づく基準位置と、コントローラの動き情報とに基づいて、矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つが演算される。従って本実施形態では、必ずしもコントローラ16の指示位置が移動体の到達位置等になるとは限らず、コントローラ16の指示位置にコントローラ16の振り操作の強さ等を加味した結果を矢オブジェクトAOの到達位置等に反映させることができる。即ち本実施形態によれば、プレーヤによるコントローラ16の向き(指示位置)と動きとを変化させる動作に対応させて移動体の到達位置等を求めるので、投てき動作等の仮想現実感を効果的に高めることができる。   In order to perform such control, in the present embodiment, at least one of the arrival position, movement direction, and movement path of the arrow object AO is calculated based on the reference position based on the designated position information of the controller 16 and the movement information of the controller. . Therefore, in the present embodiment, the instruction position of the controller 16 is not necessarily the arrival position of the moving body, and the arrival result of the arrow object AO is obtained by adding the strength of the swing operation of the controller 16 to the instruction position of the controller 16. It can be reflected in the position. That is, according to the present embodiment, since the arrival position of the moving body is obtained in correspondence with the operation of changing the direction (instructed position) and the movement of the controller 16 by the player, the virtual reality such as the throwing operation is effectively obtained. Can be increased.

ここで本実施形態では図3に示すように、表示画面11の左下部には、複数種類の形状をした複数の矢オブジェクトAOが表示されている。これら複数の矢オブジェクトAOは、それぞれどのような特性で飛ぶものであるか予め定められている。従ってプレーヤは、これから投げる矢オブジェクトAOの形状を見て、当該矢オブジェクトAOがどのような特性で飛んでいくか予測することができるようになっている。   Here, in the present embodiment, as shown in FIG. 3, a plurality of arrow objects AO having a plurality of types of shapes are displayed in the lower left portion of the display screen 11. The characteristics of each of the plurality of arrow objects AO are determined in advance. Therefore, the player can predict the characteristics of the arrow object AO to fly by looking at the shape of the arrow object AO to be thrown.

こうして本実施形態のダーツゲームシステム10では、基準マークSMを基準としつつ、これから投げる矢オブジェクトAOの形状から、適切な力加減でコントローラ16を表示画面11方向に振り、矢オブジェクトAOを狙った判定領域JAに刺す(到達させる)というゲームを楽しむ。   Thus, in the dart game system 10 of the present embodiment, the controller 16 is swung in the direction of the display screen 11 with an appropriate force based on the shape of the arrow object AO to be thrown from the reference mark SM, and the determination aimed at the arrow object AO. Enjoy the game of stabbing (reaching) the area JA.

3.構成
次に、図5を用いて本実施形態における画像生成システム(ゲームシステム)の構成について説明する。図5は、本実施形態における画像生成システムの機能ブロック図の一例である。なお、本実施形態の画像生成システムは、図5の構成要素(各部)の一部を省略した構成としてもよい。
3. Configuration Next, the configuration of the image generation system (game system) in the present embodiment will be described with reference to FIG. FIG. 5 is an example of a functional block diagram of the image generation system in the present embodiment. Note that the image generation system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 5 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、特に本実施形態では、プレーヤが操作部160を把持して操作部160自体の位置、向きを任意に変更可能なものである。そして操作部160は、操作部160自体の動きに応じて変化する情報を検出する検出部162を内蔵する。従って本実施形態の操作部160では、操作部160自体の動きを操作データとして入力することができる。   The operation unit 160 is for a player to input operation data. Particularly in this embodiment, the player can arbitrarily change the position and orientation of the operation unit 160 by holding the operation unit 160. . The operation unit 160 includes a detection unit 162 that detects information that changes according to the movement of the operation unit 160 itself. Therefore, in the operation unit 160 of the present embodiment, the movement of the operation unit 160 itself can be input as operation data.

検出部162は、例えばCMOSセンサやCCDカメラなど、撮像素子(受光素子)により撮像側の基準位置と撮像対象の受光位置との相対関係を取得して、操作部160自体の動きを検出する第1の検出部と、加速度センサや姿勢方位センサやジャイロなど、加速度、角速度、速度により基準位置、基準向き(基準軸)からの位置、向きの変位を検出する第2の検出部とを含む。例えば加速度センサとしては、圧電型や動電式、歪みケージ式等のハードウェアにより実現できる。これにより検出部162は、操作部160自体の動きを連続的な値として検出することができる。特に本実施形態では、検出部162は、操作部160の所定方向への振りの強さを検出することができる。   The detection unit 162 detects the movement of the operation unit 160 itself by acquiring the relative relationship between the reference position on the imaging side and the light receiving position of the imaging target using an imaging element (light receiving element) such as a CMOS sensor or a CCD camera. And a second detector that detects a reference position, a position from a reference direction (reference axis), and a displacement of the direction based on acceleration, angular velocity, and speed, such as an acceleration sensor, an orientation sensor, and a gyro. For example, the acceleration sensor can be realized by hardware such as a piezoelectric type, an electrodynamic type, and a strain cage type. Accordingly, the detection unit 162 can detect the movement of the operation unit 160 itself as a continuous value. In particular, in the present embodiment, the detection unit 162 can detect the strength of the operation unit 160 swinging in a predetermined direction.

また操作部160は、プレーヤがON/OFF入力を行うための操作子としてのボタンが設けられている。なおボタンの他に、レバー(アナログパッド)、十字キー、ステアリング、マイク、タッチパネル型ディスプレイなどを備えるようにして、種々の操作データを入力できるようにしてもよい。   The operation unit 160 is provided with a button as an operation element for the player to perform ON / OFF input. In addition to buttons, a lever (analog pad), a cross key, a steering wheel, a microphone, a touch panel display, and the like may be provided so that various operation data can be input.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部171と、最終的な表示画像等が記憶されるフレームバッファ172と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部173と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部174と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ176と、を含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 of this embodiment includes a main storage unit 171 used as a work area, a frame buffer 172 that stores a final display image, and an object data storage unit that stores model data of an object. 173, a texture storage unit 174 that stores textures for each object data, and a Z buffer 176 that stores Z values during object image generation processing. Note that some of these may be omitted.

特に本実施形態では記憶部170は、複数種類の矢オブジェクトAOの各矢オブジェクトAOについて、コントローラ16の所定方向への振りの強さと、基準マークSMに対する矢オブジェクトAOの到達範囲とを規定する到達範囲テーブル178を含む。ここで到達範囲とは、標的オブジェクトTOにおける矢オブジェクトAOの到達位置となり得る範囲の情報であって、所定の領域情報や、点情報の集合とすることができる。   In particular, in the present embodiment, the storage unit 170 defines the strength of swinging of the controller 16 in a predetermined direction and the reach range of the arrow object AO with respect to the reference mark SM for each of the arrow objects AO of the plurality of types of arrow objects AO. A range table 178 is included. Here, the reach range is information of a range that can be the reach position of the arrow object AO in the target object TO, and can be a set of predetermined area information or point information.

なお本実施形態では、到達範囲テーブル178以外にも、コントローラ16の所定方向への振りの強さと、基準マークSMに対する矢オブジェクトAOの移動経路とを規定する移動経路テーブルを採用してもよい。ここで移動経路の情報としては、仮想3次元空間における曲線を示す方程式や直線を示す方程式などとすることができる。また、コントローラ16の所定方向への振りの強さと、基準マークSMに対する矢オブジェクトAOの移動方向や移動ベクトル等の方向情報とを規定する移動方向テーブルを採用するようにしてもよい。   In the present embodiment, in addition to the reach range table 178, a movement path table that defines the strength of swinging of the controller 16 in a predetermined direction and the movement path of the arrow object AO with respect to the reference mark SM may be employed. Here, the information on the movement path can be an equation indicating a curve or an equation indicating a straight line in the virtual three-dimensional space. Further, a movement direction table that defines the strength of the swing of the controller 16 in a predetermined direction and the direction information such as the movement direction and movement vector of the arrow object AO with respect to the reference mark SM may be adopted.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

この情報記憶媒体180には、処理部100において本実施形態の種々の処理を行うためのプログラム(データ)が記憶されている。即ち、この情報記録媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。   The information storage medium 180 stores a program (data) for the processing unit 100 to perform various processes of the present embodiment. That is, the information recording medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイなどにより実現できる。特に本実施形態では、表示部190の表示画面の中や、その周辺に、操作部160と表示部190の表示画面の相対位置を演算するための光源が設けられている。本実施形態ではこの光源は、不可視光を射出する赤外線LEDを用いている。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, or the like. In particular, in the present embodiment, a light source for calculating the relative positions of the operation unit 160 and the display unit 190 is provided in or around the display screen of the display unit 190. In the present embodiment, this light source uses an infrared LED that emits invisible light.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194には、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, It can be realized by a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result calculation. Or a process for ending the game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、本実施形態の処理部100は、情報取得部108と、入力受付部109と、基準位置設定部110と、オブジェクト空間設定部111と、移動・動作処理部112と、表示制御部113と、判定部122と、標的状態設定部124と、評価部126と、音生成部130と、を含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 100 of this embodiment includes an information acquisition unit 108, an input reception unit 109, a reference position setting unit 110, an object space setting unit 111, a movement / motion processing unit 112, and a display control unit 113. , Determination unit 122, target state setting unit 124, evaluation unit 126, and sound generation unit 130. Note that some of these may be omitted.

情報取得部108は、操作部160の動きに応じて変化する情報を検出する検出部162の検出結果に基づいて、操作部160の動き情報を取得する。本実施形態では、操作部160に内蔵された検出部162の検出結果を1/60秒ごとに取得し、操作部160自体の動きに関する情報を演算しこれを取得する。また操作部160の動きに応じて変化する情報が所与のしきい値を超えた場合に、操作部160の動き情報を取得するようにしてもよい。   The information acquisition unit 108 acquires the movement information of the operation unit 160 based on the detection result of the detection unit 162 that detects information that changes according to the movement of the operation unit 160. In the present embodiment, the detection result of the detection unit 162 built in the operation unit 160 is acquired every 1/60 seconds, and information regarding the movement of the operation unit 160 itself is calculated and acquired. Further, when the information that changes according to the movement of the operation unit 160 exceeds a given threshold value, the movement information of the operation unit 160 may be acquired.

具体的には情報取得部108は、操作部160の先端に設けられたCMOSセンサ(第1の検出部)が検出した画像情報に基づいて、表示部190の表示画面上における操作部160の指示位置の座標、及び、表示部190の表示画面に対する操作部160の回転角度、及び、表示部190の表示画面に対する操作部160の距離を求め、これを取得することができる。   Specifically, the information acquisition unit 108 instructs the operation unit 160 on the display screen of the display unit 190 based on image information detected by a CMOS sensor (first detection unit) provided at the tip of the operation unit 160. The coordinates of the position, the rotation angle of the operation unit 160 with respect to the display screen of the display unit 190, and the distance of the operation unit 160 with respect to the display screen of the display unit 190 can be obtained and obtained.

また情報取得部108は、操作部160に内蔵された加速度センサ(第2の検出部)が検出した3軸(X軸、Y軸、Z軸)方向の加速度ベクトルに基づいて、操作部160自体の動きの大きさ、方向、速度を取得することができる。また表示部190の表示画面(基準位置、基準向き)に対する操作部160の位置、向き、及び、表示部190の表示画面上における操作部160の指示位置、及び、表示部190の表示画面(基準角度)に対する操作部160の回転角度等を求め、これを取得することができる。   The information acquisition unit 108 also operates the operation unit 160 itself based on the acceleration vectors in the three-axis (X-axis, Y-axis, and Z-axis) directions detected by the acceleration sensor (second detection unit) built in the operation unit 160. The magnitude, direction, and speed of movement can be acquired. Further, the position and orientation of the operation unit 160 with respect to the display screen (reference position and reference orientation) of the display unit 190, the indicated position of the operation unit 160 on the display screen of the display unit 190, and the display screen (reference) of the display unit 190 The rotation angle of the operation unit 160 with respect to (angle) can be obtained and obtained.

特に情報取得部108は、操作部160自体の所与の方向への動きの大きさ、速度を取得する。具体的には本実施形態では、図3に示すコントローラ16の指示方向(例えばコントローラ16の先端に設けられた受光センサ面の法線方向や、カメラの基準軸方向、本実施形態では加速度センサの3軸のうちZ軸方向)への動きの大きさ、速度を取得する。即ち本実施形態では、図4(B)に示すように、表示画面11から離れる方向に引かれたコントローラ16が、表示画面11に近づく方向に向けて振られたときのコントローラ16の動き(振り動作)の大きさ、速度を取得する。   In particular, the information acquisition unit 108 acquires the magnitude and speed of movement of the operation unit 160 itself in a given direction. Specifically, in the present embodiment, the direction indicated by the controller 16 shown in FIG. 3 (for example, the normal direction of the light receiving sensor surface provided at the tip of the controller 16, the reference axis direction of the camera, the acceleration sensor in the present embodiment) The magnitude and speed of movement in the Z-axis direction among the three axes are acquired. That is, in the present embodiment, as shown in FIG. 4B, the movement of the controller 16 when the controller 16 pulled in the direction away from the display screen 11 is swung in the direction approaching the display screen 11 (the swing of the controller 16). Get the size and speed of movement).

入力受付部109は、操作部160に設けられた操作子の操作入力を受け付ける。具体的には入力受付部109は、操作部160からの操作入力信号を1/60秒ごとに監視して、検出する。本実施形態では入力受付部109は、表示部190に対する操作部160の距離が第2の距離よりも近づいた場合に、操作入力を受付けないようにしている。   The input receiving unit 109 receives an operation input of an operator provided on the operation unit 160. Specifically, the input receiving unit 109 monitors and detects an operation input signal from the operation unit 160 every 1/60 seconds. In the present embodiment, the input receiving unit 109 is configured not to receive an operation input when the distance of the operation unit 160 with respect to the display unit 190 is closer than the second distance.

基準位置設定部110は、操作部160に設けられた操作子の操作入力タイミングに応じて、表示部190の表示画面上における操作部160の指示位置情報に基づいて、仮想空間(オブジェクト空間、ゲーム空間、画像領域)に基準位置を設定する。例えば操作ボタンが押下された時点や、押下された長さ、回数、間隔、又は押下されていた操作ボタンの押下が解除された時点などに応じて、指示位置情報を取得し、基準位置を設定する。   The reference position setting unit 110, based on the instruction position information of the operation unit 160 on the display screen of the display unit 190, according to the operation input timing of the operation element provided in the operation unit 160, the virtual space (object space, game A reference position is set in the space and the image area. For example, the designated position information is acquired and the reference position is set according to the time when the operation button is pressed, the length, the number of times, the interval, or the time when the pressed operation button is released. To do.

オブジェクト空間設定部111は、標的オブジェクトTOや矢オブジェクトAOなどの移動体オブジェクトや、キャラクタオブジェクト、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ち、オブジェクト空間設定部111は、ワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。なお、基準マークSMを移動体オブジェクトとして3次元的に表示させるようにしてもよい。   The object space setting unit 111 is a moving object such as a target object TO or an arrow object AO, or various objects (polygons, free-form surfaces or objects) representing display objects such as character objects, buildings, trees, pillars, walls, and maps (terrain). The object is arranged and set in the object space (objects composed of primitive surfaces such as subdivision surfaces). In other words, the object space setting unit 111 determines the position and rotation angle (synonymous with orientation and direction) of the object (model object) in the world coordinate system, and sets the rotation angle (X, Y, Z) to the position (X, Y, Z). , Rotation angle around Y, Z axis). The reference mark SM may be displayed three-dimensionally as a moving object.

移動・動作処理部112は、標的オブジェクトTOや矢オブジェクトAOなどの移動体オブジェクトの移動・動作演算(移動・動作シミュレーション)を行う。即ち、この移動・動作処理部112は、操作部160によりプレーヤが入力した操作データ、設定されたパラメータや属性又はプログラム(移動・動作アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of a moving object such as the target object TO or the arrow object AO. That is, the movement / motion processing unit 112 is based on the operation data input by the player through the operation unit 160, the set parameters and attributes, the program (movement / motion algorithm), various data (motion data), and the like. A process for moving the object in the object space or controlling the motion (motion, animation) of the moving object is performed.

具体的には、本実施形態の移動・動作処理部112は、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは毎フレーム固定としてもよいし、処理負荷に応じて可変としてもよい。   Specifically, the movement / motion processing unit 112 according to the present embodiment stores object movement information (position, rotation angle, speed, or acceleration) and movement information (position or rotation angle of each part object) for one frame. A simulation process is sequentially obtained every (for example, 1/60 seconds). Here, the frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. In this embodiment, the frame rate may be fixed every frame or may be variable according to the processing load.

特に、本実施形態の移動・動作処理部112は、設定された基準位置と操作部160の動き情報(所定方向への振り動作情報)とに基づいて、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つを演算する。このとき移動・動作処理部112は、設定された基準位置と操作部160の動き情報(所定方向への振り動作情報)とに基づいて、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路を規定するテーブルを参照し、到達位置、移動方向、移動経路の少なくとも1つを求めるようにしてもよい。   In particular, the movement / motion processing unit 112 of the present embodiment, based on the set reference position and the motion information of the operation unit 160 (swing motion information in a predetermined direction), the arrival position of the arrow object AO in the object space, At least one of the movement direction and the movement route is calculated. At this time, the movement / motion processing unit 112, based on the set reference position and the motion information (swing motion information in a predetermined direction) of the operation unit 160, the arrival position, the moving direction, and the movement of the arrow object AO in the object space. You may make it obtain | require at least 1 of an arrival position, a moving direction, and a moving route with reference to the table which prescribes | regulates a route.

具体的には移動・動作処理部112は、基準位置と動き情報とに基づいて、到達範囲テーブル178を参照し、標的オブジェクトTOにおける矢オブジェクトAOの到達範囲を設定し、設定された到達範囲から到達位置をランダムに、或いは所与のアルゴリズムに応じて決定する。   Specifically, the movement / motion processing unit 112 refers to the reach range table 178 based on the reference position and the motion information, sets the reach range of the arrow object AO in the target object TO, and sets the reach range from the set reach range. The arrival position is determined randomly or according to a given algorithm.

ここで移動・動作処理部112は、矢オブジェクトAOの種類に応じて矢オブジェクトAOの到達範囲を設定するようにしてもよい。また移動・動作処理部112は、動き情報に基づいて、前記仮想空間における移動体の移動速度を演算するようにしてもよい。   Here, the movement / motion processing unit 112 may set the reach range of the arrow object AO according to the type of the arrow object AO. Further, the movement / motion processing unit 112 may calculate the moving speed of the moving body in the virtual space based on the motion information.

表示制御部113は、表示部190に標的オブジェクトTOを表示させる標的表示制御処理と、操作部160の表示部190上の指示位置情報や、操作部160自体の向き情報に基づいて、表示部190に基準マークSMを表示させる基準マーク表示制御処理と、移動・動作処理部112が求めた仮想空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つに基づいて、表示部190に矢オブジェクトAOを表示させる移動体表示制御処理と、を行う。   The display control unit 113 displays the target unit TO on the display unit 190, the indication position information on the display unit 190 of the operation unit 160, and the orientation information of the operation unit 160 itself based on the display unit 190. Display unit 190 based on at least one of the reference mark display control process for displaying the reference mark SM and the arrival position, movement direction, and movement path of the arrow object AO in the virtual space obtained by the movement / motion processing unit 112. And a moving body display control process for displaying the arrow object AO.

具体的には表示制御部113は、表示部190に矢オブジェクトAOが飛んでいく様子を表示するようにしてもよいし、矢オブジェクトAOは表示させずに矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つを示すマークや弾痕等の移動結果表示を表示させるようにしてもよい。   Specifically, the display control unit 113 may display a state in which the arrow object AO flies on the display unit 190, or the arrow object AO is not displayed and the arrival position, the moving direction, You may make it display movement result displays, such as a mark which shows at least 1 of a movement path | route, and a bullet hole.

また表示制御部113は、操作ボタンの操作タイミングを指示する操作指示表示を表示部に表示させる操作指示表示制御処理を更に行い、移動・動作処理部112が、操作ボタンの操作タイミングに基づいて、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つを演算するようにしてもよい。例えば、ゲージ上を指示マークが移動するような表示を行い、指示マークがゲージ上の所定の位置にあるときに操作ボタンを操作(押す、離す等)すると、矢オブジェクトAOの命中率が上がるようにしてもよい。   The display control unit 113 further performs an operation instruction display control process for causing the display unit to display an operation instruction display for instructing the operation timing of the operation button, and the movement / motion processing unit 112 performs the operation button operation timing based on the operation timing of the operation button. You may make it calculate at least 1 of the arrival position of the arrow object AO in object space, a moving direction, and a movement path | route. For example, when the indication mark moves on the gauge and the operation button is operated (pressed, released, etc.) when the indication mark is at a predetermined position on the gauge, the accuracy of the arrow object AO is increased. It may be.

また表示部190に対する操作部160の距離が第1の距離よりも近づいた場合に、表示部190に所与の警告表示を表示させる警告表示制御処理を行う。ここで基準マーク表示制御処理、警告表示制御処理については、3次元画像演算、2次元画像演算のいずれによっても実現することができる。   In addition, when the distance of the operation unit 160 to the display unit 190 is closer than the first distance, a warning display control process for displaying a given warning display on the display unit 190 is performed. Here, the reference mark display control process and the warning display control process can be realized by either a three-dimensional image calculation or a two-dimensional image calculation.

そしてより詳細には表示制御部113は、仮想カメラ制御部114と描画部120とを含む。   More specifically, the display control unit 113 includes a virtual camera control unit 114 and a drawing unit 120.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。なお本実施形態では、仮想カメラは固定とされている。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed. In the present embodiment, the virtual camera is fixed.

例えば仮想カメラにより移動体オブジェクトを追従して撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when shooting a moving object following a virtual camera, the position or rotation angle (the direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows a change in the position or rotation of the object. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、本実施形態の描画部120は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, the drawing unit 120 of the present embodiment firstly stores vertex data (vertex position coordinates, texture coordinates, color data, normal vector, or α value) of each vertex of the object (model). Etc.) is input, and vertex processing is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。   In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. The given vertex data is changed (updated or adjusted) for the vertex group to be configured. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed.

ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色をフレームバッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。   In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the frame buffer 174 (buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.

これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお、描画部120が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing performed by the drawing unit 120 are performed by hardware that enables the polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .

そして、描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部170に記憶する。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170.

テクスチャマッピングでは、記憶部170のテクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部174からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   In texture mapping, a process of mapping a texture (texel value) stored in the texture storage unit 174 of the storage unit 170 to an object is performed. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 174 of the storage unit 170 using the texture coordinates set (applied) to the vertex of the object. Map an image texture to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   In the hidden surface removal processing, hidden surface removal processing is performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value at the drawing pixel of the primitive are obtained. In comparison, if the Z value at the drawing pixel is a Z value (for example, a small Z value) that is on the near side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is updated. Update to the correct Z value.

αブレンディング(α合成)では、描画部120は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   In α blending (α synthesis), the rendering unit 120 performs translucent synthesis processing (normal α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

判定部122は、オブジェクト空間における矢オブジェクトAOの到達位置、移動方向、移動経路の少なくとも1つに基づいて、表示部190に表示させる標的オブジェクトTOと矢オブジェクトAOとの位置関係を判定する。   The determination unit 122 determines the positional relationship between the target object TO and the arrow object AO to be displayed on the display unit 190 based on at least one of the arrival position, movement direction, and movement path of the arrow object AO in the object space.

具体的には判定部122は、矢オブジェクトAOの到達位置が、標的オブジェクトTOの複数の判定領域JAのうちいずれの判定領域JAに属するか判定する。また移動・動作処理部が矢オブジェクトAOの移動経路や移動方向を求めた場合には、矢オブジェクトAOと標的オブジェクトTOとに設定されたヒットポリゴンによるヒットチェック等により交差判定を行うことができる。   Specifically, the determination unit 122 determines which determination area JA the arrival position of the arrow object AO belongs to among the plurality of determination areas JA of the target object TO. Further, when the movement / motion processing unit obtains the movement path and movement direction of the arrow object AO, the intersection determination can be performed by hit check using hit polygons set on the arrow object AO and the target object TO.

評価部126は、交差判定の結果に基づいて、操作部160の操作に関する評価を行う。具体的には本実施形態では、矢オブジェクトAOの到達位置が標的オブジェクトTOの判定領域JAであった場合、即ち矢オブジェクトAOが標的オブジェクトTOに刺さった場合に、矢オブジェクトAOが刺さった判定領域JAに応じた得点を得点表示PGとして表示したり、「うまい!」などの表示を行うなどして、操作者の操作を評価する処理を行う。   The evaluation unit 126 performs evaluation related to the operation of the operation unit 160 based on the result of the intersection determination. Specifically, in this embodiment, when the arrival position of the arrow object AO is the determination area JA of the target object TO, that is, when the arrow object AO is stuck in the target object TO, the determination area where the arrow object AO is stuck A process for evaluating the operation of the operator is performed by displaying a score corresponding to JA as a score display PG or displaying “delicious!”.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また、複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   In addition, when a plurality of players play, game images and game sounds provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

4.処理の詳細
図6は、本実施形態の処理の一例の詳細を示すフローチャート図である。本実施形態では、まず複数種類の矢オブジェクトAOから1の矢オブジェクトAOを、ランダムに或いはプレーヤの選択操作により、次に投げる矢オブジェクトAOとして設定する表示を行う(ステップS10)。本実施形態では、重い、普通、軽いという3種類の矢オブジェクトAOが用意されている。そして、プレーヤがコントローラ16のボタン17を押下し(ステップS12のY)、プレーヤがコントローラ16の向きを変えることにより指示位置情報が変更されると(ステップS14のY)、コントローラ16の指示位置に基準マークSMを移動させる(ステップS16)。
4). Details of Processing FIG. 6 is a flowchart showing details of an example of processing according to this embodiment. In the present embodiment, first, display is performed in which one arrow object AO from a plurality of types of arrow objects AO is set as an arrow object AO to be thrown next at random or by a player's selection operation (step S10). In the present embodiment, three types of arrow objects AO, which are heavy, normal, and light, are prepared. Then, when the player presses the button 17 of the controller 16 (Y in step S12) and the designated position information is changed by the player changing the orientation of the controller 16 (Y in step S14), the designated position of the controller 16 is obtained. The reference mark SM is moved (step S16).

図7(A)、(B)は、コントローラ16の向きに応じた基準マークSMの動きを説明するための図である。図7(A)に示すように本実施形態では、プレーヤがコントローラ16を表示部12の表示画面11に対して上下左右に移動させたり、コントローラ16の指示方向(コントローラ16の向き)を上下左右に変化させると、表示画面11上におけるコントローラ16の指示位置に基準マークSMが移動する。即ち、表示画面11上におけるコントローラ16の指示位置情報に基づいて、基準マークSMを移動させる。   7A and 7B are diagrams for explaining the movement of the reference mark SM according to the orientation of the controller 16. As shown in FIG. 7A, in this embodiment, the player moves the controller 16 up, down, left and right with respect to the display screen 11 of the display unit 12, or changes the instruction direction of the controller 16 (the direction of the controller 16) up, down, left, right. The reference mark SM moves to the designated position of the controller 16 on the display screen 11. That is, the reference mark SM is moved based on the indicated position information of the controller 16 on the display screen 11.

また図7(B)に示すように、プレーヤがコントローラ16を表示部12の表示画面11に近づけると、表示画面11に対するコントローラ16の距離情報が変化するが、表示画面11上におけるコントローラ16の指示位置が変わらない場合には、基準マークSMは移動しない。   As shown in FIG. 7B, when the player brings the controller 16 close to the display screen 11 of the display unit 12, the distance information of the controller 16 with respect to the display screen 11 changes, but the instruction of the controller 16 on the display screen 11 changes. If the position does not change, the reference mark SM does not move.

このように本実施形態では、表示画面11上におけるコントローラ16の指示位置情報に基づいて、基準マークSMの位置を2次元的に制御する。なお、コントローラ16の指示位置情報、距離情報等を取得するセンサは、CMOSセンサ(第1の検出部)としてもよいし、加速度センサ(第2の検出部)としてもよい。またそれらの任意の組合せとしてもよい。   Thus, in the present embodiment, the position of the reference mark SM is controlled two-dimensionally based on the indicated position information of the controller 16 on the display screen 11. Note that the sensor that acquires the indicated position information, distance information, and the like of the controller 16 may be a CMOS sensor (first detection unit) or an acceleration sensor (second detection unit). Moreover, it is good also as those arbitrary combinations.

こうして基準マークSMの位置を制御して(図6のステップS16)、コントローラ16の操作ボタン17の押下操作が解除されると(ステップS18のY)、押下操作が解除されたタイミングにおける指示位置に基準マークSMを固定表示し、当該指示位置を基準位置として設定する(ステップS20)。一方、操作ボタン17の押下操作が解除されないと(ステップS18のN)、ステップS14からステップS18の処理を繰り返す。即ち、プレーヤが操作ボタン17を押下している間は(ステップS18のN)、コントローラ16の指示位置に応じて基準マークSMを移動させる。   In this way, the position of the reference mark SM is controlled (step S16 in FIG. 6), and when the pressing operation of the operation button 17 of the controller 16 is released (Y in step S18), the position is designated at the timing when the pressing operation is released. The reference mark SM is fixedly displayed, and the indicated position is set as the reference position (step S20). On the other hand, if the pressing operation of the operation button 17 is not released (N in Step S18), the processing from Step S14 to Step S18 is repeated. That is, while the player is pressing the operation button 17 (N in step S18), the reference mark SM is moved according to the position indicated by the controller 16.

そして図4(B)に示すように、コントローラ16の指示方向にコントローラ16が振られる操作が行われることにより、コントローラ16の指示方向への加速度情報が所定のしきい値以上検出されると(ステップS22のY)、検出した加速度情報を取得する(ステップS24)。そして、コントローラ16の指示方向への加速度情報が所定のしきい値を下回らない間(ステップS26のN)、加速度情報を取得する(ステップS24)。即ちコントローラ16の指示方向への一回の振り(リリース動作)の大きさを取得する。   Then, as shown in FIG. 4B, when the controller 16 is swung in the direction indicated by the controller 16, acceleration information in the direction indicated by the controller 16 is detected to be equal to or greater than a predetermined threshold ( Y of step S22), the detected acceleration information is acquired (step S24). Then, while the acceleration information in the direction indicated by the controller 16 does not fall below the predetermined threshold (N in Step S26), the acceleration information is acquired (Step S24). That is, the magnitude of one swing (release operation) in the direction indicated by the controller 16 is acquired.

そして加速度情報が所定のしきい値を下回ると、即ちコントローラ16の指示方向への一回の振り(リリース動作)が終了すると(ステップS26のY)、値がしきい値以上であった期間の加速度情報を時間で積分し、これを振り情報として求める(ステップS28)。本実施形態では、コントローラ16の指示方向への加速度情報は、コントローラ16の振り方によって様々に変位するが、こうして所定期間の値を積分することにより、ばらつきの少ない値として振り情報を取得することができる。   When the acceleration information falls below a predetermined threshold value, that is, when one swing (release operation) in the instruction direction of the controller 16 is completed (Y in step S26), the period during which the value is equal to or greater than the threshold value. Acceleration information is integrated over time and obtained as swing information (step S28). In the present embodiment, the acceleration information in the direction indicated by the controller 16 varies in various ways depending on how the controller 16 swings. Thus, by integrating the values for a predetermined period, the swing information is acquired as a value with less variation. Can do.

すると、設定された基準位置と、求めた振り情報とに基づいて、到達範囲テーブル178を参照し、到達範囲を設定する(ステップS30)。そして、設定した到達範囲内の位置から矢オブジェクトAOの到達位置をランダムに決定し(ステップS32)、決定した到達位置に向けて矢オブジェクトAOを移動させ(ステップS34)、到達位置に矢オブジェクトAOが刺さる表示を行う。そして、矢オブジェクトAOが標的オブジェクトTOのいずれの領域に刺さったか否か判定し(ステップS38)、矢オブジェクトAOが刺さった領域に応じた点数を得点表示PGとして表示したり、「うまい!」などの表示を行うなどして、操作者の操作を評価する(ステップS40)。   Then, based on the set reference position and the obtained swing information, the reach range is set by referring to the reach range table 178 (step S30). Then, the arrival position of the arrow object AO is randomly determined from the position within the set arrival range (step S32), the arrow object AO is moved toward the determined arrival position (step S34), and the arrow object AO is moved to the arrival position. Is displayed. Then, it is determined whether or not the area of the target object TO has been pierced by the arrow object AO (step S38). The operator's operation is evaluated by displaying (step S40).

図8は、本実施形態で設定される到達範囲の例を説明するための図である。図8(A)〜(C)に示すように本実施形態では、振り情報に応じて3段階の到達範囲が設けられている。図8(A)に示す第1の到達範囲A1は、振り情報の値が、相対的に小さい(振りの強さが弱い)第1の範囲の値であった場合に設定される到達範囲である。図8(A)の例では第1の到達範囲A1は、基準位置(基準マークSM)を上端として下方向に延びた楕円形状の範囲となっている。従って、振り情報の値が小さい場合には、基準位置よりも左右方向にはぶれが少ないが、下方向にぶれる確率が高くなるように矢オブジェクトAOを移動させることができる。   FIG. 8 is a diagram for explaining an example of the reach range set in the present embodiment. As shown in FIGS. 8A to 8C, in the present embodiment, three stages of reach ranges are provided according to the swing information. The first reachable range A1 shown in FIG. 8A is a reachable range that is set when the value of the swing information is a value in the first range that is relatively small (the swing strength is weak). is there. In the example of FIG. 8A, the first reachable range A1 is an elliptical range extending downward with the reference position (reference mark SM) as the upper end. Therefore, when the value of the swing information is small, the arrow object AO can be moved so that there is less blur in the left-right direction than the reference position, but there is a higher probability of shaking in the downward direction.

また図8(B)に示す第2の到達範囲A2は、振り情報の値が、相対的に中程(振りの強さが中程)である第2の範囲の値であった場合に設定される到達範囲である。図8(B)の例では第2の到達範囲A2は、基準位置(基準マークSM)を中心として基準マークSMとほぼ同じ大きさの円形状の範囲となっている。従って、振り情報の値が中程である場合には、ほぼ基準位置付近に矢オブジェクトAOを移動させることができる。   The second reachable range A2 shown in FIG. 8B is set when the value of the swing information is a value in the second range that is relatively middle (the swing strength is medium). Reachable range. In the example of FIG. 8B, the second reachable range A2 is a circular range having the same size as the reference mark SM around the reference position (reference mark SM). Accordingly, when the value of the swing information is intermediate, the arrow object AO can be moved approximately near the reference position.

また図8(C)に示す第3の到達範囲A3は、振り情報の値が、相対的に大きい(振りの強さが強い)第3の範囲の値であった場合に設定される到達範囲である。図8(C)の例では第3の到達範囲A3は、基準位置(基準マークSM)を中心として標的オブジェクトTOとほぼ同じ大きさの円形状の範囲となっている。従って、振り情報の値が大きい場合には、基準位置から上下左右方向にぶれが大きくなるように矢オブジェクトAOを移動させることができる。   Further, the third reachable range A3 shown in FIG. 8C is a reachable range that is set when the value of the swing information is a third range value that is relatively large (strong swing strength). It is. In the example of FIG. 8C, the third reachable range A3 is a circular range having the same size as the target object TO with the reference position (reference mark SM) as the center. Therefore, when the value of the swing information is large, the arrow object AO can be moved so that the shake is increased in the vertical and horizontal directions from the reference position.

そして本実施形態では、軽い、普通、重いという3種類の矢オブジェクトAOの各矢オブジェクトAOについて、コントローラ16の指示方向への振りの強さに応じた到達範囲が、図9に示すような到達範囲テーブル178として記憶されている。図9の例では、振りの強さが極極小である場合には、軽い矢では矢オブジェクトAOが標的オブジェクトTOまで届かず、手前に落下するように表示されるが、普通の矢と重い矢では反応がなく、矢オブジェクトAOが飛ぶ表示もなされない。   In this embodiment, for each of the arrow objects AO of the three types of arrow objects AO, which are light, normal, and heavy, the arrival range corresponding to the strength of the swing in the direction indicated by the controller 16 is as shown in FIG. It is stored as a range table 178. In the example of FIG. 9, when the strength of the swing is minimal, the arrow object AO does not reach the target object TO with a light arrow and is displayed to fall to the front, but a normal arrow and a heavy arrow are displayed. Then, there is no reaction, and the arrow object AO is not displayed to fly.

一方、振りの強さが中である場合には、軽い矢では図8(C)に示す第3の到達範囲A3が設定されるので、基準位置から上下左右方向にぶれが大きくなるように矢オブジェクトAOが移動するが、普通の矢では図8(B)に示す第2の到達範囲A2が設定されるので、ほぼ基準位置付近に矢オブジェクトAOが移動する。また、重い矢では図8(A)に示す第1の到達範囲A1が設定されるので、基準位置よりも左右方向にはぶれが少ないが、下方向にぶれる確率が高くなるように矢オブジェクトAOが移動する。このように本実施形態では、振りの強さが同じでも、矢オブジェクトAOの種類に応じて設定される到達範囲が異なるようにすることができる。   On the other hand, when the swing strength is medium, the lighter arrow sets the third reachable range A3 shown in FIG. 8C, so that the arrow increases so as to increase the shake vertically and horizontally from the reference position. Although the object AO moves, since the second reachable range A2 shown in FIG. 8B is set for a normal arrow, the arrow object AO moves approximately near the reference position. In addition, since the first reachable range A1 shown in FIG. 8A is set for a heavy arrow, the arrow object AO is less likely to shake in the left-right direction than the reference position but has a higher probability of being shaken downward. Move. As described above, in the present embodiment, even when the swing strength is the same, the reach ranges set according to the type of the arrow object AO can be made different.

また本実施形態では図3に示すように、標的オブジェクトTOは、その円中心を回転中心として図中時計回りに回転している。そして標的オブジェクトTOは、複数の判定領域JAに分割されている。これにより、プレーヤが所望の判定領域JA1に狙いを定めて操作ボタン17の押下を解除して、判定領域JA1に基準位置を設定(基準マークSMを固定)させても、すぐに振り動作を行わなければ、基準位置が所望の判定領域JA1から外れてしまう。すると、たとえ第2の到達範囲が設定される振りの強さを入力できたとしても、所望の判定領域JA1に矢オブジェクトAOを到達させることができない。   In the present embodiment, as shown in FIG. 3, the target object TO rotates in the clockwise direction in the figure with the circle center as the rotation center. The target object TO is divided into a plurality of determination areas JA. As a result, even if the player aims at the desired determination area JA1 and releases the operation button 17 to set the reference position in the determination area JA1 (fix the reference mark SM), the player immediately performs a swing motion. Otherwise, the reference position deviates from the desired determination area JA1. Then, even if the swing strength at which the second reachable range is set can be input, the arrow object AO cannot reach the desired determination area JA1.

従って、本実施形態では、図10(A)に示すように、まず操作ボタン17を指で押しながら基準位置を移動させ(狙い)、狙いが定まったら操作ボタン17から指を放し、すぐに表示画面11から離れる方向にコントローラ16を引き(テイクバック)、表示画面11に近づく方向に向けて振る(リリース)ことにより、基準位置が所望の判定領域JA1から外れないうちに矢オブジェクトAOを移動させることができる。   Therefore, in this embodiment, as shown in FIG. 10A, first, the reference position is moved (aimed) while pushing the operation button 17 with a finger, and when the aim is determined, the finger is released from the operation button 17 and displayed immediately. By pulling the controller 16 away from the screen 11 (takeback) and swinging toward the direction approaching the display screen 11 (release), the arrow object AO is moved before the reference position is deviated from the desired determination area JA1. be able to.

こうして本実施形態では、基準位置を設定してからテイクバックしてリリースするまでの操作を、一連の流れでスムースに行えば、より命中率を上げることができる。なお標的オブジェクトTOを回転など移動させなくとも、基準位置を設定してから振り動作を検出するまでの時間が短い方が、或いは所定の時間に近い方が、基準位置近くに矢オブジェクトAOが到達するように構成すれば、同様の効果を奏することができる。また図10(B)に示すように、操作ボタン17を指で押した状態での指示方向への振り動作を検出させ、操作ボタン17から指を放した時点での指示位置情報に基づいて、基準位置を設定するようにすれば、あたかも矢を投げたかのような操作入力を行わせることができる。   In this way, in this embodiment, if the operations from setting the reference position to taking back and releasing are performed smoothly in a series of flows, the hit rate can be further increased. Even if the target object TO is not rotated or moved, the arrow object AO arrives near the reference position when the time from setting the reference position to detecting the swing motion is shorter or closer to the predetermined time. If configured to do so, similar effects can be achieved. Further, as shown in FIG. 10B, based on the indicated position information at the time when the swinging motion in the indicated direction with the operation button 17 pressed with a finger is detected and the finger is released from the operation button 17, If the reference position is set, it is possible to perform an operation input as if an arrow was thrown.

6.ハードウェア構成
図11に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
6). Hardware Configuration FIG. 11 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるDVD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 accesses a DVD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced by broad or synonymous terms in other descriptions in the specification or drawings.

また本発明は種々の画像生成システムに適用できる。上述の実施形態では、本発明をダーツゲームシステムに適用した場合を例に挙げて説明したが、本発明は、基準位置と動き情報とに基づいて、仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する種々の画像生成システムにも適用することができる。   The present invention can be applied to various image generation systems. In the above embodiment, the case where the present invention is applied to the dart game system has been described as an example. However, the present invention is based on the reference position and the movement information, and the arrival position and the movement direction of the moving object in the virtual space. The present invention can also be applied to various image generation systems that calculate at least one of the movement paths.

また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

本実施形態のシステムの概略外観の一例を示す図。The figure which shows an example of the schematic external appearance of the system of this embodiment. 本実施形態の指示位置の情報を演算する手法の一例を説明するための図。The figure for demonstrating an example of the method of calculating the information of the instruction | indication position of this embodiment. 本実施形態で生成される画像の一例を示す図。The figure which shows an example of the image produced | generated by this embodiment. 本実施形態の操作入力検出の一例を説明するための図。The figure for demonstrating an example of the operation input detection of this embodiment. 本実施形態の機能ブロックの一例を示す図。The figure which shows an example of the functional block of this embodiment. 本実施形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of this embodiment. 図7(A)(B)は、本実施形態の操作部と操作対象の動きを説明するための図。FIGS. 7A and 7B are diagrams for explaining the movement of the operation unit and the operation target according to the present embodiment. 図8(A)(B)は、本実施形態の到達範囲を説明するための図。8A and 8B are diagrams for explaining the reach of the present embodiment. 本実施形態のテーブルデータの一例を説明するための図。The figure for demonstrating an example of the table data of this embodiment. 本実施形態の操作入力検出の一例を説明するための図。The figure for demonstrating an example of the operation input detection of this embodiment. 本実施形態を実現できるハードウェアの構成の一例を示す図。The figure which shows an example of the structure of the hardware which can implement | achieve this embodiment.

符号の説明Explanation of symbols

P プレーヤ、CO 操作対象、PA 画像データ領域、
IrA1・IrA2 赤外光原領域、DpA 表示画面領域、
AO 矢オブジェクト、TO 標的オブジェクト、
SM 基準マーク、E 弾道情報、
16 コントローラ、17 操作ボタン
100 処理部、108 情報取得部、109 入力受付部、
110 オブジェクト空間設定部、112 移動・動作処理部、113 表示制御部、
114 仮想カメラ制御部、120 描画部、122 判定部、124 標的状態更新部、126 評価部、160 操作部、162 検出部、170 記憶部、190 表示部
P player, CO operation target, PA image data area,
IrA1 / IrA2 infrared light source area, DpA display screen area,
AO arrow object, TO target object,
SM reference mark, E ballistic information,
16 controller, 17 operation button 100 processing unit, 108 information acquisition unit, 109 input reception unit,
110 Object space setting unit, 112 Movement / motion processing unit, 113 Display control unit,
114 virtual camera control unit, 120 drawing unit, 122 determination unit, 124 target state update unit, 126 evaluation unit, 160 operation unit, 162 detection unit, 170 storage unit, 190 display unit

Claims (14)

コントローラの操作に応じた画像を生成するためのプログラムであって、
前記コントローラの動きに応じて変化する情報を検出する検出部の検出結果に基づいて、表示部に対する前記コントローラの指示位置情報と、前記コントローラの動き情報とを取得する情報取得部と、
前記指示位置情報に基づいて仮想空間に基準位置を設定する基準位置設定部と、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する移動処理部と、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体の到達位置、移動方向、移動経路の少なくとも1つを示す移動結果表示を表示させる移動結果表示制御処理を行う表示制御部としてコンピュータを機能させることを特徴とするプログラム。
A program for generating an image according to the operation of the controller,
Based on the detection result of the detection unit that detects information that changes according to the movement of the controller, an information acquisition unit that acquires the controller's indicated position information with respect to the display unit, and the movement information of the controller;
A reference position setting unit that sets a reference position in a virtual space based on the indicated position information;
Based on the reference position and the movement information, a movement processing unit that calculates at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space;
Based on at least one of the arrival position, movement direction, and movement path of the moving object in the virtual space, the display unit displays a movement result display indicating at least one of the arrival position, movement direction, and movement path of the moving object. A program that causes a computer to function as a display control unit that performs a movement result display control process.
請求項1において、
前記情報取得部が、
前記コントローラの所与の方向への動き情報を取得し、
前記移動処理部が、
前記所与の方向への動き情報に基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算することを特徴とするプログラム。
In claim 1,
The information acquisition unit
Obtaining movement information of the controller in a given direction;
The movement processing unit is
A program that calculates at least one of an arrival position, a moving direction, and a moving path of a moving object in the virtual space based on movement information in the given direction.
請求項1、2のいずれかにおいて、
前記移動処理部が、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達範囲を設定し、設定された前記到達範囲から前記到達位置を決定することを特徴とするプログラム。
In any one of Claims 1, 2.
The movement processing unit is
A program that sets a reachable range of a moving object in the virtual space based on the reference position and the motion information, and determines the reachable position from the set reachable range.
請求項3において、
前記移動処理部が、
前記移動体の種類に応じて前記移動体の到達範囲を設定することを特徴とするプログラム。
In claim 3,
The movement processing unit is
A program for setting a reachable range of the moving body according to a type of the moving body.
請求項1〜4のいずれかにおいて、
前記移動処理部が、
前記動き情報に基づいて、前記仮想空間における移動体の移動速度を演算することを特徴とするプログラム。
In any one of Claims 1-4,
The movement processing unit is
A program for calculating a moving speed of a moving body in the virtual space based on the movement information.
請求項1〜5のいずれかにおいて、
前記コントローラに設けられた操作子の操作入力を受け付ける入力受付部としてコンピュータを更に機能させ、
前記基準位置設定部が、
前記操作子の操作タイミングに応じて、前記指示位置情報に基づいて仮想空間に基準位置を設定することを特徴とするプログラム。
In any one of Claims 1-5,
The computer further functions as an input receiving unit that receives an operation input of an operator provided in the controller,
The reference position setting unit is
A program that sets a reference position in a virtual space based on the indicated position information in accordance with an operation timing of the operation element.
請求項6において、
前記表示制御部が、
前記操作子の操作タイミングを指示する操作指示表示を表示部に表示させる操作指示表示制御処理を更に行い、
前記移動処理部が、
前記操作子の操作タイミングに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算することを特徴とするプログラム。
In claim 6,
The display control unit
Further performing an operation instruction display control process for causing the display unit to display an operation instruction display for instructing the operation timing of the operator,
The movement processing unit is
A program for calculating at least one of an arrival position, a moving direction, and a moving path of a moving body in the virtual space based on an operation timing of the operation element.
請求項1〜7のいずれかにおいて、
前記情報取得部が、
前記コントローラの動きに応じて変化する情報が所与のしきい値を超えた場合に、前記コントローラの動き情報を取得することを特徴とするプログラム。
In any one of Claims 1-7,
The information acquisition unit
A program for acquiring motion information of the controller when information that changes according to the motion of the controller exceeds a given threshold value.
請求項1〜8のいずれかにおいて、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に表示させる標的と前記移動体との位置関係を判定する判定部と、
前記判定の結果に基づいて前記コントローラの操作を評価する評価部としてコンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-8,
A determination unit that determines a positional relationship between the target to be displayed on the display unit and the moving body, based on at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space;
A program that causes a computer to further function as an evaluation unit that evaluates the operation of the controller based on the result of the determination.
請求項9において、
前記判定部が、
前記標的と前記移動体とが前記標的に設定された複数の判定領域のいずれにおいて交差したか判定し、
前記評価部が、
前記交差判定の結果に基づいて前記コントローラの操作を評価することを特徴とするプログラム。
In claim 9,
The determination unit is
Determining in which of the plurality of determination regions set for the target the target and the moving body intersect;
The evaluation unit is
A program for evaluating an operation of the controller based on a result of the intersection determination.
請求項10において、
前記表示制御部が、
前記標的表示制御処理として、前記複数の判定領域を前記標的において識別可能に表示するとともに前記標的を移動させる処理を行うことを特徴とするプログラム。
In claim 10,
The display control unit
As the target display control process, a program for displaying the plurality of determination areas so as to be identifiable on the target and moving the target is performed.
請求項1〜11のいずれかにおいて、
前記表示制御部が、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体を表示させる移動体表示制御処理を行うことを特徴とするプログラム。
In any one of Claims 1-11,
The display control unit
A program for performing a moving body display control process for displaying the moving body on the display unit, based on at least one of an arrival position, a moving direction, and a moving path of the moving body in the virtual space.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜12のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 12 is stored. コントローラの操作に応じた画像を生成するための画像生成システムであって、
前記コントローラの動きに応じて変化する情報を検出する検出部の検出結果に基づいて、表示部に対する前記コントローラの指示位置情報と、前記コントローラの動き情報とを取得する情報取得部と、
前記指示位置情報に基づいて仮想空間に基準位置を設定する基準位置設定部と、
前記基準位置と前記動き情報とに基づいて、前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つを演算する移動処理部と、
前記仮想空間における移動体の到達位置、移動方向、移動経路の少なくとも1つに基づいて、前記表示部に前記移動体の到達位置、移動方向、移動経路の少なくとも1つを示す移動結果表示を表示させる移動結果表示制御処理を行う表示制御部と、
を含むことを特徴とする画像生成システム。
An image generation system for generating an image according to an operation of a controller,
Based on the detection result of the detection unit that detects information that changes according to the movement of the controller, an information acquisition unit that acquires the controller's indicated position information with respect to the display unit, and the movement information of the controller;
A reference position setting unit that sets a reference position in a virtual space based on the indicated position information;
Based on the reference position and the movement information, a movement processing unit that calculates at least one of the arrival position, movement direction, and movement path of the moving body in the virtual space;
Based on at least one of the arrival position, movement direction, and movement path of the moving object in the virtual space, the display unit displays a movement result display indicating at least one of the arrival position, movement direction, and movement path of the moving object. A display control unit that performs a movement result display control process, and
An image generation system comprising:
JP2006248400A 2006-09-13 2006-09-13 Program, information storage medium, and image generation system Expired - Fee Related JP4806608B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006248400A JP4806608B2 (en) 2006-09-13 2006-09-13 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006248400A JP4806608B2 (en) 2006-09-13 2006-09-13 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2008071069A true JP2008071069A (en) 2008-03-27
JP4806608B2 JP4806608B2 (en) 2011-11-02

Family

ID=39292608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006248400A Expired - Fee Related JP4806608B2 (en) 2006-09-13 2006-09-13 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4806608B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053779A (en) * 2009-08-31 2011-03-17 Namco Bandai Games Inc Program, information storage medium, and image controller
JP2011053777A (en) * 2009-08-31 2011-03-17 Namco Bandai Games Inc Program, information storage medium, and image control system
US8514255B2 (en) 2009-08-31 2013-08-20 Namco Bandai Games Inc. Information storage medium, image control device, and image control method
KR101401910B1 (en) 2010-05-03 2014-06-02 서용창 Game Terminal for Using a Camera and Operating Method for the same
KR101406668B1 (en) 2013-03-20 2014-06-20 한국과학기술원 System, method for controlling user terminal using finger gesture, and user terminal comprising the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053779A (en) * 2009-08-31 2011-03-17 Namco Bandai Games Inc Program, information storage medium, and image controller
JP2011053777A (en) * 2009-08-31 2011-03-17 Namco Bandai Games Inc Program, information storage medium, and image control system
US8514255B2 (en) 2009-08-31 2013-08-20 Namco Bandai Games Inc. Information storage medium, image control device, and image control method
KR101401910B1 (en) 2010-05-03 2014-06-02 서용창 Game Terminal for Using a Camera and Operating Method for the same
KR101406668B1 (en) 2013-03-20 2014-06-20 한국과학기술원 System, method for controlling user terminal using finger gesture, and user terminal comprising the same

Also Published As

Publication number Publication date
JP4806608B2 (en) 2011-11-02

Similar Documents

Publication Publication Date Title
JP5597837B2 (en) Program, information storage medium, and image generation apparatus
JP5085059B2 (en) Image generation system, program, and information storage medium
JP5089079B2 (en) Program, information storage medium, and image generation system
JP4974319B2 (en) Image generation system, program, and information storage medium
JP5390115B2 (en) Program, game system
US8882593B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP6643775B2 (en) Game machine, game system and program
JP5520443B2 (en) Program, information storage medium, and game system
JP2007300974A (en) Program, information storage medium and image generation system
JP2008225985A (en) Image recognition system
JP2011053838A (en) Program, information storage medium, and image generation device
US8662976B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP2009061161A (en) Program, information storage medium and game system
JP4806608B2 (en) Program, information storage medium, and image generation system
JP2009213559A (en) Game apparatus
JP4662271B2 (en) Program, information storage medium, and image generation system
JP2019166218A (en) Program and game device
JP2006268511A (en) Program, information storage medium and image generation system
JP2008067853A (en) Program, information storage medium and image generation system
JP3786671B1 (en) Program, information storage medium, and image generation system
JP2009061159A (en) Program, information storage medium and game system
JP5054908B2 (en) Program, information storage medium, and image generation system
JP5558008B2 (en) Program, information storage medium, and game system
JP4420729B2 (en) Program, information storage medium, and image generation system
JP2011255114A (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20091120

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20100129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110815

R150 Certificate of patent or registration of utility model

Ref document number: 4806608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees