JP2009169471A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2009169471A
JP2009169471A JP2008003580A JP2008003580A JP2009169471A JP 2009169471 A JP2009169471 A JP 2009169471A JP 2008003580 A JP2008003580 A JP 2008003580A JP 2008003580 A JP2008003580 A JP 2008003580A JP 2009169471 A JP2009169471 A JP 2009169471A
Authority
JP
Japan
Prior art keywords
virtual camera
effect
moving
moving object
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008003580A
Other languages
Japanese (ja)
Inventor
Shigeto Murata
茂人 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2008003580A priority Critical patent/JP2009169471A/en
Publication of JP2009169471A publication Critical patent/JP2009169471A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program capable of obtaining performance effects with a suitable speed sensing, regardless of the location and direction of a virtual camera, and to provide an information storage medium and an image generation system. <P>SOLUTION: There is disclosed the program for generating an image seen through a virtual camera in an object space, with the program allowing a computer to function as a storage unit which stores an effect object EO, such that a plurality of segments move in one direction on surfaces of a column or polygonal pole, as a movement control unit which controls movements of a moving body object MO disposed in the object space, as a virtual camera control unit which performs control to make the virtual camera VC follow up the movements of the moving body object MO, and an object space setting unit which arrange the effect object EO in the object space, based upon the position of the moving body object MO. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来から、複数のポリゴンが設定されるオブジェクト空間(仮想的な3次元空間)内において、仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。   Conventionally, an image generation system (game system) that generates an image viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which a plurality of polygons are set is known. It is very popular for experiencing so-called virtual reality.

このような画像生成システムでは、仮想カメラのスピード等を演出する処理を行うものが知られている(例えば、特許文献1)。
特開2002−170131号公報
As such an image generation system, one that performs processing for producing the speed of a virtual camera or the like is known (for example, Patent Document 1).
JP 2002-170131 A

また、画面の端から画面中央にある移動体に向かう集中線を、スクリーン座標系において複数のポリゴンを用いて表現し、速度感を演出する効果を施す処理、いわゆる集中線エフェクトの描画手法がある。しかし、この描画処理では、仮想カメラが移動体の進行方向後方に位置することを前提としているため、例えば仮想カメラが移動体の横に位置している場合、又は仮想カメラが進行方向を向いていない場合に不自然な速度感演出となってしまうといった問題点があった。   In addition, there is a so-called concentrated line effect drawing method that expresses a concentrated line from the edge of the screen toward a moving body in the center of the screen using a plurality of polygons in the screen coordinate system and produces an effect of creating a sense of speed. . However, since this drawing process assumes that the virtual camera is positioned behind the moving body, for example, when the virtual camera is positioned beside the moving body, or the virtual camera is facing the moving direction. In the absence of this, there was a problem that an unnatural feeling of speed was produced.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、
仮想カメラの位置や向きに関わらず適切な速度感の演出効果を実現可能なプログラム、情報記憶媒体、及び画像生成システムを提供することにある。
The present invention has been made in view of the problems as described above, and the object is as follows.
An object is to provide a program, an information storage medium, and an image generation system capable of realizing an effect of appropriate speed feeling regardless of the position and orientation of a virtual camera.

(1)本発明は、オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
円柱又は多角柱の表面上を複数の線分が一方向に移動するエフェクトオブジェクトを記憶する記憶部と、
オブジェクト空間に配置された移動体オブジェクトの移動を制御する移動制御部と、
仮想カメラを前記移動体オブジェクトの移動に追従させる制御を行う仮想カメラ制御部と、
前記移動体オブジェクトの位置に基づいて、前記エフェクトオブジェクトをオブジェクト空間に配置するオブジェクト空間設定部としてコンピュータを機能させることを特徴とする。
(1) The present invention is a program for generating an image visible from a virtual camera in an object space,
A storage unit for storing an effect object in which a plurality of line segments move in one direction on the surface of a cylinder or a polygonal column;
A movement control unit for controlling movement of a moving object placed in the object space;
A virtual camera control unit for controlling the virtual camera to follow the movement of the moving object;
The computer is caused to function as an object space setting unit that arranges the effect object in an object space based on the position of the moving object.

また本発明は上記各部を含む画像生成システムに関係する。また本発明はコンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to an image generation system including the above-described units. The present invention is also a computer-readable information storage medium, and relates to an information storage medium storing a program that causes a computer to function as each of the above-described units.

本発明によれば、円柱又は多角柱の表面上を複数の線分が一方向に移動するエフェクトオブジェクトを移動体オブジェクトの位置に基づいてオブジェクト空間に配置することによって、仮想カメラの位置や向きに関わらず適切な速度感の演出を行うことができる。   According to the present invention, by arranging an effect object in which a plurality of line segments move in one direction on the surface of a cylinder or a polygonal column in the object space based on the position of the moving object, the position and orientation of the virtual camera are set. Regardless, it is possible to produce an appropriate sense of speed.

(2)また本発明に係るプログラム及び情報記憶媒体では、
前記移動体オブジェクトの速度に基づいて、前記エフェクトオブジェクトの線分の数を増減させるエフェクト制御部としてコンピュータを更に機能させることを特徴とする。
(2) In the program and information storage medium according to the present invention,
The computer may further function as an effect control unit that increases or decreases the number of line segments of the effect object based on the speed of the moving object.

本発明によれば、移動体の速度に応じて速度感を増す演出を行うことができる。   According to the present invention, it is possible to produce an effect that increases the sense of speed according to the speed of the moving object.

(3)本発明は、オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
円から発生し一方向に移動する複数のパーティクルによって構成されるエフェクトオブジェクトを記憶する記憶部と、
オブジェクト空間に配置された移動体オブジェクトの移動を制御する移動制御部と、
仮想カメラを前記移動体オブジェクトの移動に追従させる制御を行う仮想カメラ制御部と、
前記移動体オブジェクトの位置に基づいて、前記エフェクトオブジェクトをオブジェクト空間に配置するオブジェクト空間設定部としてコンピュータを機能させることを特徴とする。
(3) The present invention is a program for generating an image visible from a virtual camera in an object space,
A storage unit for storing an effect object composed of a plurality of particles generated from a circle and moving in one direction;
A movement control unit for controlling movement of a moving object placed in the object space;
A virtual camera control unit for controlling the virtual camera to follow the movement of the moving object;
The computer is caused to function as an object space setting unit that arranges the effect object in an object space based on the position of the moving object.

また本発明は上記各部を含む画像生成システムに関係する。また本発明はコンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to an image generation system including the above-described units. The present invention is also a computer-readable information storage medium, and relates to an information storage medium storing a program that causes a computer to function as each of the above-described units.

本発明によれば、円から発生し一方向に移動する複数のパーティクルによって構成されるエフェクトオブジェクトを移動体オブジェクトの位置に基づいてオブジェクト空間に配置することによって、仮想カメラの位置や向きに関わらず適切な速度感の演出を行うことができる。   According to the present invention, an effect object composed of a plurality of particles generated from a circle and moving in one direction is arranged in the object space based on the position of the moving object, so that regardless of the position and orientation of the virtual camera. An appropriate speed feeling can be produced.

(4)また本発明に係るプログラム及び情報記憶媒体では、
前記移動体オブジェクトの速度に基づいて、前記エフェクトオブジェクトのパーティクの発生個数を増減させるエフェクト制御部としてコンピュータを更に機能させることを特徴とする。
(4) In the program and information storage medium according to the present invention,
The computer may further function as an effect control unit that increases or decreases the number of occurrences of the effect object based on the speed of the moving object.

本発明によれば、移動体の速度に応じて速度感を増す演出を行うことができる。   According to the present invention, it is possible to produce an effect that increases the sense of speed according to the speed of the moving object.

(5)また本発明に係るプログラム及び情報記憶媒体では、
前記オブジェクト空間設定部は、
前記エフェクトオブジェクトが前記移動体オブジェクトを内包するように、前記エフェクトオブジェクトを配置することを特徴とする。
(5) In the program and information storage medium according to the present invention,
The object space setting unit
The effect object is arranged so that the effect object includes the moving object.

本発明によれば、仮想カメラの位置や向きに関わらず適切な速度感の演出を行うことができる。   According to the present invention, it is possible to produce an appropriate sense of speed regardless of the position and orientation of the virtual camera.

(6)また本発明に係るプログラム及び情報記憶媒体では、
前記移動制御部は、
前記移動体オブジェクトをコースに沿って移動させる制御を行い、
前記オブジェクト空間設定部は、
前記移動体オブジェクトの位置及びコースの形状の少なくとも一方に基づいて、前記エフェクトオブジェクトを配置することを特徴とする。
(6) In the program and information storage medium according to the present invention,
The movement control unit
Control to move the moving object along the course,
The object space setting unit
The effect object is arranged based on at least one of a position of the moving object and a shape of a course.

本発明によれば、コースに沿って移動する移動体オブジェクトの位置及びコース形状に応じた位置、向きにエフェクトオブジェクトを配置することができ、適切な速度感の演出を行うことができる。   According to the present invention, it is possible to arrange the effect object at the position and orientation corresponding to the position of the moving object moving along the course and the course shape, and it is possible to produce an appropriate sense of speed.

(7)また本発明に係るプログラム及び情報記憶媒体では、
前記オブジェクト空間設定部は、
前記移動体オブジェクトの位置とコースに沿って設定されたパスとに基づき前記仮想カメラの注視点を求め、求めた注視点に基づき前記エフェクトオブジェクトを配置することを特徴とする。
(7) In the program and information storage medium according to the present invention,
The object space setting unit
A gazing point of the virtual camera is obtained based on the position of the moving object and a path set along a course, and the effect object is arranged based on the obtained gazing point.

(8)また本発明に係るプログラム及び情報記憶媒体では、
前記仮想カメラ制御部は、
操作部からの操作データに基づいて、前記仮想カメラが前記移動体オブジェクトの周囲を移動するように制御することを特徴とする。
(8) In the program and information storage medium according to the present invention,
The virtual camera control unit
The virtual camera is controlled to move around the moving object based on operation data from an operation unit.

本発明によれば、仮想カメラを移動体オブジェクトの移動に追従させつつ移動体オブジェクトの周囲を移動するようにした場合であっても、適切な速度感の演出を行うことができる。   According to the present invention, even if the virtual camera moves around the moving object while following the movement of the moving object, it is possible to produce an appropriate sense of speed.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤがオブジェクト(プレーヤキャラクタ、移動体)の操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data of an object (player character, moving object), and its function can be realized by a lever, a button, a steering, a microphone, a touch panel type display, or a casing.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

なお、オブジェクトデータ記憶部176は、オブジェクトのオブジェクトデータが記憶される。例えば、エフェクトオブジェクトのデータ(パーティクル、ポリゴン)を記憶する。   The object data storage unit 176 stores object data of objects. For example, effect object data (particles, polygons) is stored.

ここでエフェクトオブジェクトとは、円柱又は多角柱の表面上を複数の線分が一方向に移動するオブジェクトである。本実施形態では、エフェクトオブジェクトを、円から発生し一方向に移動する複数のパーティクルによって構成している。   Here, the effect object is an object in which a plurality of line segments move in one direction on the surface of a cylinder or a polygonal column. In this embodiment, the effect object is composed of a plurality of particles that are generated from a circle and move in one direction.

なお、操作部160は、加速度センサや撮像部、或いは角速度を検出するジャイロセンサを備えた入力機器によってプレーヤからの入力データ(操作データ)を入力できるものでもよい。例えば、入力機器に備えられた加速度センサは、3軸(X軸、Y軸、Z軸)の加速度を検出する。すなわち、加速度センサは、上下方向、左右方向、及び、前後方向の加速度を検出することができる。なお、加速度センサは、5msec毎に加速度を検出している。また、加速度センサは、1軸、2軸、6軸の加速度を検出するものであってもよい。なお、加速度センサから検出された加速度は、入力機器の通信部によってゲーム装置(本体装置)に送信される。   Note that the operation unit 160 may be one that can input input data (operation data) from a player by an input device that includes an acceleration sensor, an imaging unit, or a gyro sensor that detects angular velocity. For example, an acceleration sensor provided in an input device detects acceleration in three axes (X axis, Y axis, and Z axis). That is, the acceleration sensor can detect acceleration in the vertical direction, the horizontal direction, and the front-rear direction. The acceleration sensor detects acceleration every 5 msec. Further, the acceleration sensor may detect a uniaxial, biaxial, or six-axis acceleration. The acceleration detected from the acceleration sensor is transmitted to the game device (main device) by the communication unit of the input device.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, another image generation system), and the function is realized by various processors or hardware such as a communication ASIC, a program, or the like. it can.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して画像生成システムを機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the program or data is received and the image generation system is made to function is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクト、エフェクトオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, an object such as a character or a map, a process for placing an effect object, a process for displaying an object, a game result There is a process for calculating the game or a process for ending the game when the game end condition is satisfied.

この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、エフェクト制御部116、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, an effect control unit 116, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 is an object composed of various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as characters, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). ) Is set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

特に本実施形態のオブジェクト空間設定部110は、移動体オブジェクトの位置に基づいて、オブジェクトデータ記憶部176に記憶されたエフェクトオブジェクトをオブジェクト空間に配置する。   In particular, the object space setting unit 110 of the present embodiment arranges the effect object stored in the object data storage unit 176 in the object space based on the position of the moving object.

またオブジェクト空間設定部110は、エフェクトオブジェクトが移動体オブジェクトを内包するように、エフェクトオブジェクトを配置するようにしてもよい。   The object space setting unit 110 may arrange the effect object so that the effect object includes the moving object.

またオブジェクト空間設定部110は、動体オブジェクトの位置及びコースの形状の少なくとも一方に基づいて、エフェクトオブジェクトを配置するようにしてもよい。   The object space setting unit 110 may arrange the effect object based on at least one of the position of the moving object and the shape of the course.

またオブジェクト空間設定部110は、移動体オブジェクトの位置とコースに沿って設定されたパスとに基づき仮想カメラの注視点を求め、求めた注視点に基づきエフェクトオブジェクトを配置するようにしてもよい。   Further, the object space setting unit 110 may obtain a gazing point of the virtual camera based on the position of the moving object and a path set along the course, and may arrange the effect object based on the obtained gazing point.

移動・動作処理部112(移動制御部)は、オブジェクト(キャラクタ、移動体オブジェクト等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 (movement control unit) performs a movement / motion calculation (movement / motion simulation) of an object (character, moving object, etc.). In other words, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, or the like, the object is moved in the object space or the object is moved ( (Motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

また移動・動作処理部112は、移動体オブジェクトをコースに沿って移動させる制御を行うようにしてもよい。   Further, the movement / motion processing unit 112 may perform control for moving the moving object along the course.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, the position (X, Y, Z) or rotation angle of the virtual camera in the world coordinate system (for example, the rotation angle when rotating in the clockwise direction when viewed from the positive direction of each axis of the X, Y, and Z axes). Process to control. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed.

特に本実施形態の仮想カメラ制御部114は、仮想カメラを移動体オブジェクトの移動に追従させる制御を行う。すなわち、仮想カメラによりオブジェクト(例えばキャラクタ、移動体オブジェクト)を後方から撮影するために、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。   In particular, the virtual camera control unit 114 of the present embodiment performs control for causing the virtual camera to follow the movement of the moving object. That is, in order to shoot an object (for example, a character or a moving object) from behind using a virtual camera, the virtual camera position or rotation angle (virtual camera orientation) is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112.

また仮想カメラ制御部114は、操作部からの操作データに基づいて、仮想カメラが移動体オブジェクトの周囲を移動するように制御するようにしてもよい。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   Further, the virtual camera control unit 114 may control the virtual camera to move around the moving object based on operation data from the operation unit. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

エフェクト制御部116は、移動・動作処理部112によって求められた移動体オブジェクトの速度に基づいて、エフェクトオブジェクトの線分の数を増減させる。すなわち移動体オブジェクトの速度に基づいて、エフェクトオブジェクトのパーティクの発生個数を増減させる制御を行う。   The effect control unit 116 increases or decreases the number of line segments of the effect object based on the speed of the moving object obtained by the movement / motion processing unit 112. That is, based on the speed of the moving object, control is performed to increase or decrease the number of occurrences of the effect object.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。また、仮想カメラが複数存在する場合には、仮想カメラ毎にエフェクトオフジェクトを関連づけておき、ある仮想カメラから見える画像を生成する際には、当該仮想カメラに関連づけられたエフェクトオフジェクトのみを描画し、他のカメラに関連づけられたエフェクトオブジェクトを描画しないようにしてもよい。   Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen. In addition, when there are multiple virtual cameras, an effect object is associated with each virtual camera, and when generating an image that can be seen from a virtual camera, only the effect object associated with the virtual camera is drawn. However, the effect object associated with another camera may not be drawn.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the object data storage unit 176. Is done.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

なお、エフェクトオブジェクト(エフェクトオブジェクトを構成するパーティクル、ポリゴン)の描画ピクセルについてはZテストの対象にしないように制御してもよい。つまり、エフェクトオブジェクトの描画ピクセルが必ず描画されるようにしてもよい。またエフェクトオブジェクトを描画する際に、移動体オブジェクトが描画された領域のZ値のみを参照してZテストによる隠面消去処理を行うようにしてもよい。つまり、移動体オブジェクトが描画された領域以外の領域においてはエフェクトオブジェクトの描画ピクセルが必ず描画されるようにしてもよい。   In addition, you may control so that the drawing pixel of an effect object (the particle and polygon which comprise an effect object) is not made into the object of Z test. That is, the drawing pixel of the effect object may be drawn without fail. Further, when drawing the effect object, the hidden surface removal process by the Z test may be performed with reference to only the Z value of the area where the moving object is drawn. That is, the drawing pixel of the effect object may be necessarily drawn in an area other than the area where the moving object is drawn.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2−1.概要
図2は本実施形態のゲーム画像の一例である。
2-1. Outline FIG. 2 is an example of a game image of the present embodiment.

本実施形態では、操作部からの操作入力により移動体オブジェクトMO(ゲームキャラクタである競走馬オブジェクト)をコースに沿って走行させるゲームを行うもので、移動体オブジェクトMOを含むオブジェクト空間を仮想カメラからみた画像が生成され、ゲーム画像GIとして表示される。   In the present embodiment, a game in which a moving object MO (a racehorse object that is a game character) runs along a course by an operation input from an operation unit is performed, and an object space including the moving object MO is viewed from a virtual camera. A viewed image is generated and displayed as a game image GI.

また本実施形態では、仮想カメラを移動体オブジェクトMOに追従して移動させ、図2に示すように、画面奥側(進行方向前方)から画面手前側に向かって残像を残しながら移動する複数のパーティクルPT(線パーティクル、矩形パーティクル、移動する線分)を描画することで、移動体MOや仮想カメラの速度感を演出している。また本実施形態では、移動体オブジェクトMOの速度に応じて描画するパーティクルPTの数を増減させるように制御している。   In the present embodiment, the virtual camera is moved following the moving object MO, and as shown in FIG. 2, a plurality of moving images are moved while leaving an afterimage from the back side of the screen (forward in the traveling direction) toward the front side of the screen. By drawing particles PT (line particles, rectangular particles, moving line segments), the moving body MO and the virtual camera are sensed of speed. In the present embodiment, control is performed so as to increase or decrease the number of particles PT to be drawn according to the speed of the moving object MO.

2−2.エフェクトオブジェクト
図3、図4は、本実施形態のエフェクトオブジェクトの一例について説明するための図である。図3は、本実施形態のエフェクトオブジェクトの斜視図である。
2-2. Effect Object FIGS. 3 and 4 are diagrams for explaining an example of the effect object of the present embodiment. FIG. 3 is a perspective view of the effect object of the present embodiment.

図3に示すエフェクトオブジェクトEOは、エフェクト座標系において定義され、エフェクト座標系の原点0を中心点とするXY平面上の半径rの円をパーティクルエミッタPE(パーティクル発生器)として、このパーティクルエミッタPEから発生してエフェクト座標系の+Z軸方向に所定の速度で残像を残しながら移動する複数のパーティクルPTによって構成される。すなわち図3に示すエフェクトオブジェクトEOは、半径rの仮想的な円柱の表面上を複数の線分が一方向に移動するエフェクトオブジェクトであるともいえる。なおパーティクルエミッタPEの形状を多角形としてもよい。その場合、仮想的な多角柱の表面上を複数の線分が一方向に移動するエフェクトオブジェクトとなる。   The effect object EO shown in FIG. 3 is defined in the effect coordinate system, and a circle having a radius r on the XY plane centered on the origin 0 of the effect coordinate system is defined as a particle emitter PE (particle generator). And a plurality of particles PT that move while leaving an afterimage at a predetermined speed in the + Z-axis direction of the effect coordinate system. That is, it can be said that the effect object EO shown in FIG. 3 is an effect object in which a plurality of line segments move in one direction on the surface of a virtual cylinder having a radius r. The shape of the particle emitter PE may be a polygon. In this case, an effect object in which a plurality of line segments move in one direction on the surface of the virtual polygonal column.

図4は、図3に示すエフェクトオブジェクトEOを定義するためのエフェクトパラメータを格納したエフェクトパラメータテーブルの一例について説明するための図である。   FIG. 4 is a diagram for explaining an example of an effect parameter table storing effect parameters for defining the effect object EO shown in FIG.

図4に示すエフェクトパラメータテーブル200には、パーティクルエミッタPEを定義するパラメータとして発生形状210、発生頻度220が格納され、発生させる各パーティクルPTを定義するパラメータとして寿命230、移動速度240、形状250、色260、ブレンドタイプ270が格納されている。図4に示すエフェクトパラメータテーブル200に基づき、残像を残しながら60m/秒で移動し1秒で消滅する矩形パーティクルを半径5mの円から毎秒70個発生させるエフェクトオブジェクトEOを定義することができる。なお各矩形パーティクルは、寿命230(1秒)と移動速度240(60m/秒)から、発生地点から60mの位置で消滅することになるが、発生直前と消滅直前に半透明時間が設定されているため、可視長(発生してから消滅するまでの目に見える矩形パーティクルの長さ)は50m程度となる。   In the effect parameter table 200 shown in FIG. 4, the generation shape 210 and the generation frequency 220 are stored as parameters for defining the particle emitter PE, and the life 230, the moving speed 240, the shape 250, the parameters for defining each particle PT to be generated are stored. A color 260 and a blend type 270 are stored. Based on the effect parameter table 200 shown in FIG. 4, it is possible to define an effect object EO that generates 70 rectangular particles per second from a circle with a radius of 5 m, moving at 60 m / second while leaving an afterimage and disappearing in 1 second. Each rectangular particle disappears at a position of 60 m from the generation point due to the life 230 (1 second) and the moving speed 240 (60 m / second), but a semi-transparent time is set immediately before and after the generation. Therefore, the visible length (the length of the visible rectangular particle from the occurrence to the disappearance) is about 50 m.

2−3.エフェクトオブジェクトの配置
次に図5〜図8を用いて、本実施形態のエフェクトオブジェクトを配置する手法について説明する。図5は、本実施形態の移動体オブジェクトと仮想カメラの動きについて説明するための図である。
2-3. Arrangement of Effect Objects Next, a method for arranging effect objects according to the present embodiment will be described with reference to FIGS. FIG. 5 is a diagram for explaining the movement of the moving object and the virtual camera of the present embodiment.

本実施形態では、移動体オブジェクトMOはコースCSの中央に設定されたパスCPに沿った方向に所定の速度で移動する。図5に示す例では、移動体オブジェクトMOはパスCP上を移動しているが、プレーヤによって移動体オブジェクトMOを右に寄せるコマンドが入力された場合には、移動体オブジェクトMOの移動方向MDを所定期間所定角度だけ右方向に回転させて移動体オブジェクトMOをコースCSの右側に寄せる制御を行い、プレーヤによって移動体オブジェクトMOを左に寄せるコマンドが入力された場合には、移動体オブジェクトMOの移動方向MDを所定期間所定角度だけ左方向に回転させて移動体オブジェクトMOをコースCSの左側に寄せる制御を行う。コースCSの右側又は左側に寄せられた移動体オブジェクトMOは、再度右又は左に寄せるコマンドが入力されるまで、パスCPと平行な方向に(パスCPと一定の距離を保って)所定の速度で移動する。   In the present embodiment, the moving object MO moves at a predetermined speed in a direction along the path CP set in the center of the course CS. In the example shown in FIG. 5, the moving object MO is moving on the path CP. However, when the player inputs a command for moving the moving object MO to the right, the moving direction MD of the moving object MO is changed. When the player inputs a command to move the mobile object MO to the left by rotating the mobile object MO to the right of the course CS by rotating it to the right by a predetermined angle for a predetermined period, The moving direction MD is rotated to the left by a predetermined angle for a predetermined period, and control is performed to bring the moving object MO to the left side of the course CS. The moving object MO moved to the right or left side of the course CS has a predetermined speed in a direction parallel to the path CP (with a certain distance from the path CP) until a command for moving to the right or left is input again. Move with.

またプレーヤによって移動体オブジェクトを加速させるコマンドが入力された場合には、移動体オブジェクトMOに所定期間所定の加速度を与えて移動体オブジェクトMOを加速させる制御を行う。このように移動体オブジェクトMOの移動を制御することで、プレーヤは簡単な操作で移動体オブジェクトMOをコースCS内において走行させることができ、例えば移動体オブジェクトがコースCSを逆走してしまうことを防止することができる。   When a command for accelerating the moving object is input by the player, control is performed to accelerate the moving object MO by applying a predetermined acceleration to the moving object MO for a predetermined period. By controlling the movement of the moving object MO in this way, the player can run the moving object MO in the course CS with a simple operation. For example, the moving object may run backward on the course CS. Can be prevented.

また仮想カメラVCは、移動体オブジェクトMOの進行方向後方に位置して移動体オブジェクトMOの移動に追従して移動する。そして移動体オブジェクトMOの位置に最も近いパスCP上の位置MP1(図5の例では移動体オブジェクトMOと同一の位置)から所定距離(30m)離れたパスCP上の位置が仮想カメラVCの注視点GPとなり、仮想カメラVCと注視点GPとを結んだ方向が仮想カメラVCのカメラ向きVDとなる。このように仮想カメラVCの向きを求めることで、移動体オブジェクトMOが今後移動するであろう方向に仮想カメラVCを向けることができ、コース形状に応じた適切なゲーム画像を生成することができる。   The virtual camera VC is located behind the moving object MO in the traveling direction and moves following the movement of the moving object MO. The position on the path CP that is a predetermined distance (30 m) away from the position MP1 on the path CP closest to the position of the moving object MO (the same position as the moving object MO in the example of FIG. 5) is the note of the virtual camera VC. The viewpoint GP is a direction in which the virtual camera VC and the gazing point GP are connected to each other, which is the camera direction VD of the virtual camera VC. By determining the orientation of the virtual camera VC in this way, the virtual camera VC can be directed in a direction in which the moving object MO will move in the future, and an appropriate game image corresponding to the course shape can be generated. .

図6は、本実施形態のエフェクトオブジェクトの配置について説明するための図である。   FIG. 6 is a diagram for explaining the arrangement of the effect objects of the present embodiment.

本実施形態のエフェクトオブジェクトEOの位置は、移動体オブジェクトMOの現在位置に基づき決定される。またエフェクトオブジェクトEOは、移動体オブジェクトMOを内包するように配置される。すなわち図6に示すように、移動体オブジェクトMOがエフェクトオブジェクトEOのZ軸上に位置するようにエフェクトオブジェクトEOが配置される。図6の例では、エフェクトオブジェクトEOのZ軸方向の長さを50mとすると、Z軸の原点0から35mのZ軸上の位置に移動体オブジェクトMOが位置するように配置している。   The position of the effect object EO of the present embodiment is determined based on the current position of the moving object MO. The effect object EO is arranged so as to include the moving object MO. That is, as shown in FIG. 6, the effect object EO is arranged so that the moving object MO is positioned on the Z axis of the effect object EO. In the example of FIG. 6, when the length of the effect object EO in the Z-axis direction is 50 m, the moving object MO is arranged at a position on the Z-axis that is 35 m from the origin of the Z-axis.

また図6に示す例では、エフェクトオブジェクトEOの向きを、コースCSの形状に基づき決定している。すなわち、移動体オブジェクトMOの位置に最も近いパスCP上の位置MP1におけるパスCPの向きをコース向きCDとして、コース向きCDとエフェクトオブジェクトEOのZ軸が平行となるように配置される。   In the example shown in FIG. 6, the direction of the effect object EO is determined based on the shape of the course CS. That is, the path CP at the position MP1 on the path CP closest to the position of the moving object MO is the course direction CD, and the course direction CD and the effect object EO are arranged so as to be parallel to each other.

また図3に示すように複数のパーティクルPTは、エフェクトオブジェクトEOの+Z軸方向に移動するように定義されているから、図6に示すようにエフェクトオブジェクトEOをそのZ軸の方向がコース向きCDと逆方向となるように配置することで、図2に示すように、ゲーム画像において、画面奥側から画面手前側に向かって移動する複数のパーティクルPTを表現することができる。すなわち移動体オブジェクトMOの進行方向とほぼ逆方向に移動する複数のパーティクルPTを表現することができる。   Also, as shown in FIG. 3, the plurality of particles PT are defined so as to move in the + Z-axis direction of the effect object EO. Therefore, as shown in FIG. As shown in FIG. 2, in the game image, a plurality of particles PT moving from the back side of the screen toward the front side of the screen can be expressed. That is, it is possible to represent a plurality of particles PT that move in a direction almost opposite to the traveling direction of the moving object MO.

図6に示す例では、コース向きCDとエフェクトオブジェクトEOのZ軸が平行となるようにエフェクトオブジェクトEOの向きを決定しているが、このようにするとエフェクトオブジェクトEOの向き(コース向きCD)とカメラ向きVDとのずれが大きいために見た目に違和感のある速度感演出となってしまう可能性がある。そこで図7に示すように、エフェクトオブジェクトEOの向きを、カメラ向きVDに合わせるようにしてもよい。   In the example shown in FIG. 6, the orientation of the effect object EO is determined so that the course orientation CD and the Z axis of the effect object EO are parallel to each other. However, in this case, the orientation of the effect object EO (course orientation CD) Since the deviation from the camera-facing VD is large, there is a possibility that it will be a sense of speed with a sense of discomfort. Therefore, as shown in FIG. 7, the orientation of the effect object EO may be matched with the camera orientation VD.

図7に示す例では、エフェクトオブジェクトEOの向きを、仮想カメラVCと注視点GPとを結ぶカメラ向きVDに基づき決定している。すなわちカメラ向きVDとエフェクトオブジェクトEOのZ軸が平行となるように、且つエフェクトオブジェクトEOの+Z軸方向がカメラ向きVDと逆方向となるように、エフェクトオブジェクトEOを配置している。   In the example shown in FIG. 7, the direction of the effect object EO is determined based on the camera direction VD connecting the virtual camera VC and the gazing point GP. That is, the effect object EO is arranged so that the camera direction VD and the Z axis of the effect object EO are parallel, and the + Z axis direction of the effect object EO is opposite to the camera direction VD.

なお、図8に示すように、移動体オブジェクトMOがコースCS中央のパスCP上に位置していない場合であっても、移動体オブジェクトMOの位置に最も近いパスCP上の位置MP1から所定距離離れたパスCP上の位置が仮想カメラVCの注視点GPとなり、仮想カメラVCと注視点GPとを結んだ方向がカメラ向きVDとなり、このカメラ向きVDに合せてエフェクトオブジェクトEOを配置している。   As shown in FIG. 8, even when the moving object MO is not located on the path CP in the center of the course CS, a predetermined distance from the position MP1 on the path CP closest to the position of the moving object MO. The position on the separated path CP is the gazing point GP of the virtual camera VC, the direction connecting the virtual camera VC and the gazing point GP is the camera direction VD, and the effect object EO is arranged in accordance with the camera direction VD. .

このようにエフェクトオブジェクトEOの向きをコース向きCDではなくカメラ向きVDに合せることで、移動体オブジェクトMOが今後移動するであろう方向から画面手前側(仮想カメラ側)に向けて複数のパーティクルが移動するゲーム画像を生成することができ、移動体オブジェクトMOの現在位置及びコース形状に応じた適切な速度感の演出を行うことができる。すなわち図7に示すように移動体オブジェクトMOが右カーブにさしかかっている場合には、移動体オブジェクトMOの移動方向右寄りから複数のパーティクルが飛んでくるゲーム画像が生成され、移動体オブジェクトMOが左カーブにさしかかっている場合には、移動体オブジェクトMOの移動方向左寄りから複数のパーティクルが飛んでくるゲーム画像が生成される。   Thus, by aligning the direction of the effect object EO not to the course direction CD but to the camera direction VD, a plurality of particles are directed from the direction in which the moving object MO will move in the future toward the front of the screen (the virtual camera side). A moving game image can be generated, and a suitable sense of speed can be produced according to the current position and course shape of the moving object MO. That is, as shown in FIG. 7, when the moving object MO is approaching the right curve, a game image in which a plurality of particles fly from the right side of the moving direction of the moving object MO is generated, and the moving object MO is moved to the left. When the curve is approaching, a game image in which a plurality of particles fly from the left side in the moving direction of the moving object MO is generated.

2−4.仮想カメラの制御
図9は、本実施形態の仮想カメラの制御について説明するための図である。
2-4. Control of Virtual Camera FIG. 9 is a diagram for describing control of the virtual camera of the present embodiment.

本実施形態では、仮想カメラVCは、通常移動体オブジェクトMOの移動に追従して移動し、コースCS中央のパスCP上の注視点GPを向くように制御されるが、プレーヤによって仮想カメラVCの向きを変えるコマンドが入力された場合には、図9に示すように、移動体オブジェクトMOを中心として弧を描くように仮想カメラVCを移動させる制御を行う。このとき仮想カメラVCは、移動体オブジェクトMOを向く方向をカメラ向きVDa(移動カメラ向き)として、入力された操作データに応じて所定の移動範囲MAを移動する。プレーヤは仮想カメラVCを移動体オブジェクトMOの側面に移動させることで、周囲の状況(例えば他の移動体オブジェクトとの位置関係等)を把握することができる。   In the present embodiment, the virtual camera VC moves following the movement of the normal moving object MO and is controlled so as to face the gazing point GP on the path CP in the center of the course CS. However, the virtual camera VC is controlled by the player. When a command to change the direction is input, as shown in FIG. 9, control is performed to move the virtual camera VC so as to draw an arc around the moving object MO. At this time, the virtual camera VC moves in a predetermined movement range MA according to the input operation data, with the direction facing the moving object MO as the camera direction VDa (moving camera direction). By moving the virtual camera VC to the side surface of the moving object MO, the player can grasp the surrounding situation (for example, the positional relationship with other moving objects).

図9に示すように、仮想カメラVCを移動体オブジェクトMOの側面に移動させた場合には、パスCP上の注視点GPは仮想カメラVCの視界から外れてしまうため、注視点GPから求められるカメラ向きVD(自動カメラ向き)に合せてエフェクトオブジェクトEOを配置することは適切ではない。そこで本実施形態では、このような場合には、コース向きCDを考慮してエフェクトオブジェクトEOの向きを決定している。   As shown in FIG. 9, when the virtual camera VC is moved to the side surface of the moving object MO, the gazing point GP on the path CP is out of the field of view of the virtual camera VC, and thus is obtained from the gazing point GP. It is not appropriate to arrange the effect object EO in accordance with the camera orientation VD (automatic camera orientation). Therefore, in this embodiment, in such a case, the orientation of the effect object EO is determined in consideration of the course orientation CD.

具体的には、自動カメラ向きVDと移動カメラ向きVDaとの内積を取ってfとして、自動カメラ向きVDとコース向きCDとを内積fを用いて合成した合成ベクトルSVを次式により求める。   Specifically, the inner product of the automatic camera direction VD and the moving camera direction VDa is taken as f, and a combined vector SV obtained by combining the automatic camera direction VD and the course direction CD using the inner product f is obtained by the following equation.

SV=(CD×(1−f))+(VD×f) (1)
そして、求めた合成ベクトルSVに合せてエフェクトオブジェクトEOを配置する。すなわち合成ベクトルSVとエフェクトオブジェクトEOのZ軸が平行となるように、エフェクトオブジェクトEOを配置する。
SV = (CD × (1−f)) + (VD × f) (1)
Then, the effect object EO is arranged in accordance with the obtained composite vector SV. That is, the effect object EO is arranged so that the composite vector SV and the Z axis of the effect object EO are parallel.

エフェクトオブジェクトEOの向きは、自動カメラ向きVDと移動カメラ向きVDaとのなす角度θが小さいほど自動カメラ向きVDに近い向きになり、角度θが大きいほどコース向きCDに近い向きになる。そして図10に示すように、自動カメラ向きVDと移動カメラ向きVDaとのなす角度θが90°になると内積fが0となるから、式(1)より合成ベクトルSVはコース向きCDと等しくなり、エフェクトオブジェクトEOはコース向きCDに合せて配置される。なお角度θが90°を超える場合(仮想カメラVCを移動体オブジェクトMOの前方に回り込ませた場合)には内積fは0以下となるが、この場合には内積fを0として合成ベクトルSVを求める。   The direction of the effect object EO is closer to the automatic camera direction VD as the angle θ between the automatic camera direction VD and the moving camera direction VDa is smaller, and closer to the course direction CD as the angle θ is larger. As shown in FIG. 10, since the inner product f becomes 0 when the angle θ formed by the automatic camera direction VD and the moving camera direction VDa is 90 °, the combined vector SV becomes equal to the course direction CD from the equation (1). The effect object EO is arranged in accordance with the course-oriented CD. When the angle θ exceeds 90 ° (when the virtual camera VC is moved in front of the moving object MO), the inner product f is 0 or less, but in this case, the inner product f is set to 0 and the combined vector SV is set to 0. Ask.

図11は、図9、図10に示すように仮想カメラVCを移動体オブジェクトMOの左側面に移動させた場合に生成されるゲーム画像の一例である。   FIG. 11 is an example of a game image generated when the virtual camera VC is moved to the left side surface of the moving object MO as shown in FIGS. 9 and 10.

図11に示すゲーム画像GIでは、画面左側(移動体オブジェクトMOの進行方向前方)から画面右側に向かって複数のパーティクルPTが残像を残しながら移動している。これにより画面右側から画面左側に移動する移動体オブジェクトMOの速度感を演出することができる。   In the game image GI shown in FIG. 11, a plurality of particles PT move from the left side of the screen (front of the moving object MO in the traveling direction) toward the right side of the screen while leaving an afterimage. Thereby, it is possible to produce a sense of speed of the moving object MO that moves from the right side of the screen to the left side of the screen.

このように本実施形態によれば、円から発生し一方向に移動する複数のパーティクルPTによって構成されるエフェクトオブジェクトEOを移動体オブジェクトMOの位置に基づきオブジェクト空間に配置することにより、仮想カメラVCが移動体オブジェクトMOの後方に位置する場合(図2参照)であっても、移動体オブジェクトMOの側面に位置する場合(図11参照)であっても常に適切な速度感の演出を行うことができる。   As described above, according to the present embodiment, the virtual camera VC is arranged by arranging the effect object EO composed of the plurality of particles PT generated from the circle and moving in one direction in the object space based on the position of the moving object MO. Even if it is located behind the moving object MO (see FIG. 2) or even if it is located on the side surface of the moving object MO (see FIG. 11), it is always possible to produce an appropriate sense of speed. Can do.

3.本実施形態の処理
次に、本実施形態の処理の一例について図12のフローチャートを用いて説明する。
3. Processing of this Embodiment Next, an example of processing of this embodiment will be described using the flowchart of FIG.

まず、操作データやプログラムに基づいて、コースに沿って移動する移動体オブジェクトの位置、方向を求める(ステップS10)。   First, based on operation data and a program, the position and direction of the moving body object which moves along a course are calculated | required (step S10).

次に、移動体オブジェクトの位置、コースに設定されたパスの情報に基づいて、移動体オブジェクトの移動に追従する仮想カメラの位置、方向(注視点)を求める(ステップS12)。   Next, the position and direction (gaze point) of the virtual camera that follows the movement of the moving object are obtained based on the position of the moving object and the path information set in the course (step S12).

次に、移動体オブジェクトの速度に基づいてエフェクトオブジェクトのパーティクルの発生個数を求める(ステップS14)。例えば図4に示すエフェクトパラメータテーブル200に格納された発生頻度パラメータ220を参照して、当該パラメータに移動速度に応じた係数(0.0〜2.0)を掛け合わせてパーティクルの単位時間当たりの発生個数を求め、移動体オブジェクトの速度が大きくなるほど多くのパーティクルを発生させるようにする。   Next, the number of generated particles of the effect object is obtained based on the speed of the moving object (step S14). For example, referring to the occurrence frequency parameter 220 stored in the effect parameter table 200 shown in FIG. 4, the parameter is multiplied by a coefficient (0.0 to 2.0) corresponding to the moving speed, and the particle per unit time. The number of occurrences is obtained, and more particles are generated as the speed of the moving object increases.

次に、エフェクト座標系において定義されたエフェクトオブジェクトをオブジェクト空間(ワールド座標系)に配置する処理を行う(ステップS16)。例えば移動体オブジェクトの位置に基づきエフェクトオブジェクトの位置を求め、仮想カメラの注視点に基づきエフェクトオブジェクトの方向を求める。   Next, a process of placing the effect object defined in the effect coordinate system in the object space (world coordinate system) is performed (step S16). For example, the position of the effect object is obtained based on the position of the moving object, and the direction of the effect object is obtained based on the gazing point of the virtual camera.

そして仮想カメラから見える画像を生成する処理を行う(ステップS18)。なおエフェクトオブジェクトの描画ピクセルについてはZテスト判定を行わずに常に描画されるように処理を行ってもよい。これにより、コースの幅が狭い場合や障害物がある場合であっても速度感を演出するためのエフェクトオブジェクトを常に描画することができる。   And the process which produces | generates the image seen from a virtual camera is performed (step S18). Note that processing may be performed so that the drawing pixels of the effect object are always drawn without performing the Z test determination. Thereby, even when the course is narrow or there are obstacles, it is possible to always draw an effect object for producing a sense of speed.

4.変形例
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
4). Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

例えば本実施形態では、円柱の表面上を複数の線分が一方向に移動するエフェクトオブジェクトを、円から発生し一方向に移動する複数のパーティクルによって構成する場合について説明したが、図13に示すように、エフェクトオブジェクトEOを円柱のオブジェクトにより構成し、当該オブジェクトの側面に互いに平行な複数の線分LNが表されたテクスチャTXをマッピングするようにしてもよい。そしてテクスチャ座標を変化させてテクスチャTXをオブジェクトの+Z軸方向にスクロールさせることにより、複数の線分LNを+Z軸方向に移動させるようにしてもよい。また線分LNの数が異なる複数のテクスチャを用意しておき、移動体オブジェクトの速度に応じてマッピングするテクスチャを変化させるようにしてもよい。また図13に示す例において、円柱のオブジェクトに代えて多角柱のオブジェクトを用いてもよい。   For example, in the present embodiment, a case has been described in which an effect object in which a plurality of line segments move in one direction on the surface of a cylinder is configured by a plurality of particles that are generated from a circle and move in one direction. As described above, the effect object EO may be constituted by a cylindrical object, and the texture TX in which a plurality of line segments LN parallel to each other is represented on the side surface of the object may be mapped. The plurality of line segments LN may be moved in the + Z-axis direction by changing the texture coordinates and scrolling the texture TX in the + Z-axis direction of the object. A plurality of textures having different numbers of line segments LN may be prepared, and the texture to be mapped may be changed according to the speed of the moving object. In the example shown in FIG. 13, a polygonal column object may be used instead of the columnar object.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 本実施形態のゲーム画像の一例。An example of the game image of this embodiment. 本実施形態のエフェクトオブジェクトの斜視図。The perspective view of the effect object of this embodiment. 本実施形態のエフェクトパラメータテーブルの一例。An example of the effect parameter table of this embodiment. 本実施形態の移動体オブジェクトと仮想カメラの動きについて説明するための図。The figure for demonstrating the motion of the mobile body object of this embodiment, and a virtual camera. 本実施形態のエフェクトオブジェクトの配置について説明するための図。The figure for demonstrating arrangement | positioning of the effect object of this embodiment. 本実施形態のエフェクトオブジェクトの配置について説明するための図。The figure for demonstrating arrangement | positioning of the effect object of this embodiment. 本実施形態のエフェクトオブジェクトの配置について説明するための図。The figure for demonstrating arrangement | positioning of the effect object of this embodiment. 本実施形態の仮想カメラの制御について説明するための図。The figure for demonstrating control of the virtual camera of this embodiment. 本実施形態の仮想カメラの制御について説明するための図。The figure for demonstrating control of the virtual camera of this embodiment. 本実施形態のゲーム画像の一例。An example of the game image of this embodiment. 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment. 本実施形態のエフェクトオブジェクトの変形例。The modification of the effect object of this embodiment.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、114 仮想カメラ制御部、116 エフェクト制御部、120 描画部、130 音生成部、160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部 100 processing unit, 110 object space setting unit, 112 movement / motion processing unit, 114 virtual camera control unit, 116 effect control unit, 120 drawing unit, 130 sound generation unit, 160 operation unit, 170 storage unit, 180 information storage medium, 190 Display unit, 192 Sound output unit, 196 Communication unit

Claims (11)

オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
円柱又は多角柱の表面上を複数の線分が一方向に移動するエフェクトオブジェクトを記憶する記憶部と、
オブジェクト空間に配置された移動体オブジェクトの移動を制御する移動制御部と、
仮想カメラを前記移動体オブジェクトの移動に追従させる制御を行う仮想カメラ制御部と、
前記移動体オブジェクトの位置に基づいて、前記エフェクトオブジェクトをオブジェクト空間に配置するオブジェクト空間設定部としてコンピュータを機能させることを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
A storage unit for storing an effect object in which a plurality of line segments move in one direction on the surface of a cylinder or a polygonal column;
A movement control unit for controlling movement of a moving object placed in the object space;
A virtual camera control unit for controlling the virtual camera to follow the movement of the moving object;
A program that causes a computer to function as an object space setting unit that arranges the effect object in an object space based on the position of the moving object.
請求項1において、
前記移動体オブジェクトの速度に基づいて、前記エフェクトオブジェクトの線分の数を増減させるエフェクト制御部としてコンピュータを更に機能させることを特徴とするプログラム。
In claim 1,
A program that further causes a computer to function as an effect control unit that increases or decreases the number of line segments of the effect object based on the speed of the moving object.
オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
円から発生し一方向に移動する複数のパーティクルによって構成されるエフェクトオブジェクトを記憶する記憶部と、
オブジェクト空間に配置された移動体オブジェクトの移動を制御する移動制御部と、
仮想カメラを前記移動体オブジェクトの移動に追従させる制御を行う仮想カメラ制御部と、
前記移動体オブジェクトの位置に基づいて、前記エフェクトオブジェクトをオブジェクト空間に配置するオブジェクト空間設定部としてコンピュータを機能させることを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
A storage unit for storing an effect object composed of a plurality of particles generated from a circle and moving in one direction;
A movement control unit for controlling movement of a moving object placed in the object space;
A virtual camera control unit for controlling the virtual camera to follow the movement of the moving object;
A program that causes a computer to function as an object space setting unit that arranges the effect object in an object space based on the position of the moving object.
請求項3において、
前記移動体オブジェクトの速度に基づいて、前記エフェクトオブジェクトのパーティクの発生個数を増減させるエフェクト制御部としてコンピュータを更に機能させることを特徴とするプログラム。
In claim 3,
A program that further causes a computer to function as an effect control unit that increases or decreases the number of occurrences of partying of the effect object based on the speed of the moving object.
請求項1乃至4のいずれかにおいて、
前記オブジェクト空間設定部は、
前記エフェクトオブジェクトが前記移動体オブジェクトを内包するように、前記エフェクトオブジェクトを配置することを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The object space setting unit
A program characterized in that the effect object is arranged so that the effect object includes the moving object.
請求項1乃至5のいずれかにおいて、
前記移動制御部は、
前記移動体オブジェクトをコースに沿って移動させる制御を行い、
前記オブジェクト空間設定部は、
前記移動体オブジェクトの位置及びコースの形状の少なくとも一方に基づいて、前記エフェクトオブジェクトを配置することを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The movement control unit
Control to move the moving object along the course,
The object space setting unit
A program characterized in that the effect object is arranged based on at least one of a position of the moving object and a shape of a course.
請求項6において、
前記オブジェクト空間設定部は、
前記移動体オブジェクトの位置とコースに沿って設定されたパスとに基づき前記仮想カメラの注視点を求め、求めた注視点に基づき前記エフェクトオブジェクトを配置することを特徴とするプログラム。
In claim 6,
The object space setting unit
A program characterized in that a gazing point of the virtual camera is obtained based on the position of the moving object and a path set along a course, and the effect object is arranged based on the obtained gazing point.
請求項1乃至7のいずれかにおいて、
前記仮想カメラ制御部は、
操作部からの操作データに基づいて、前記仮想カメラが前記移動体オブジェクトの周囲を移動するように制御することを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The virtual camera control unit
A program for controlling the virtual camera to move around the moving object based on operation data from an operation unit.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至8のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 8 is stored. オブジェクト空間における仮想カメラから見える画像を生成するための画像生成システムであって、
円柱又は多角柱の表面上を複数の線分が一方向に移動するエフェクトオブジェクトを記憶する記憶部と、
オブジェクト空間に配置された移動体オブジェクトの移動を制御する移動制御部と、
仮想カメラを前記移動体オブジェクトの移動に追従させる制御を行う仮想カメラ制御部と、
前記移動体オブジェクトの位置に基づいて、前記エフェクトオブジェクトをオブジェクト空間に配置するオブジェクト空間設定部とを含むことを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
A storage unit for storing an effect object in which a plurality of line segments move in one direction on the surface of a cylinder or a polygonal column;
A movement control unit for controlling movement of a moving object placed in the object space;
A virtual camera control unit for controlling the virtual camera to follow the movement of the moving object;
An image generation system comprising: an object space setting unit that arranges the effect object in an object space based on the position of the moving object.
オブジェクト空間における仮想カメラから見える画像を生成するための画像生成システムであって、
円から発生し一方向に移動する複数のパーティクルによって構成されるエフェクトオブジェクトを記憶する記憶部と、
オブジェクト空間に配置された移動体オブジェクトの移動を制御する移動制御部と、
仮想カメラを前記移動体オブジェクトの移動に追従させる制御を行う仮想カメラ制御部と、
前記移動体オブジェクトの位置に基づいて、前記エフェクトオブジェクトをオブジェクト空間に配置するオブジェクト空間設定部とを含むことを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
A storage unit for storing an effect object composed of a plurality of particles generated from a circle and moving in one direction;
A movement control unit for controlling movement of a moving object placed in the object space;
A virtual camera control unit for controlling the virtual camera to follow the movement of the moving object;
An image generation system comprising: an object space setting unit that arranges the effect object in an object space based on the position of the moving object.
JP2008003580A 2008-01-10 2008-01-10 Program, information storage medium, and image generation system Withdrawn JP2009169471A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008003580A JP2009169471A (en) 2008-01-10 2008-01-10 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008003580A JP2009169471A (en) 2008-01-10 2008-01-10 Program, information storage medium, and image generation system

Publications (1)

Publication Number Publication Date
JP2009169471A true JP2009169471A (en) 2009-07-30

Family

ID=40970605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008003580A Withdrawn JP2009169471A (en) 2008-01-10 2008-01-10 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP2009169471A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011096018A (en) * 2009-10-29 2011-05-12 Namco Bandai Games Inc Program, information storage medium, terminal, and network system
JP6446150B1 (en) * 2018-03-29 2018-12-26 株式会社コロプラ Program, information processing apparatus, and method
JP2022516029A (en) * 2018-12-19 2022-02-24 アニペン カンパニー リミテッド How to generate animation sequences, systems and non-transient computer-readable recording media
WO2023021592A1 (en) * 2021-08-18 2023-02-23 株式会社ハシラス Vr amusement program and device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011096018A (en) * 2009-10-29 2011-05-12 Namco Bandai Games Inc Program, information storage medium, terminal, and network system
JP6446150B1 (en) * 2018-03-29 2018-12-26 株式会社コロプラ Program, information processing apparatus, and method
JP2019175362A (en) * 2018-03-29 2019-10-10 株式会社コロプラ Program, information processing device, and method
JP2022516029A (en) * 2018-12-19 2022-02-24 アニペン カンパニー リミテッド How to generate animation sequences, systems and non-transient computer-readable recording media
US11645802B2 (en) 2018-12-19 2023-05-09 Anipen Co., Ltd. Method, system, and non-transitory computer-readable recording medium for generating animation sequence
WO2023021592A1 (en) * 2021-08-18 2023-02-23 株式会社ハシラス Vr amusement program and device

Similar Documents

Publication Publication Date Title
US20090244064A1 (en) Program, information storage medium, and image generation system
JP2010033298A (en) Program, information storage medium, and image generation system
JP4717622B2 (en) Program, information recording medium, and image generation system
JP4728721B2 (en) Program, information storage medium, and image generation system
JP2006195882A (en) Program, information storage medium and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2011053737A (en) Program, information storage medium and image generation device
JP2009169471A (en) Program, information storage medium, and image generation system
JP4868586B2 (en) Image generation system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4754384B2 (en) Program, information recording medium, and image generation system
JP2006323512A (en) Image generation system, program, and information storage medium
JP2009075739A (en) Program, information storage medium and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2010033299A (en) Image generation system, program and information storage medium
JP2010134671A (en) Image generating system, program and information storage medium
JP2010033288A (en) Image generation system, program and information storage medium
JP2010033253A (en) Program, information storage medium, and image generation system
JP2009140370A (en) Program, information storage medium, and image generation system
JP2010033295A (en) Image generation system, program and information storage medium
JP2010231364A (en) Image generation system, program and information recording medium
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110405