JP2009140370A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2009140370A
JP2009140370A JP2007317731A JP2007317731A JP2009140370A JP 2009140370 A JP2009140370 A JP 2009140370A JP 2007317731 A JP2007317731 A JP 2007317731A JP 2007317731 A JP2007317731 A JP 2007317731A JP 2009140370 A JP2009140370 A JP 2009140370A
Authority
JP
Japan
Prior art keywords
model
virtual camera
effect
concentrated line
object space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007317731A
Other languages
Japanese (ja)
Inventor
Kenji Saito
健司 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2007317731A priority Critical patent/JP2009140370A/en
Publication of JP2009140370A publication Critical patent/JP2009140370A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program and an image generation system for achieving a sense of high speed of a virtual camera and rendering effects to attract notice to an object while reducing a processing burden of the system, and an information storage medium thereof. <P>SOLUTION: Drawing processing is performed by using a concentration line model to which modelling is applied in advance. In such a case, the concentration line model is subjected to scaling processing and rotation processing, and the arrangement in an object space is performed in response to a position and a direction of the virtual camera. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体、画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来から、複数のポリゴンが設定されるオブジェクト空間(仮想的な3次元空間)内において、仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。   Conventionally, an image generation system (game system) that generates an image viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which a plurality of polygons are set is known. It is very popular for experiencing so-called virtual reality.

このような画像生成システムでは、ノイズ等を演出処理(例えば、特許文献1)、仮想カメラのスピード等を演出する処理を行っている(例えば、特許文献2)。
特開2007−82628号公報 特開2002−170131号公報
In such an image generation system, noise or the like is performed (for example, Patent Document 1), and a process for rendering the speed of a virtual camera or the like is performed (for example, Patent Document 2).
JP 2007-82628 A JP 2002-170131 A

また、スピード感や、オブジェクトに対する注目度、迫力を高めるために画面の端から画面の中心点(焦点)に向かう集中線を、複数のポリゴンを用いて描画し、プレーヤを惹きつける演出効果を施す処理、いわゆる集中線エフェクトの描画手法がある。しかし、この描画処理は、処理負荷が重いという難点があった。特に、自然な演出効果を実現することを考慮すると、複数のポリゴンそれぞれの形状を変化させる必要があるが、ポリゴンそれぞれの形状を変化させるための頂点演算処理は、演算数が多く処理負荷が重くなることが問題となっていた。   In addition, in order to increase the sense of speed, the degree of attention to the object, and the force, a concentration line from the edge of the screen to the center point (focus) of the screen is drawn using a plurality of polygons, and an effect of attracting the player is given. There is a processing, so-called concentrated line effect drawing technique. However, this drawing process has a drawback that the processing load is heavy. In particular, considering the realization of natural effects, it is necessary to change the shape of each of a plurality of polygons. However, the vertex calculation processing for changing the shape of each polygon has a large number of operations and a heavy processing load. It became a problem.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、システムの処理負荷を軽減させて、仮想カメラのスピード感、特定のオブジェクト(例えばプレーヤキャラクタ等)に注目させるための演出効果を実現できるプログラム、情報記憶媒体、及び画像生成システムを提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to reduce the processing load of the system and to provide a sense of speed of a virtual camera and a specific object (for example, a player character). An object of the present invention is to provide a program, an information storage medium, and an image generation system capable of realizing a production effect for attention.

(1)本発明は、
オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
複数のエフェクトオブジェクトによって構成される3次元のエフェクトモデルを記憶する記憶部と、
オブジェクト空間に、仮想カメラの位置・向きに応じて、前記エフェクトモデルを設定するオブジェクト空間設定部として、コンピュータを機能させ、
前記エフェクトモデルは、前記複数のエフェクトオブジェクトを所定軸周りに配置したモデルであって、
前記オブジェクト空間設定部が、
前記エフェクトモデルの前記所定軸側が仮想カメラから見える位置に、前記エフェクトモデルを設定することを特徴とするプログラムに関する。
(1) The present invention
A program for generating an image visible from a virtual camera in an object space,
A storage unit for storing a three-dimensional effect model composed of a plurality of effect objects;
In the object space, the computer functions as an object space setting unit that sets the effect model according to the position / orientation of the virtual camera.
The effect model is a model in which the plurality of effect objects are arranged around a predetermined axis,
The object space setting unit
The present invention relates to a program for setting the effect model at a position where the predetermined axis side of the effect model can be seen from a virtual camera.

また、本発明は、上記プログラムを記憶した情報記憶媒体、上記各部として構成する画像生成システムに関係する。   The present invention also relates to an information storage medium storing the program and an image generation system configured as each unit.

本発明によれば、エフェクトモデルを用いて描画することによって、処理負荷を軽減させて簡易にスピード感や迫力感を与える集中線の演出を行うことができる。
(2)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記エフェクトモデルを構成する前記複数のエフェクトオブジェクトそれぞれが、
前記所定軸方向の長さ成分を有していてもよい。
According to the present invention, by drawing using an effect model, it is possible to reduce the processing load and easily produce a concentrated line that gives a sense of speed and a powerful feeling.
(2) The program, information storage medium, and image generation system of the present invention are:
Each of the plurality of effect objects constituting the effect model is
It may have a length component in the predetermined axial direction.

本発明によれば、長さのある集中線を表現することができる。
(3)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記エフェクトモデルを構成する前記複数のエフェクトオブジェクトそれぞれの形状が、三角形であって、
前記エフェクトモデルが、
前記複数の三角形エフェクトオブジェクトそれぞれの一の稜線を連結して形成されてもよい。
According to the present invention, a long concentrated line can be expressed.
(3) The program, information storage medium, and image generation system of the present invention are:
The shape of each of the plurality of effect objects constituting the effect model is a triangle,
The effect model is
One ridge line of each of the plurality of triangle effect objects may be connected.

本発明によれば、とげ状の集中線を表現することができ、より迫力感やスピード感の感じられる演出効果を実現できる。   According to the present invention, it is possible to express a thorn-shaped concentration line, and it is possible to realize a production effect that gives a sense of power and a sense of speed.

(4)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記エフェクトモデルを構成する前記複数のエフェクトオブジェクトそれぞれの形状が三角形であって、
前記エフェクトモデルは、
前記複数の三角形エフェクトオブジェクトそれぞれの面が、前記所定軸を取り囲む仮想的な筒の側面に沿うと共に、前記複数の三角形エフェクトオブジェクトそれぞれの一の稜線を、前記仮想的な筒の底面の外周に沿って配置されていてもよい。
(4) Further, the program, information storage medium, and image generation system of the present invention include:
The shape of each of the plurality of effect objects constituting the effect model is a triangle,
The effect model is
Each surface of the plurality of triangular effect objects is along the side surface of the virtual cylinder surrounding the predetermined axis, and one ridge line of each of the plurality of triangular effect objects is along the outer periphery of the bottom surface of the virtual cylinder. May be arranged.

本発明によれば、自然な集中線が施された画像を生成することができる。   According to the present invention, it is possible to generate an image with a natural concentration line.

(5)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記オブジェクト空間設定部が、
仮想カメラの向きと前記所定軸とに基づいて、前記エフェクトモデルを配置してもよい。
(5) Further, the program, information storage medium, and image generation system of the present invention include:
The object space setting unit
The effect model may be arranged based on the orientation of the virtual camera and the predetermined axis.

本発明によれば、仮想カメラの向きに応じた適切な位置にエフェクトモデルを配置させることができ、より自然な集中線を表現することができる。   According to the present invention, the effect model can be arranged at an appropriate position according to the orientation of the virtual camera, and a more natural concentration line can be expressed.

(6)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記オブジェクト空間設定部が、
仮想カメラの視線と前記所定軸とに基づいて、前記エフェクトモデルを配置してもよい。
(6) The program, information storage medium, and image generation system of the present invention include
The object space setting unit
The effect model may be arranged based on the line of sight of the virtual camera and the predetermined axis.

本発明によれば、カメラの視線に応じた適切な位置にエフェクトモデルを配置させることができ、さらに自然な集中線を表現することができる。   According to the present invention, the effect model can be arranged at an appropriate position according to the line of sight of the camera, and a natural concentrated line can be expressed.

(7)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記オブジェクト空間設定部が、
仮想カメラの視線上に前記所定軸を一致させて前記エフェクトモデルを配置してもよい。
(7) Further, the program, information storage medium, and image generation system of the present invention include
The object space setting unit
The effect model may be arranged so that the predetermined axis coincides with the line of sight of the virtual camera.

本発明によれば、複数の集中線が種々の方向から焦点に向かう自然な画像を表現することができる。   According to the present invention, it is possible to express a natural image in which a plurality of concentrated lines are directed from various directions to a focal point.

(8)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記エフェクトモデルを、前記所定軸方向、及び、前記所定軸に垂直であって、直交する2軸方向の少なくとも一方の軸方向に対して、スケーリングするスケーリング制御部として、コンピュータを更に機能させるようにしてもよい。
(8) Further, the program, information storage medium, and image generation system of the present invention include:
The computer is further caused to function as a scaling controller that scales the effect model with respect to the predetermined axis direction and at least one of the two axis directions perpendicular to and perpendicular to the predetermined axis. May be.

本発明によれば、処理負荷を軽減させ記憶容量を節約しながら集中の度合いの異なるバリエーションのある集中線の演出を行うことができる。   According to the present invention, it is possible to produce concentrated lines with variations of different degrees of concentration while reducing the processing load and saving the storage capacity.

(9)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記スケーリング制御部が、
仮想カメラの移動速度に基づいて、スケーリングの倍率を求め、求めた倍率に基づいて、前記エフェクトモデルを前記所定軸方向にスケーリングしてもよい。
(9) The program, information storage medium, and image generation system of the present invention are:
The scaling control unit
A scaling factor may be obtained based on the moving speed of the virtual camera, and the effect model may be scaled in the predetermined axis direction based on the obtained magnification.

本発明によれば、仮想カメラの移動速度に応じたスピード感を与える集中線の演出を行うことができる。   According to the present invention, it is possible to produce a concentrated line that gives a sense of speed according to the moving speed of the virtual camera.

(10)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記スケーリング制御部が、
仮想カメラと前記エフェクトモデルの配置関係、及び、仮想カメラの画角とに基づいてスケーリングの倍率を求め、求めた倍率に基づいて、前記所定軸に垂直であって、直交する2軸方向の少なくとも一方の軸方向に対してスケーリングするようにしてもよい。
(10) The program, information storage medium, and image generation system of the present invention are:
The scaling control unit
A scaling magnification is obtained based on the arrangement relationship between the virtual camera and the effect model, and the angle of view of the virtual camera, and based on the obtained magnification, at least in a biaxial direction perpendicular to the predetermined axis and perpendicular to the predetermined axis. You may make it scale with respect to one axial direction.

本発明によれば、より自然な、仮想カメラのスピード感、オブジェクトに注目させるための演出効果を実現できる。例えば、画面の端から画面の一点に収束する集中線を表現することができる。   According to the present invention, it is possible to realize more natural effects of virtual camera speed and effects for making an object notice. For example, a concentrated line that converges from one edge of the screen to one point on the screen can be expressed.

(11)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記オブジェクト空間設定部が、
前記所定軸に対して回転させた前記エフェクトモデルを、オブジェクト空間に設定するようにしてもよい。
(11) The program, information storage medium, and image generation system of the present invention are:
The object space setting unit
The effect model rotated with respect to the predetermined axis may be set in the object space.

本発明によれば、1つのエフェクトモデルを用いて集中線のパターンが変化している様子を表現することができる。つまり、本発明によれば従来よりも処理負荷を軽減して集中線が変化する様子を表現することができる。   According to the present invention, it is possible to express a change in the concentration line pattern using one effect model. That is, according to the present invention, it is possible to express a state in which the concentration line changes while reducing the processing load as compared with the related art.

(12)また、本発明のプログラム、情報記憶媒体、画像生成システムは、
前記オブジェクト空間設定部が、
前記所定軸に垂直であって、直交する2軸の少なくとも一方の軸に対して回転させた前記エフェクトモデルを、オブジェクト空間に設定してもよい。
(12) Further, the program, information storage medium, and image generation system of the present invention include:
The object space setting unit
The effect model that is rotated with respect to at least one of two axes perpendicular to and perpendicular to the predetermined axis may be set in the object space.

本発明によれば、集中線の焦点が変化する様子を表現することができる。つまり、本発明によれば、従来よりも処理負荷を軽減して集中線の焦点が変化する様子を表現することができる。   According to the present invention, it is possible to express a state in which the focus of a concentrated line changes. That is, according to the present invention, it is possible to express a state in which the focus of the concentrated line is changed by reducing the processing load as compared with the conventional case.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤがオブジェクト(プレーヤキャラクタ、移動体)の操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data of an object (player character, moving object), and its function can be realized by a lever, a button, a steering, a microphone, a touch panel type display, or a casing.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

なお、オブジェクトデータ記憶部176は、オブジェクトのオブジェクトデータが記憶される。例えば、エフェクトモデル(集中線モデル等)のデータ(エフェクトオブジェクト、ポリゴン)を記憶する。   The object data storage unit 176 stores object data of objects. For example, the data (effect object, polygon) of the effect model (concentrated line model etc.) is stored.

ここでエフェクトモデルとは、複数のエフェクトオブジェクトによって構成される3次元形状のモデルである。つまり、エフェクトモデルは、複数のエフェクトオブジェクトを所定軸周りに配置したモデルである。ここで、エフェクトモデルを構成する複数のエフェクトオブジェクトそれぞれの形状は、三角形としてもよいし、線ポリゴン(ライン)、四角形等の多角形であってもよい。   Here, the effect model is a three-dimensional model composed of a plurality of effect objects. That is, the effect model is a model in which a plurality of effect objects are arranged around a predetermined axis. Here, the shape of each of the plurality of effect objects constituting the effect model may be a triangle, or may be a polygon such as a line polygon (line) or a rectangle.

また、本実施形態のエフェクトモデルを構成する複数のエフェクトオブジェクトそれぞれが、所定軸方向の長さ成分を有している。例えば、所定軸とは、例えばエフェクトモデルが定義されるモデリング座標系のz軸である。エフェクトモデルを構成する複数のエフェクトオブジェクトは、所定軸方向への長さ成分を有し、図3(A)〜(D)に示すように、複数の三角形エフェクトオブジェクト(三角形ポリゴン)それぞれの一の稜線を連結して形成されている。つまり、エフェクトモデルは、複数の三角形エフェクトオブジェクトそれぞれを、所定軸(z軸)を取り囲む仮想的な筒(柱でもよい)の底面の外周及び側面に沿って配置されて形成されるモデルである。   In addition, each of the plurality of effect objects constituting the effect model of the present embodiment has a length component in the predetermined axis direction. For example, the predetermined axis is, for example, the z axis of a modeling coordinate system in which an effect model is defined. The plurality of effect objects constituting the effect model have a length component in a predetermined axial direction, and each of the plurality of triangle effect objects (triangle polygons) has a length component as shown in FIGS. It is formed by connecting ridge lines. That is, the effect model is a model formed by arranging each of the plurality of triangular effect objects along the outer periphery and the side surface of the virtual cylinder (which may be a column) surrounding the predetermined axis (z axis).

より具体的には、エフェクトモデルは、x、y、z軸のモデリング座標系において、二等辺三角形のポリゴンが、原点0を中心に半径rの円を内包する多角形の各辺と連結しており、z負方向に対しての長さが不規則に(不均一に)形成されたモデルである。   More specifically, the effect model is obtained by connecting an isosceles triangular polygon to each side of a polygon including a circle with a radius r centered at the origin 0 in the x, y, and z axis modeling coordinate system. In this model, the length in the z negative direction is irregularly (non-uniformly) formed.

なお、操作部160は、加速度センサや撮像部、或いは角速度を検出するジャイロセンサを備えた入力機器によってプレーヤからの入力データ(操作データ)を入力できるものでもよい。例えば、入力装置は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力装置には、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られたコントローラも含まれる。また入力装置には、入力装置と一体化されているゲーム装置、携帯型ゲーム装置、携帯電話なども含まれる。   Note that the operation unit 160 may be one that can input input data (operation data) from a player by an input device that includes an acceleration sensor, an imaging unit, or a gyro sensor that detects angular velocity. For example, the input device may be one that the player holds and moves, or that the player wears and moves. The input device also includes a controller simulating an actual tool such as a sword-type controller or gun-type controller held by the player, or a glove-type controller worn by the player (attached to the hand of the player). It is. The input device includes a game device integrated with the input device, a portable game device, a mobile phone, and the like.

例えば、入力機器に備えられた加速度センサは、3軸(X軸、Y軸、Z軸)の加速度を検出する。すなわち、加速度センサは、上下方向、左右方向、及び、前後方向の加速度を検出することができる。なお、加速度センサは、5msec毎に加速度を検出している。また、加速度センサは、1軸、2軸、6軸の加速度を検出するものであってもよい。なお、加速度センサから検出された加速度は、入力機器の通信部によってゲーム装置(本体装置)に送信される。   For example, an acceleration sensor provided in an input device detects acceleration in three axes (X axis, Y axis, and Z axis). That is, the acceleration sensor can detect acceleration in the vertical direction, the horizontal direction, and the front-rear direction. The acceleration sensor detects acceleration every 5 msec. Further, the acceleration sensor may detect a uniaxial, biaxial, or six-axis acceleration. The acceleration detected from the acceleration sensor is transmitted to the game device (main device) by the communication unit of the input device.

また、入力機器に備えられた撮像部は、赤外線フィルタ、レンズ、撮像素子(イメージセンサ)、画像処理回路を含む。赤外線フィルタは、入力装置の前方に配置され、表示部190に関連付けられて配置されている光源から入射する光から赤外線のみを通過させる。レンズは、赤外線フィルタを透過した赤外線を集光して撮像素子へ出射する。撮像素子は、例えば、CMOSセンサやCCDのような固体撮像素子であり、レンズが集光した赤外線を撮像して撮像画像を生成する。撮像素子で生成された撮像画像は、画像処理回路で処理される。例えば、撮像素子から得られた撮像画像を処理して高輝度部分を検知し、撮像画像における光源の位置情報(特定位置)を検出する。なお、光源が複数存在する場合には、撮像画像上の位置情報を検出する。また、検出した撮像画像上の位置情報は、通信部によって、本体装置に送信される。   The imaging unit provided in the input device includes an infrared filter, a lens, an imaging device (image sensor), and an image processing circuit. The infrared filter is disposed in front of the input device and allows only infrared light to pass through from light incident from a light source disposed in association with the display unit 190. The lens condenses the infrared light transmitted through the infrared filter and emits it to the image sensor. The image pickup device is a solid-state image pickup device such as a CMOS sensor or a CCD, for example, and picks up infrared light collected by the lens to generate a picked-up image. A captured image generated by the image sensor is processed by an image processing circuit. For example, the captured image obtained from the image sensor is processed to detect a high-luminance portion, and the position information (specific position) of the light source in the captured image is detected. If there are a plurality of light sources, position information on the captured image is detected. Further, the detected position information on the captured image is transmitted to the main device by the communication unit.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, another image generation system), and the function is realized by various processors or hardware such as a communication ASIC, a program, or the like. it can.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して画像生成システムを機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the program or data is received and the image generation system is made to function is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクト、エフェクトモデル(集中線モデル)を配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, an object such as a character or a map, a process for placing an effect model (concentrated line model), and an object display. A process for calculating a game result, a process for ending a game when a game end condition is satisfied, and the like.

この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、スケーリング制御部116、回転制御部118、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a scaling control unit 116, a rotation control unit 118, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 is an object composed of various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as characters, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). ) Is set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

特に本実施形態のオブジェクト空間設定部110は、オブジェクト空間に、仮想カメラの位置・向きに応じて、エフェクトモデルを設定する。   In particular, the object space setting unit 110 of the present embodiment sets an effect model in the object space according to the position and orientation of the virtual camera.

また、オブジェクト空間設定部110は、エフェクトモデルの所定軸側(軸を取り囲むエフェクトモデルの内側)が仮想カメラから見える位置に、エフェクトモデルを設定する。   The object space setting unit 110 sets the effect model at a position where the predetermined axis side of the effect model (the inside of the effect model surrounding the axis) can be seen from the virtual camera.

また、オブジェクト空間設定部110は、仮想カメラの向きと前記所定軸とに基づいて、エフェクトモデルを配置する。つまり、仮想カメラの視線と所定軸(エフェクトモデルが定義されるモデリング座標系のz軸)とに基づいて、エフェクトモデルを配置する。なお、仮想カメラの視線上に所定軸を一致させてエフェクトモデルを配置してもよい。より詳細に説明すると、オブジェクト空間設定部110は、エフェクトモデルが定義されたモデリング座標系の座標値から、カメラ座標系の座標値に変換する座標変換マトリクスに基づいて、エフェクトモデルを構成するポリゴンの各頂点の座標値を変換する処理を行う。   Further, the object space setting unit 110 arranges the effect model based on the orientation of the virtual camera and the predetermined axis. That is, the effect model is arranged based on the line of sight of the virtual camera and a predetermined axis (z axis of the modeling coordinate system in which the effect model is defined). Note that the effect model may be arranged so that a predetermined axis coincides with the line of sight of the virtual camera. More specifically, the object space setting unit 110 uses the coordinate conversion matrix that converts the coordinate value of the modeling coordinate system in which the effect model is defined into the coordinate value of the camera coordinate system, and the polygons that make up the effect model. A process of converting the coordinate value of each vertex is performed.

オブジェクト空間設定部110は、所定軸に対して回転させた前記エフェクトモデルを、オブジェクト空間に設定してもよい。また、オブジェクト空間設定部110は、所定軸に垂直な直交する2軸の少なくとも一方の軸に対して回転させたエフェクトモデルを、オブジェクト空間に設定してもよい。   The object space setting unit 110 may set the effect model rotated about a predetermined axis in the object space. The object space setting unit 110 may set an effect model rotated about at least one of two orthogonal axes perpendicular to a predetermined axis in the object space.

移動・動作処理部112は、オブジェクト(キャラクタ、移動体等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs movement / motion calculation (movement / motion simulation) of an object (a character, a moving body, etc.). In other words, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, or the like, the object is moved in the object space or the object is moved ( (Motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, the position (X, Y, Z) or rotation angle of the virtual camera in the world coordinate system (for example, the rotation angle when rotating in the clockwise direction when viewed from the positive direction of each axis of the X, Y, and Z axes). Process to control. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、移動体)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (eg, character, moving object) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera) so that the virtual camera follows changes in the position or rotation of the object. To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

本実施形態のスケーリング制御部116は、エフェクトモデルを、所定軸方向、及び、所定軸に垂直であって、直交する2軸方向の少なくとも一方の軸方向に対して、スケーリングする。   The scaling control unit 116 of the present embodiment scales the effect model with respect to a predetermined axis direction and at least one of the two axis directions perpendicular to the predetermined axis and perpendicular to each other.

スケーリング制御部116は、仮想カメラの移動速度に基づいて、スケーリングの倍率を求め、求めた倍率に基づいて、エフェクトモデルを所定軸方向(例えばモデリング座標系のz軸方向)にスケーリングする。   The scaling control unit 116 obtains a scaling magnification based on the moving speed of the virtual camera, and scales the effect model in a predetermined axis direction (for example, the z-axis direction of the modeling coordinate system) based on the obtained magnification.

また、スケーリング制御部は、仮想カメラと前記エフェクトモデルの配置関係、及び、仮想カメラの画角とに基づいてスケーリングの倍率を求め、求めた倍率に基づいて、所定軸に垂直であって、直交する2軸方向(例えばモデリング座標系のx、y軸方向)の少なくとも一方の軸に対してスケーリングする。   The scaling control unit obtains a scaling magnification based on the arrangement relationship between the virtual camera and the effect model and the angle of view of the virtual camera, and is perpendicular to the predetermined axis based on the obtained magnification and orthogonal Scaling is performed with respect to at least one of the two axes (for example, the x and y axes in the modeling coordinate system).

より具体的に説明すると、特に本実施形態のスケーリング制御部116は、エフェクトモデルを、モデリング座標形の原点を中心に所定方向にスケーリング(拡大・縮小)する処理を行う。   More specifically, the scaling control unit 116 of the present embodiment performs a process of scaling (enlarging / reducing) the effect model in a predetermined direction around the origin of the modeling coordinate form.

スケーリング制御部116は、仮想カメラの位置からビューボリューム範囲内の所与の位置までの距離(例えば、仮想カメラから前方クリッピング面までの距離)、仮想カメラの画角、アスペクト比の少なくとも1つの情報に基づいて、ビューポートサイズを求め、ビューポートサイズに基づいて倍率(スケーリングパラメータ)を求め、エフェクトモデルのモデリング座標形のx、y成分を倍率に基づいてスケールする。なお、x成分にかける倍率と、y成分にかける倍率は同じでもよいし、異ならせてもよい。例えば、x成分にかける倍率と、y成分にかける倍率との比率を、アスペクト比と同じにしてもよい。   The scaling control unit 116 is information on at least one of the distance from the position of the virtual camera to a given position in the view volume range (for example, the distance from the virtual camera to the front clipping plane), the angle of view of the virtual camera, and the aspect ratio. The viewport size is obtained based on the above, the magnification (scaling parameter) is obtained based on the viewport size, and the x and y components of the modeling coordinate form of the effect model are scaled based on the magnification. Note that the magnification applied to the x component and the magnification applied to the y component may be the same or different. For example, the ratio of the magnification applied to the x component and the magnification applied to the y component may be the same as the aspect ratio.

スケーリング制御部116は、エフェクトモデルを、モデリング座標形の原点を中心に、z方向へスケーリングする処理を行うことができる。かかる場合には、仮想カメラの移動速度に応じて、z方向へスケーリングする倍率を変化させてもよい。   The scaling control unit 116 can perform processing for scaling the effect model in the z direction around the origin of the modeling coordinate shape. In such a case, the scaling factor in the z direction may be changed according to the moving speed of the virtual camera.

なお、本実施形態のスケーリング制御部116は、モデリング座標系に限らず、種々の座標系(ワールド座標系、カメラ座標系、投影座標系、デバイス座標系)において、スケーリング処理を行ってもよい。   Note that the scaling control unit 116 of this embodiment is not limited to the modeling coordinate system, and may perform scaling processing in various coordinate systems (world coordinate system, camera coordinate system, projection coordinate system, device coordinate system).

本実施形態の回転制御部118は、エフェクトモデルを、モデリング座標系のx、y、z軸の少なくとも1つの軸に対して回転させる処理を行う。なお、予め記憶されているエフェクトモデルを構成するポリゴンの各頂点を、モデリング座標系からカメラ座標形(視点座標形)に座標値を変換する座標変換を行った後に、カメラ座標形のx、y、z軸の少なくとも1つの軸に対して回転させるようにしてもよい。   The rotation control unit 118 of the present embodiment performs a process of rotating the effect model with respect to at least one of the x, y, and z axes of the modeling coordinate system. In addition, after performing coordinate conversion for converting the coordinate values of the polygons constituting the effect model stored in advance from the modeling coordinate system to the camera coordinate form (viewpoint coordinate form), the x, y of the camera coordinate form is obtained. , And may be rotated with respect to at least one of the z axes.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

なお、本実施形態では、エフェクトモデルを構成するエフェクトオブジェクト(ポリゴン)の各頂点を、エフェクトモデルが定義されたモデリング座標系から、カメラ座標系に変換する座標変換マトリクスを求める処理を行う。   In the present embodiment, a process for obtaining a coordinate conversion matrix for converting each vertex of the effect object (polygon) constituting the effect model from the modeling coordinate system in which the effect model is defined to the camera coordinate system is performed.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the object data storage unit 176. Is done.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。なお、本実施形態では、Zテストによる隠面消去処理を行っているが、エフェクトオブジェクト(集中線モデルを構成するポリゴン)の描画ピクセルについてはZテストの対象にしないように制御している。つまり、エフェクトモデルの描画ピクセルが必ず描画されるようにしている。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value. In the present embodiment, the hidden surface removal process is performed by the Z test, but the drawing pixels of the effect object (polygon constituting the concentrated line model) are controlled not to be the target of the Z test. In other words, the drawing pixels of the effect model are always drawn.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
(1)概要
本実施形態は、仮想カメラのスピード感や、臨場感、迫力感を演出するために、いわゆる集中線エフェクトの描画処理をリアルタイムに行うものである。
2. Method of this embodiment (1) Outline In this embodiment, so-called concentrated line effect drawing processing is performed in real time in order to produce a sense of speed, a sense of presence, and a sense of power of a virtual camera.

例えば、スキーゲームのように、仮想カメラがプレーヤキャラクタに追従して移動する場合には、プレーヤキャラクタの移動速度が上昇すると、仮想カメラの移動速度も併せて上昇させて、仮想カメラの移動速度に応じて、集中線を変化させ、仮想カメラのスピード感を演出している。   For example, when the virtual camera moves following the player character as in a ski game, when the moving speed of the player character increases, the moving speed of the virtual camera is also increased to the moving speed of the virtual camera. Correspondingly, the concentration line is changed to produce a sense of speed of the virtual camera.

従来では、図2に示すように、この集中線をスクリーン座標系において、n個の複数のポリゴンA0〜Anによって表現し、つまり、スクリーンの端に位置する2点の頂点a1、a2と、画面の中心Oに向かう頂点a3を決定する処理を行って集中線を表現していた。しかし、自然な仮想カメラのスピード感の演出を行うためには、フレーム毎に複数のポリゴンA0〜Anそれぞれの長さ(画面の端から中心に向かう長さ)をランダムに変化させなければならず、演算数が多く画像生成システムの処理負荷が重くなるという問題が生じていた。   Conventionally, as shown in FIG. 2, this concentrated line is expressed by a plurality of n polygons A0 to An in the screen coordinate system, that is, two vertices a1 and a2 positioned at the edge of the screen, and the screen The concentration line is expressed by performing the process of determining the vertex a3 toward the center O of. However, in order to produce a natural virtual camera speed feeling, the length of each of the plurality of polygons A0 to An (the length from the edge of the screen toward the center) must be randomly changed for each frame. There has been a problem that the number of operations is large and the processing load of the image generation system becomes heavy.

そこで、本実施形態では、予めモデリングされた集中線モデル(エフェクトモデル)を用いて、仮想カメラのスピード感を表現している。つまり、本実施形態では、予めメモリに記憶されている集中線モデルを仮想カメラの位置・向きに応じてオブジェクト空間に配置して、仮想カメラから見える集中線モデルを描画し、従来よりも処理負荷を軽減させた簡易な手法で、仮想カメラのスピード感を表現している。   Therefore, in the present embodiment, the sense of speed of the virtual camera is expressed using a concentrated line model (effect model) modeled in advance. That is, in this embodiment, the concentrated line model stored in advance in the memory is arranged in the object space according to the position and orientation of the virtual camera, and the concentrated line model that can be seen from the virtual camera is drawn. Expresses the sense of speed of a virtual camera with a simple technique that reduces this.

例えば、図3(A)〜(D)に示すモデリング座標系においてモデリングされた略円筒状(略王冠状)の集中線モデル、つまり複数のポリゴン(エフェクトオブジェクト、集中線ポリゴン、集中線オブジェクト)B0〜Bnによって構成される集中線モデルを用いて描画処理を行う。そして、図5に示すように、集中線モデルのxy平面の円を内包する多角形が、ビューポートに内接するようにスケーリング処理(拡大・縮小処理)を行い、図6に示すように、仮想カメラから見える集中線モデルを投影面に投影することによって、集中線を表現している。つまり、集中線モデルを構成するポリゴンB0〜Bnを、集中線の役割を果たし、スピード感、迫力感を表現している。なお、集中線モデルを構成するポリゴンを描画するピクセルについては、Zテストによる隠面消去処理を行わないようにしている。集中線モデルを、常に描画して自然な演出効果を実現するためである。   For example, a substantially cylindrical (substantially crowned) concentrated line model modeled in the modeling coordinate system shown in FIGS. 3A to 3D, that is, a plurality of polygons (effect object, concentrated line polygon, concentrated line object) B0. Drawing processing is performed using a concentrated line model constituted by ~ Bn. Then, as shown in FIG. 5, the scaling process (enlargement / reduction process) is performed so that the polygon containing the circle on the xy plane of the concentrated line model is inscribed in the viewport, and as shown in FIG. Concentrated lines are expressed by projecting a concentrated line model visible from the camera onto the projection plane. That is, the polygons B0 to Bn constituting the concentrated line model serve as concentrated lines and express a sense of speed and a sense of power. Note that the hidden surface removal process by the Z test is not performed on the pixels for drawing the polygons constituting the concentrated line model. This is because the concentrated line model is always drawn to achieve a natural effect.

また、本実施形態では、図6に示すように、予め定義された集中線モデルを、モデリング座標系におけるz軸に対してランダムな角度で回転させることによって、集中線が、動的に変化する様子を表現している。   Further, in the present embodiment, as shown in FIG. 6, the concentrated line is dynamically changed by rotating a predefined concentrated line model at a random angle with respect to the z axis in the modeling coordinate system. Expresses the state.

このように本実施形態では、予め集中線モデルをモデリングし、そして、仮想カメラに対して適切な位置に配置することによって、従来よりも処理負荷を軽減して、集中線の表現によるスピード感や、迫力感、注目度を与える演出効果を実現することができる。以下、本実施形態の具体的な手法について説明する。   As described above, in the present embodiment, the concentrated line model is modeled in advance, and the processing load is reduced as compared with the prior art by arranging the concentrated line model at an appropriate position with respect to the virtual camera. It is possible to achieve a production effect that gives a sense of power and attention. Hereinafter, a specific method of this embodiment will be described.

(2)集中線モデル
まず、図3(A)〜(D)を用いて、モデリング座標系においてモデリングされた集中線モデルについて説明する。
(2) Concentrated line model First, the concentrated line model modeled in the modeling coordinate system is demonstrated using FIG. 3 (A)-(D).

図3(A)は、本実施形態の集中線モデルの一例である集中線モデルの斜視図である。また、図3(B)は、モデリング座標系におけるxz平面における集中線モデルの図(上面図)を示し、図3(C)は、モデリング座標系におけるxy平面における集中線モデルの図(正面図)を示す。また、図3(D)は、モデリング座標系におけるyz平面における集中線モデルの図(側面図)を示す。   FIG. 3A is a perspective view of a concentrated line model which is an example of the concentrated line model of the present embodiment. 3B shows a diagram (top view) of the concentrated line model in the xz plane in the modeling coordinate system, and FIG. 3C shows a diagram (front view) of the concentrated line model in the xy plane in the modeling coordinate system. ). FIG. 3D is a diagram (side view) of the concentrated line model on the yz plane in the modeling coordinate system.

本実施形態の集中線モデルは、図3(A)に示すように、複数のポリゴンB0〜Bnによって構成されてる三次元形状のモデルである。つまり、集中線モデルは、所定方向の長さを有する複数のポリゴンが環状に配置されるモデルである。例えば、集中線モデルを構成する複数の各ポリゴンは、第1の方向(縦方向)の長さ、第2の方向(横方向)の長さを有している。具体的には、複数の各ポリゴンは、図4に示すように、縦方向の長さhと、横方向の長さwとを有している。そして、本実施形態の集中線モデルは、縦方向の長さと、横方向の長さとが、不規則になるように、複数の各ポリゴンを環状に配置している。自然な集中線を表現できるからである。   The concentrated line model of the present embodiment is a three-dimensional model composed of a plurality of polygons B0 to Bn, as shown in FIG. That is, the concentrated line model is a model in which a plurality of polygons having a length in a predetermined direction are arranged in a ring shape. For example, each of the plurality of polygons constituting the concentrated line model has a length in the first direction (vertical direction) and a length in the second direction (horizontal direction). Specifically, as shown in FIG. 4, each of the plurality of polygons has a length h in the vertical direction and a length w in the horizontal direction. In the concentrated line model of this embodiment, a plurality of polygons are arranged in a ring shape so that the length in the vertical direction and the length in the horizontal direction are irregular. This is because a natural concentration line can be expressed.

また、本実施形態では、図3(A)に示すように、本実施形態の集中線モデルを構成する複数のポリゴンは、面ポリゴンであって(頂点が3つ以上のポリゴン)、各ポリゴンは表面、裏面を有しており、集中線モデルの内側が、集中線ポリゴンを構成する各ポリゴンの表面になるように集中線モデルを形成している。つまり、集中線モデルの外側が、集中線モデルを構成する各ポリゴンの裏面となるように、集中線モデルを形成している。   In this embodiment, as shown in FIG. 3A, the plurality of polygons constituting the concentrated line model of this embodiment are plane polygons (polygons having three or more vertices), and each polygon is The concentrated line model is formed so that the inner side of the concentrated line model is the surface of each polygon constituting the concentrated line polygon. In other words, the concentrated line model is formed so that the outside of the concentrated line model is the back surface of each polygon constituting the concentrated line model.

なお、集中線モデルの内側が、集中線ポリゴンを構成する各ポリゴンの裏面であって、集中線モデルの外側が、集中線モデルを構成する各ポリゴンの表面となるように、集中線モデルを形成してもよい。   The concentrated line model is formed so that the inside of the concentrated line model is the back side of each polygon that makes up the concentrated line polygon and the outside of the concentrated line model is the surface of each polygon that makes up the concentrated line model May be.

また、集中線モデルは、仮想的な環状線に沿って各ポリゴンを配置してもよい。例えば、図3(A)に示すように、仮想的な多角形の環状線に沿って、各ポリゴン(B0〜Bn)が配置される。別の表現をすれば、集中線モデルは、複数のポリゴンそれぞれの少なくとも1つの頂点を結ぶと、環状になるように配置されたモデルである。   In the concentrated line model, each polygon may be arranged along a virtual annular line. For example, as shown in FIG. 3A, the polygons (B0 to Bn) are arranged along a virtual polygonal annular line. In other words, the concentrated line model is a model arranged so as to form a ring when connecting at least one vertex of each of a plurality of polygons.

さらに、具体的に集中線モデルの例を説明する。例えば、図3(A)〜(D)に示すように、集中線モデルは、モデリング座標系の原点0を中心点とするxy平面上の半径rの円を内包する多角形の辺を構成する2つの頂点と、当該2点の頂点でなす辺上の任意の点を、モデリング座標系におけるz負方向に平行に移動させた点とによって構成されるポリゴンを複数形成することによって構成される。   Further, an example of the concentrated line model will be specifically described. For example, as shown in FIGS. 3A to 3D, the concentrated line model constitutes a polygonal side including a circle with a radius r on the xy plane with the origin 0 of the modeling coordinate system as the center point. It is configured by forming a plurality of polygons composed of two vertices and a point obtained by moving an arbitrary point on the side formed by the vertices of the two points in parallel in the negative z direction in the modeling coordinate system.

つまり、集中線モデルを構成するn個のポリゴン(B0〜Bn)は、例えば、図3(A)〜(D)、図4に示すように、半径rの円を内包する多角形の2点b1、b2と、2点b1、b2を結ぶ線分の中点をz負方向に平行に移動させた線上の点b3とによって構成される。つまり、ポリゴンBnは線分b1、b2を底辺とする2等辺三角形であることが望ましい。生成される画像において、各ポリゴンが1点の焦点に向かって集中する様子を適切に表現できるからである。   In other words, the n polygons (B0 to Bn) constituting the concentrated line model are, for example, two polygonal points including a circle with a radius r, as shown in FIGS. 3 (A) to (D) and FIG. b1 and b2, and a point b3 on the line obtained by moving the midpoint of the line connecting the two points b1 and b2 in parallel to the z negative direction. That is, the polygon Bn is preferably an isosceles triangle having the bases of the line segments b1 and b2. This is because, in the generated image, it is possible to appropriately express how the polygons are concentrated toward one focal point.

なお、xy平面上の半径rの円を内包する多角形の辺の長さwは、図3(A)〜(D)に示すように、不均一であってもよいし、均一にして円の円周上で正多角形を形成できるものであってもよい。また、各ポリゴンのz負方向へ引き伸ばした長さhは不均一でもよいし、均一であってもよい。なお、z負方向への長さhは所定値以下に制限してもよい。なお、集中線モデルを構成する複数のポリゴンB0〜Bnそれぞれの頂点b1、b2のzの座標値は、必ずしも零の位置でなくてもよい。例えば、複数のポリゴンB0〜Bnそれぞれの頂点b1、b2のzの座標値をそれぞれ異なるようにしてもよい。   It should be noted that the length w of the side of the polygon that encloses the circle with the radius r on the xy plane may be non-uniform as shown in FIGS. It may be possible to form a regular polygon on the circumference. Further, the length h of each polygon stretched in the negative z direction may be non-uniform or uniform. Note that the length h in the negative z direction may be limited to a predetermined value or less. Note that the z coordinate values of the vertices b1 and b2 of each of the plurality of polygons B0 to Bn constituting the concentrated line model do not necessarily have to be zero. For example, the z coordinate values of the vertices b1 and b2 of the polygons B0 to Bn may be different from each other.

(3)集中線モデルをオブジェクト空間に設定する手法
本実施形態の集中線モデルは、集中線モデルの内側が、集中線ポリゴンを構成する各ポリゴンの表面であって、集中線モデルの外側が、集中線モデルを構成する各ポリゴンの裏面となるように構成するものである。そして、本実施形態では、集中線モデルの内側を描写することに意義を有するものである。なぜなら、集中線モデルの内側(集中線モデルを構成する各ポリゴンの表面)を透視変換(投影変換)することによって、集中線モデルを構成するポリゴンが、集中線の役割を果たすことができるからである。つまり、集中線モデルを構成するポリゴンの各点から仮想カメラに向かって投影されることによって、例えば、図6に示すように、周囲から焦点に向かう集中線を表現することができる。
(3) Method for Setting Concentrated Line Model in Object Space In the concentrated line model of this embodiment, the inside of the concentrated line model is the surface of each polygon constituting the concentrated line polygon, and the outside of the concentrated line model is The concentrated line model is configured to be the back surface of each polygon constituting the concentrated line model. In this embodiment, it is meaningful to describe the inside of the concentrated line model. This is because the polygons that make up the concentrated line model can play the role of concentrated lines by performing perspective transformation (projection transformation) inside the concentrated line model (the surface of each polygon that makes up the concentrated line model). is there. That is, by projecting from each point of the polygon constituting the concentrated line model toward the virtual camera, for example, as shown in FIG. 6, a concentrated line from the surroundings toward the focal point can be expressed.

したがって、本実施形態では、集中線を適切に表現するために、以下の手法で、集中線モデルをオブジェクト空間に配置している。   Therefore, in the present embodiment, in order to appropriately express the concentrated line, the concentrated line model is arranged in the object space by the following method.

まず、本実施形態では、集中線モデルを構成するポリゴンの各頂点の座標値を、モデリング座標系からカメラ座標系に変換する座標変換を行う。例えば、集中線モデルの原点を、カメラ座標系のz軸上の、ビューボリューム内の所与の位置に配置する。   First, in the present embodiment, coordinate conversion is performed to convert the coordinate values of the vertices of the polygons constituting the concentrated line model from the modeling coordinate system to the camera coordinate system. For example, the origin of the concentrated line model is placed at a given position in the view volume on the z-axis of the camera coordinate system.

そして、本実施形態では、環状に配置された複数のポリゴンによって構成される集中線モデルの正面側縁部の環状部分が、ビューポートに内接、あるいは、ビューポートを包含するように集中線モデルを配置している。集中線モデルの正面側縁部の環状部分(円を内包する多角形)が、ビューポート(投影面、前面クリッピング面、後方クリッピング面、投影面に平行なビューボリュームの断面でもよい。)に内接するようにオブジェクト空間に設定する処理を行う。このようにすれば、生成される画像において、集中線モデルを構成するポリゴンのとげ状の部分が画面の一点(焦点)に向かうようになり、自然な集中線を表現することができるからである。   In the present embodiment, the concentrated line model is configured such that the annular portion of the front side edge portion of the concentrated line model configured by a plurality of polygons arranged in an annular shape is inscribed in the viewport or includes the viewport. Is arranged. The annular portion (polygon that encloses a circle) at the front edge of the concentrated line model is inside the viewport (projection plane, front clipping plane, rear clipping plane, or a section of the view volume parallel to the projection plane). Processing to set the object space so as to touch. In this way, in the generated image, the barbed portion of the polygon constituting the concentrated line model is directed to one point (focus) of the screen, and a natural concentrated line can be expressed. .

例えば、モデリング座標系におけるxy成分を、原点中心にx軸方向にSx倍、y軸方向にSy倍、スケーリング(拡大・縮小)を行うマトリクスを、集中線モデルを構成するポリゴンの各頂点に乗算する処理を行う。   For example, the xy component in the modeling coordinate system is multiplied by Sx times in the x-axis direction at the center of the origin, Sy times in the y-axis direction, and a scaling (enlargement / reduction) matrix for each vertex of the polygons that make up the concentrated line model Perform the process.

すなわち、スケーリングを行うスケーリングパラメータSx、Syは、ビューポートの横サイズ、縦サイズ、そして、仮想カメラの画角θ、仮想カメラ(仮想カメラの原点)から、ビューボリューム内の所定位置までの距離L(例えば、仮想カメラから前方クリッピング面までの距離)、アスペクト比a(ビューポートの横幅と縦幅との比率)によって、求めることができる。   That is, the scaling parameters Sx and Sy for performing scaling are the distance L from the horizontal size and vertical size of the viewport, the angle of view θ of the virtual camera, and the virtual camera (virtual camera origin) to a predetermined position in the view volume. (For example, the distance from the virtual camera to the front clipping plane) and the aspect ratio a (ratio between the horizontal width and the vertical width of the viewport).

尚、集中線モデルの原点は、前方クリッピング面から後方クリッピング面の範囲、すなわちビューボリュームの範囲に配置しなけれなならない。集中線モデルがクリッピングによって描画されないことを防ぐためである。   Note that the origin of the concentrated line model must be located within the range from the front clipping plane to the rear clipping plane, that is, the view volume. This is to prevent the concentrated line model from being drawn by clipping.

ここで、集中線モデルを、前方クリッピング面に配置する場合を例にとり具体的に説明する。仮想カメラの画角θ(仮想カメラの水平画角θ)と、仮想カメラから前方クリッピング面までの距離をLとに基づき、ビューポートの横サイズVwと、縦サイズをVhを求めることができる。すなわり、ビューポートの横サイズVwは、以下の式(1)によって求まる。   Here, a case where the concentrated line model is arranged on the front clipping plane will be specifically described as an example. Based on the view angle θ of the virtual camera (horizontal view angle θ of the virtual camera) and the distance from the virtual camera to the front clipping plane L, the horizontal size Vw of the viewport and the vertical size Vh can be obtained. In other words, the horizontal size Vw of the viewport is obtained by the following equation (1).

Vw=2L×tan(θ/2) (1)
また、アスペクト比aに基づき、ビューポートの縦サイズVhは、以下の式(2)によって求まる。
Vw = 2L × tan (θ / 2) (1)
Further, based on the aspect ratio a, the vertical size Vh of the viewport is obtained by the following equation (2).

Vh=Vw/a=2L/a×tan(θ/2) (2)
つまり、集中線モデルの正面側縁部の環状部分は、ビューポートに内接できればよいので、ビューポートの横サイズVw、縦サイズVhから、スケーリング後の集中線モデルのxy平面の円の半径r1は以下の数式で求めることができる。
Vh = Vw / a = 2L / a × tan (θ / 2) (2)
In other words, the annular portion at the front side edge of the concentrated line model only needs to be inscribed in the viewport, and therefore the radius r1 of the circle on the xy plane of the concentrated line model after scaling from the horizontal size Vw and the vertical size Vh of the viewport. Can be obtained by the following equation.

Figure 2009140370
Figure 2009140370

つまり、図7(B)に示すように、集中線モデルのモデリング座標系におけるxy平面上の円の半径がr1であればよい。したがって、円の半径をr1にする場合には、x、y成分に原点を中心としてx軸方向、y軸方向にr1/rをスケーリングしたマトリクス(拡大・縮小マトリクス)を、集中線モデルを構成するポリゴンの各頂点に乗算し、スケーリングされた集中線モデルの原点を、仮想カメラからの距離Lの位置に配置する処理を行う。つまり、スケーリングパラメータSx、Syの値はr1/rになる。   That is, as shown in FIG. 7B, the radius of the circle on the xy plane in the modeling coordinate system of the concentrated line model may be r1. Therefore, when the radius of the circle is set to r1, a concentrated line model is formed by a matrix (enlargement / reduction matrix) obtained by scaling r1 / r in the x-axis direction and the y-axis direction around the origin in the x and y components. The vertex of the polygon to be multiplied is multiplied, and the origin of the scaled concentrated line model is arranged at the position of the distance L from the virtual camera. That is, the values of the scaling parameters Sx and Sy are r1 / r.

なお、スケーリングされた集中線モデルを配置する場合には、仮想カメラに平行な面(カメラ座標系におけるxy平面)が集中線モデルのxy平面となるように配置する。   When the scaled concentrated line model is arranged, the plane parallel to the virtual camera (xy plane in the camera coordinate system) is arranged to be the xy plane of the concentrated line model.

以上のように、集中線モデルをオブジェクト空間に配置することによって、図6に示すように、透視変換、ビューポート変換された後に、集中線モデルの正面側縁部の環状部分のエッジがクリッピングされ、自然な集中線を表現することができる。   As described above, by arranging the concentrated line model in the object space, as shown in FIG. 6, after the perspective conversion and the viewport conversion, the edge of the annular portion at the front side edge of the concentrated line model is clipped. , Can express a natural concentration line.

(4)集中線モデルの長さを変化させる手法
本実施形態では、仮想カメラの移動速度の変化に応じて、集中線モデルのポリゴンの長さ(図3に示すモデリング座標系におけるz軸方向への長さ)をスケーリングする処理を行っている。つまり、モデリング座標系におけるz成分を、原点中心にz軸方向にSz倍スケーリング(拡大・縮小)を行うマトリクスを、集中線モデルを構成するポリゴンの各頂点に乗算する処理を行う。
(4) Method of changing the length of the concentrated line model In this embodiment, the length of the polygon of the concentrated line model (in the z-axis direction in the modeling coordinate system shown in FIG. 3) according to the change in the moving speed of the virtual camera. The length) is being scaled. That is, processing is performed to multiply the vertices of the polygons constituting the concentrated line model by a matrix that performs Sz scaling (enlargement / reduction) in the z-axis direction about the origin in the modeling coordinate system.

このようにすれば、生成された画像の集中線の画面の端から焦点に向かう長さが、仮想カメラのスピードに応じて、長くなったり、短くなったりするので、さらなうスピード感の演出を実現できる。   In this way, the length of the generated image concentration line from the edge of the screen to the focal point becomes longer or shorter depending on the speed of the virtual camera. Can be realized.

かかる場合に、スケーリングパラメータSzの値を仮想カメラの移動速度に応じて変化させてもよい。例えば、移動速度が零のときは、スケーリングパラメータSzを零にし、移動速度が上昇するにつれて、スケーリングパラメータSzを上昇させるようにしてもよい。なお、スケーリングパラメータSzは、所定値を超えないように制御してもよい。   In such a case, the value of the scaling parameter Sz may be changed according to the moving speed of the virtual camera. For example, when the moving speed is zero, the scaling parameter Sz may be set to zero, and the scaling parameter Sz may be increased as the moving speed increases. Note that the scaling parameter Sz may be controlled so as not to exceed a predetermined value.

例えば、スケーリングパラメータSzが1の場合における仮想カメラの移動速度の値を予め決定する。例えば、スケーリングパラメータSzが1の場合における仮想カメラの移動速度の値を10に決定する。そして、仮想カメラの移動速度kとすると、z成分にk/10をスケーリングしたマトリクスを、集中線モデルを構成するポリゴンの各頂点に乗算する。そして、スケーリングされた集中線モデルをオブジェクト空間に設定する。   For example, the value of the moving speed of the virtual camera when the scaling parameter Sz is 1 is determined in advance. For example, the value of the moving speed of the virtual camera when the scaling parameter Sz is 1 is determined to be 10. When the moving speed k of the virtual camera is assumed, a matrix obtained by scaling k / 10 to the z component is multiplied to each vertex of the polygon constituting the concentrated line model. Then, the scaled concentrated line model is set in the object space.

なお、本実施形態では、ゲーム状況に応じて、集中線モデルをz方向へスケーリングする処理を行ってもよい。例えば、特別なキャラクタを表示させる場合や、プレーヤがレースのゴール地点に達したした場合などには、z方向へのスケーリングのスケーリングパラメータを2倍にする。このようにすれば、通常時よりも集中度合いの強い演出効果を行うことができる。   In the present embodiment, processing for scaling the concentrated line model in the z direction may be performed according to the game situation. For example, when a special character is displayed or when the player reaches the goal point of the race, the scaling parameter for scaling in the z direction is doubled. In this way, it is possible to perform a production effect that is more concentrated than normal.

(5)回転制御についての説明
本実施形態では、図6に示すように、時間経過に応じて、集中線モデルがモデル座標系におけるz軸に対して、ランダムな角度に回転させている。つまり、フレーム毎に、回転角度φを決定して、z軸に対して回転角度φ回転させるマトリクスを、集中線モデルに乗算して、集中線モデルをオブジェクト空間に設定する。
(5) Description of Rotation Control In this embodiment, as shown in FIG. 6, the concentrated line model is rotated at a random angle with respect to the z axis in the model coordinate system as time elapses. That is, for each frame, the rotation angle φ is determined, and the concentrated line model is set in the object space by multiplying the concentrated line model by a matrix that rotates the rotation angle φ with respect to the z axis.

例えば、回転角度φは、乱数アルゴリズムに基づいてランダムな値を求めて設定することが望ましい。規則的に回転させると、プレーヤに、同一の集中線モデルを使用していることを知られてしまい、ゲームに対する好奇心を損なわせる恐れあるからである。例えば、回転角度φは60度以上120度以下の回転角度でランダムに回転させるように制御することが望ましい。   For example, the rotation angle φ is desirably set by obtaining a random value based on a random number algorithm. This is because if the player is rotated regularly, the player is informed that the same concentrated line model is used, and the curiosity of the game may be impaired. For example, the rotation angle φ is desirably controlled so as to be randomly rotated at a rotation angle of 60 degrees to 120 degrees.

このように、本実施形態では、モデリングされた1つの集中線モデルを用いて、z軸に対してランダムに回転させる制御を行うので、従来の手法に比較すると格段に、演算数が減算される。つまり、従来に比べて処理負荷を軽減させることができる。   As described above, in the present embodiment, since control is performed to rotate randomly with respect to the z-axis using one modeled concentrated line model, the number of operations is subtracted significantly compared to the conventional method. . That is, the processing load can be reduced compared to the conventional case.

尚、本実施形態では、集中線モデルをモデル座標系のx軸、y軸に対して回転させるように制御してもよい。このようにすれば、集中線の焦点を移動させることができる。   In the present embodiment, the concentrated line model may be controlled to rotate with respect to the x axis and the y axis of the model coordinate system. In this way, the focal point of the concentrated line can be moved.

例えば、図8(A)に示すように、現フレームの仮想カメラの視線方向をカメラ座標系のz軸負方向に設定した場合に、前フレームの仮想カメラの視線方向と、現フレームの仮想カメラの視線方向とのなす回転角度t1、つまり、x軸正方向に対して角度t1で回転する場合には、図8(B)に示すように、集中線モデルを構成するポリゴンの各頂点に、モデリング座標系のx軸の正方向から回転角度t1を回転するマトリクスを乗算してから、集中線モデルを配置する処理を行う。このようにすれば、図8(C)に示すように、集中線の焦点が画像の中心より下方になるように描画され、仮想カメラの動きに応じた集中線を表現することができる。   For example, as shown in FIG. 8A, when the line-of-sight direction of the virtual camera of the current frame is set to the z-axis negative direction of the camera coordinate system, the line-of-sight direction of the virtual camera of the previous frame and the virtual camera of the current frame When rotating at an angle t1 with respect to the line-of-sight direction, that is, the angle t1 with respect to the positive x-axis direction, as shown in FIG. 8B, at each vertex of the polygon constituting the concentrated line model, After multiplying the matrix that rotates the rotation angle t1 from the positive direction of the x-axis of the modeling coordinate system, a process of arranging the concentrated line model is performed. In this way, as shown in FIG. 8C, the concentrated line is drawn so that the focal point of the concentrated line is below the center of the image, and the concentrated line corresponding to the movement of the virtual camera can be expressed.

また、例えば、図9(A)に示すように、現フレームの仮想カメラの視線方向をカメラ座標系のz軸負方向に設定した場合に、前フレームの仮想カメラの視線方向と、現フレームのカメラ座標系のy軸の正方向から回転角度t2で回転する場合には、図9(B)に示すように、集中線モデルを構成するポリゴンの各頂点に、モデリング座標系のy軸正方向を基準に角度t2を回転するマトリクスを乗算してから、配置する処理を行う。このようにすれば、図9(C)に示すように、集中線の焦点が画像の中心より左方になるように描画され、仮想カメラの動きに応じた集中線を表現することができる。   For example, as shown in FIG. 9A, when the line-of-sight direction of the virtual camera of the current frame is set to the negative z-axis direction of the camera coordinate system, the line-of-sight direction of the virtual camera of the previous frame and the current frame When rotating at a rotation angle t2 from the positive direction of the y-axis of the camera coordinate system, as shown in FIG. 9B, the positive direction of the y-axis of the modeling coordinate system is set at each vertex of the polygon constituting the concentrated line model. Is multiplied by a matrix that rotates the angle t2, and then the arrangement process is performed. In this way, as shown in FIG. 9C, the concentrated line is drawn so that the focal point of the concentrated line is to the left of the center of the image, and the concentrated line corresponding to the movement of the virtual camera can be expressed.

なお、集中線モデルが、x、y軸に回転させる制御を場合には、集中線モデルのx、y軸に対するスケーリングするスケーリングパラメータSx、Syを、上述して求められるスケーリングパラメータよりも、やや大きめに見積もることが望ましい。例えば、図5に示すように、集中線モデルを、ビューポートに丁度よく収まるように配置すると、集中線モデルがy軸に対して角度t2によって回転した場合に、図10(A)に示すように、集中線モデルが配置されることになってしまい、例えば、図10(B)に示すように集中線モデルの正面側縁部の環状部分のエッジが画面に表示されてしまって不自然な演出になってしまう恐れがある。   When the concentrated line model is controlled to rotate about the x and y axes, the scaling parameters Sx and Sy for scaling the x and y axes of the concentrated line model are slightly larger than the scaling parameters obtained above. It is desirable to make an estimate. For example, as shown in FIG. 5, when the concentrated line model is arranged so that it fits well in the viewport, as shown in FIG. 10A when the concentrated line model is rotated at an angle t2 with respect to the y axis. For example, as shown in FIG. 10B, the edge of the annular portion of the front side edge of the concentrated line model is displayed on the screen, which is unnatural. There is a risk of being directed.

したがって、本実施形態では、集中線モデルをx、y成分をスケーリングするスケーリングパラメータSx1、Sy1にさらに拡大させるように所定倍を乗じた値を、最終的な集中線モデルをx、y成分をスケーリングするスケーリングパラメータSx2、Sy2に設定している。   Therefore, in the present embodiment, the final concentrated line model is scaled with the x and y components by multiplying the scaling parameters Sx1 and Sy1 for scaling the concentrated line model with a predetermined multiple so that the scaled line model is further expanded. Scaling parameters Sx2 and Sy2 are set.

例えば、上述したようにアスペクト比、仮想カメラの画角、仮想カメラと前方クリッピング面までの距離Lによって、集中線モデルのx、y成分のスケーリングするスケーリングパラメータSx1、Sy1を求めた後、さらに、所定倍率(例えば、1.5)を乗じて、最終的な集中線モデルをx、y成分をスケーリングするスケーリングパラメータSx2、Sy2に設定している。このようにすれば、図11(A)に示すように、ビューポートよりも、やや大きめにスケーリングされた集中線モデルをオブジェクト空間に配置するので、図11(B)に示すように、集中線モデルがy軸に対して回転角度t2によって回転した場合であっても、集中線モデルの正面側縁部の環状部分のエッジはクリッピングされるので、自然な集中線を表現することができる。   For example, after obtaining the scaling parameters Sx1 and Sy1 for scaling the x and y components of the concentrated line model by the aspect ratio, the angle of view of the virtual camera, and the distance L between the virtual camera and the front clipping plane as described above, By multiplying by a predetermined magnification (for example, 1.5), the final concentrated line model is set to scaling parameters Sx2 and Sy2 for scaling the x and y components. In this way, as shown in FIG. 11A, since the concentrated line model scaled slightly larger than the viewport is arranged in the object space, the concentrated line model as shown in FIG. Even when the model is rotated at the rotation angle t2 with respect to the y-axis, the edge of the annular portion at the front side edge of the concentrated line model is clipped, so that a natural concentrated line can be expressed.

なお、集中線モデルの正面側縁部の環状部分のエッジが、ビューポート(画面、投影面)に反映されてしまうか否かの判断を行い、集中線モデルの正面側縁部の環状部分のエッジが、ビューポート(画面、投影面)に反映されてしまうと判断される場合には、集中線モデルを描画しないように制御してもよい。なお、正面側縁部の環状部分のエッジが、ビューポート(画面、投影面)に反映されてしまうか否かの判断は、集中線モデルのxy平面上の多角形を内包する円の半径(集中線モデルの多角形を内包する楕円の長軸、短軸の長さ)、x、y軸周りの回転角度t1、t2、そして、画角θ、アスペクト比等に基づいて求めることができる。   It is determined whether the edge of the annular portion of the front side edge of the concentrated line model is reflected in the viewport (screen, projection plane), and the annular portion of the front side edge of the concentrated line model is determined. When it is determined that the edge is reflected in the viewport (screen, projection plane), the concentrated line model may be controlled not to be drawn. Note that whether or not the edge of the annular portion of the front side edge is reflected in the viewport (screen, projection plane) is determined by the radius of the circle containing the polygon on the xy plane of the concentrated line model ( The major axis and minor axis length of the ellipse containing the polygon of the concentrated line model), rotation angles t1 and t2 around the x and y axes, the angle of view θ, the aspect ratio, and the like.

なお、本実施形態では、集中線モデルが回転してオブジェクト空間に配置する場合には、集中線モデルのエッジがクリッピングされる、集中線モデルと仮想カメラとの距離M1を求め、仮想カメラから距離M1の位置に集中線モデルを配置してもよい。このようにすれば、集中線モデルの正面側縁部の環状部分のエッジはクリッピングされ、自然な集中線を表現できる。例えば、M1は、集中線モデルのxy平面上の多角形を内包する円の半径(集中線モデルの多角形を内包する楕円の長軸、短軸の長さ)、x、y軸周りの回転角度t1、t2、そして、画角θとに基づいて、求めることができる。   In the present embodiment, when the concentrated line model is rotated and arranged in the object space, the distance M1 between the concentrated line model and the virtual camera is obtained by clipping the edge of the concentrated line model, and the distance from the virtual camera is obtained. A concentrated line model may be arranged at the position of M1. In this way, the edge of the annular portion at the front side edge of the concentrated line model is clipped, and a natural concentrated line can be expressed. For example, M1 is the radius of a circle that contains a polygon on the xy plane of the concentrated line model (the length of the major axis and minor axis of the ellipse that contains the polygon of the concentrated line model), and rotation around the x and y axes. It can be obtained based on the angles t1, t2 and the angle of view θ.

例えば、集中線モデルが、仮想カメラの向きに正対している場合には、仮想カメラと集中線モデルとの距離をM0(L<M0;Lは仮想カメラと前方クリッピング面までの距離)に保ち、集中線モデルが回転した場合には、仮想カメラと集中線モデルとの距離を、M1(L<M1<M0)に設定することが望ましい。   For example, when the concentrated line model faces the direction of the virtual camera, the distance between the virtual camera and the concentrated line model is kept at M0 (L <M0; L is the distance from the virtual camera to the front clipping plane). When the concentrated line model is rotated, it is desirable to set the distance between the virtual camera and the concentrated line model to M1 (L <M1 <M0).

(6)描画処理
本実施形態では、集中線モデルを構成するポリゴンを半透明描画してもよい。つまり、レンダリングされた元画像の色と、集中線ポリゴンとの色をα値に基づいて合成する処理(線形合成、加算合成処理等)を行う。かかる場合には、仮想カメラからの距離に応じて、集中線ポリゴンのα値(半透明度、半透明度)を変化させるようにして描画処理を行う。具体的には、仮想カメラからの奥行き値(Z値)に基づいて、集中線モデルのポリゴンのα値を低くする。このようにすれば、集中線モデルが焦点に向かうにつれて透明になり、集中線モデルのポリゴンの色が、元画像の色にとけ込むような画像を生成できる。
(6) Drawing process In the present embodiment, polygons constituting the concentrated line model may be drawn translucently. That is, processing (linear synthesis, addition synthesis processing, etc.) for synthesizing the color of the rendered original image and the color of the concentrated line polygon based on the α value is performed. In such a case, the drawing process is performed so as to change the α value (semi-transparency, translucency) of the concentrated line polygon according to the distance from the virtual camera. Specifically, the α value of the polygon of the concentrated line model is lowered based on the depth value (Z value) from the virtual camera. In this way, it is possible to generate an image in which the concentrated line model becomes transparent as it goes to the focal point, and the polygon color of the concentrated line model is merged with the color of the original image.

また、仮想カメラの移動速度に応じて、α値を変化させるようにしてもよい。例えば、仮想カメラの移動速度が上昇するにつれて、α値の値を大きくして、集中線モデルを構成するポリゴンの色を濃くするようにし、仮想カメラの移動速度が減速するにつれて、α値の値を低くして、集中線モデルを構成するポリゴンの色が薄くなるようにしてもよい。このようにすれば、さらに、仮想カメラのスピード感を表現することができる。   Further, the α value may be changed according to the moving speed of the virtual camera. For example, as the movement speed of the virtual camera increases, the value of the α value is increased so that the color of the polygon constituting the concentrated line model becomes darker. As the movement speed of the virtual camera decreases, the value of the α value is increased. May be lowered so that the colors of the polygons constituting the concentrated line model become lighter. In this way, it is possible to further express the sense of speed of the virtual camera.

また、本実施形態では、集中線モデルを構成するポリゴンのカラーは、1つのカラー(例えば白色)に限らず、複数のカラーを用いて、集中線モデルを構成するポリゴンのカラーを決定してもよい。   In the present embodiment, the color of the polygons constituting the concentrated line model is not limited to one color (for example, white), and the colors of the polygons constituting the concentrated line model may be determined using a plurality of colors. Good.

3.本実施形態の処理
次に、本実施形態の詳細な処理例について図12のフローチャートを用いて説明する。
3. Processing of this embodiment Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.

まず、モデリング座標系において定義された集中線モデルのスケーリングを行う(ステップS1)。つまり、集中線モデルのx、y成分のスケーリング処理を行い、仮想カメラの移動速度等に基づいて、集中線モデルのz成分のスケーリング処理を行う。   First, the concentrated line model defined in the modeling coordinate system is scaled (step S1). That is, the scaling process of the x and y components of the concentrated line model is performed, and the scaling process of the z component of the concentrated line model is performed based on the moving speed of the virtual camera and the like.

次に、集中線モデルを回転する回転制御を行う(ステップS2)。例えば、モデリング座標系の原点を中心に、z軸に対してランダムに決定された回転角度φで集中線モデルを回転させる処理を行う。また、前フレームの視線方向と現フレームの視線方向とのなすx軸の回転角度t1に応じて、モデリング座標系の原点を中心にx軸に対して回転角度t1で集中線モデルを回転させる処理を行い、前フレームの視線方向と現フレームの視線方向とのなすy軸の回転角度t2に応じて、モデリング座標系の原点を中心にy軸に対して回転角度t2で集中線モデルを回転させる処理を行う。   Next, rotation control for rotating the concentrated line model is performed (step S2). For example, the concentrated line model is rotated around the origin of the modeling coordinate system at a rotation angle φ that is randomly determined with respect to the z-axis. Also, processing for rotating the concentrated line model at the rotation angle t1 with respect to the x axis around the origin of the modeling coordinate system in accordance with the rotation angle t1 of the x axis formed by the viewing direction of the previous frame and the viewing direction of the current frame. And the concentrated line model is rotated around the origin of the modeling coordinate system at the rotation angle t2 around the origin of the modeling coordinate system according to the rotation angle t2 of the y-axis formed by the viewing direction of the previous frame and the viewing direction of the current frame. Process.

そして、集中線モデルをオブジェクト空間に配置する処理を行う(ステップS3)。例えば、集中線モデルを構成するポリゴンの各頂点の座標値を、モデリング座標形からカメラ座標系の座標値に変換するマトリクスを、集中線モデルを構成する各頂点に乗算して座標変換を行う。   Then, the concentrated line model is placed in the object space (step S3). For example, coordinate conversion is performed by multiplying each vertex constituting the concentrated line model by a matrix that converts the coordinate value of each vertex of the polygon constituting the concentrated line model from the modeling coordinate form to the coordinate value of the camera coordinate system.

そして、仮想カメラから見える画像を生成する処理を行う(ステップS4)。つまり、透視変換処理、ビューポート変換処理を行い画像を生成する。なお、集中線モデルを構成するポリゴンのピクセルは、zテスト判定を行わずに、常に描画されるように処理を行っている。以上で処理が終了する。   And the process which produces | generates the image seen from a virtual camera is performed (step S4). That is, a perspective transformation process and a viewport transformation process are performed to generate an image. It should be noted that the polygon pixels constituting the concentrated line model are processed so as to be always drawn without performing the z test determination. The process ends here.

4.応用例
(1)集中線モデルのスケーリング処理の応用例
本実施形態では、集中線モデルをモデリング座標系の原点を中心にx、y成分を同じスケーリングパラメータでスケーリングする手法について説明したが、それぞれをx、y成分について異なるスケーリングパラメータでスケーリングしてもよい。例えば、集中線モデルを、アスペクト比に応じて、スケーリングしてもよい。例えば、アスペクト比が16:9である場合には、図13(A)に示すように、長軸iと短軸jとの比率が16:9になるように、集中線モデルのスケーリング処理を行ってもよい。そして、スケーリングされた集中線モデルは、略楕筒形状のモデルに変形されて、オブジェクト空間に配置される。
4). Application Example (1) Application Example of Scaling Process of Concentrated Line Model In the present embodiment, the technique for scaling the concentrated line model with the same scaling parameters with the x and y components centered on the origin of the modeling coordinate system has been described. The x and y components may be scaled with different scaling parameters. For example, the concentrated line model may be scaled according to the aspect ratio. For example, when the aspect ratio is 16: 9, the concentrated line model is scaled so that the ratio of the major axis i to the minor axis j is 16: 9 as shown in FIG. You may go. Then, the scaled concentrated line model is transformed into a substantially elliptical model and placed in the object space.

このようにすれば、例えば、図13(B)に示すように、複数のキャラクタが配置される場合にも適切な集中線を表現することができる。また、画面を上下に分割した場合でも、分割画像に応じたアスペクト比の横サイズが縦サイズに比べて極端に長い場合でも集中線を適切に表現することができる。   In this way, for example, as shown in FIG. 13B, an appropriate concentration line can be expressed even when a plurality of characters are arranged. Further, even when the screen is divided vertically, the concentrated line can be appropriately expressed even when the horizontal size of the aspect ratio corresponding to the divided image is extremely longer than the vertical size.

(2)集中線モデルの応用例
本実施形態の集中線モデルは、図14(A)〜(D)に示すように、線ポリゴンによって構成されるモデルであってもよい。つまり、モデリング座標系の原点0を中心点とするxy平面上の半径rの円上の複数の任意の点を、z負方向に平行に移動させた線ポリゴンであってもよい。各線ポリゴンの長さは不均一でもよいし、均一であってもよい。
(2) Application Example of Concentrated Line Model The concentrated line model of the present embodiment may be a model composed of line polygons as shown in FIGS. That is, it may be a line polygon obtained by moving a plurality of arbitrary points on a circle with a radius r on the xy plane centered at the origin 0 of the modeling coordinate system in parallel with the negative z direction. The length of each line polygon may be non-uniform or uniform.

本実施形態の集中線モデルは、図15(A)〜(D)に示すように、ポリゴン間に隙間が生じるような形状であってもよい。つまり、xy平面上の半径rの円を内包する多角形の辺のうち任意の辺によって構成されるポリゴンによって構成されるものでもよい。   As shown in FIGS. 15A to 15D, the concentrated line model of the present embodiment may have a shape in which a gap is generated between polygons. That is, it may be constituted by a polygon constituted by an arbitrary side among polygon sides including a circle having a radius r on the xy plane.

本実施形態の集中線モデルは、図16(A)に示すようなモデルであってもよい。つまり、集中線モデルを構成するポリゴンの先端がz軸へ向かってすぼまるような形状であってもよい。なお、かかる場合には、生成される画像において、各ポリゴンが交差しないように、当該点の移動距離を制限することが望ましい。なお、このような集中線モデルを用いた場合には、透視変換処理をなされた画像は、集中度合いが高いポリゴンが視線方向に集中するような画像が生成されることになる。   The concentrated line model of the present embodiment may be a model as shown in FIG. In other words, the shape may be such that the tips of the polygons forming the concentrated line model sag toward the z-axis. In such a case, it is desirable to limit the movement distance of the point so that the polygons do not intersect in the generated image. Note that, when such a concentrated line model is used, an image in which polygons having a high degree of concentration are concentrated in the line-of-sight direction is generated from the image subjected to the perspective transformation process.

また、本実施形態の集中線モデルは、図16(B)に示すようなモデルであってもよい。つまり、集中線モデルを構成するポリゴンの先端がz軸から放射状に放たれるような形状としてもよい。なお、かかる集中線モデルを用いた場合には、ポリゴンが透視変換処理をなされた画像は、集中度合いが低いポリゴンが視線方向に集中するような画像が生成されることになる。   Further, the concentrated line model of the present embodiment may be a model as shown in FIG. In other words, the shape of the polygons constituting the concentrated line model may be such that the tips of the polygons are emitted radially from the z-axis. When such a concentrated line model is used, an image in which polygons having undergone perspective transformation processing are generated such that polygons having a low concentration level are concentrated in the line-of-sight direction.

(3)円筒モデルにテクスチャをマッピングする手法
なお、本実施形態では、図17(A)に示す円筒モデル(楕円筒モデル)を集中線モデルとして用いてもよい。かかる場合には、図17(B)に示す集中線の模様が施された集中線テクスチャTXTを円筒モデルにテクスチャマッピングを行うようにしてもよい。すなわち、集中線テクスチャTXTは、集中線テクスチャTXTの先端(U=0)から末端(U=1)に向けて、とげ状の模様が施された画像である。そして、集中線テクスチャの先端(U=0)が円筒モデルの仮想カメラから見ての手前側に、集中線テクスチャの末端が円筒モデルの仮想カメラから見て奥側になるように、円筒モデルの内側に集中線テクスチャTXTをマッピングする処理を行う。このようにすれば、図17(C)に示すような集中線模様が施された画像を生成することができる。
(3) Method of mapping texture on cylindrical model In this embodiment, the cylindrical model (elliptical cylinder model) shown in FIG. 17A may be used as the concentrated line model. In such a case, texture mapping may be performed on the cylindrical model using the concentrated line texture TXT provided with the concentrated line pattern shown in FIG. That is, the concentrated line texture TXT is an image in which a thorn-like pattern is applied from the front end (U = 0) to the end (U = 1) of the concentrated line texture TXT. The tip of the concentrated line texture (U = 0) is on the front side when viewed from the virtual camera of the cylindrical model, and the end of the concentrated line texture is on the rear side when viewed from the virtual camera of the cylindrical model. A process of mapping the concentrated line texture TXT inside is performed. In this way, an image with a concentrated line pattern as shown in FIG. 17C can be generated.

なお、集中線テクスチャの解像度は高いほうが望ましい。集中線テクスチャTXTの模様が手前に大きく見えるので、プレーヤに違和感を与えないようにするためである。   It is desirable that the resolution of the concentrated line texture is higher. This is to prevent the player from feeling uncomfortable because the pattern of the concentrated line texture TXT looks large in front.

(4)複数の集中線モデルを用いて描画する手法
本実施形態では、複数の集中線モデルを用意し、仮想カメラの移動速度や、ゲーム状況に基づいて、複数の集中線モデルからいずれかの集中線モデルを選択し、選択された集中線モデルを用いて描画するようにしてもよい。このようにすれば、バリエーションに富んだ集中線を表現することができる。
(4) Method of drawing using a plurality of concentrated line models In this embodiment, a plurality of concentrated line models are prepared, and any one of the plurality of concentrated line models is selected based on the moving speed of the virtual camera or the game situation. A concentrated line model may be selected, and drawing may be performed using the selected concentrated line model. In this way, a concentrated line rich in variations can be expressed.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 集中線を表現する手法の一例。An example of a technique for expressing a concentrated line. 図3(A)〜(D)は、本実施形態の集中線モデルの一例。3A to 3D are examples of the concentrated line model of the present embodiment. 集中線モデルを構成するポリゴンの説明図。Explanatory drawing of the polygon which comprises a concentrated line model. 集中線モデルをオブジェクト空間に配置する手法の説明図。Explanatory drawing of the method of arrange | positioning a concentrated line model in object space. 透視変換後の集中線モデルの説明図。Explanatory drawing of the concentrated line model after perspective transformation. 図7(A)(B)は集中線モデルを構成するポリゴンの説明図。7A and 7B are explanatory diagrams of polygons constituting the concentrated line model. 図8(A)〜(C)は集中線モデルの回転制御の説明図。8A to 8C are explanatory diagrams of rotation control of the concentrated line model. 図9(A)〜(C)は集中線モデルの回転制御の説明図。9A to 9C are explanatory diagrams of rotation control of the concentrated line model. 図10(A)(B)は集中線モデルをオブジェクト空間に配置する手法の説明図。FIGS. 10A and 10B are explanatory diagrams of a technique for arranging the concentrated line model in the object space. 図11(A)(B)は集中線モデルをオブジェクト空間に配置する手法の説明図。FIGS. 11A and 11B are explanatory diagrams of a technique for arranging a concentrated line model in an object space. 本実施形態の処理のフローチャート。The flowchart of the process of this embodiment. 図13(A)(B)は、集中線モデルのスケーリングの説明図。13A and 13B are explanatory diagrams of scaling of the concentrated line model. 図14(A)〜(D)は、本実施形態の集中線モデルの一例。14A to 14D are examples of the concentrated line model of the present embodiment. 図15(A)〜(D)は、本実施形態の集中線モデルの一例。FIGS. 15A to 15D are examples of the concentrated line model of this embodiment. 図16(A)(B)は、本実施形態の集中線モデルの一例。FIGS. 16A and 16B are examples of the concentrated line model of the present embodiment. 図17(A)〜(C)は、本実施形態の集中線を表現するための手法を説明するための図。FIGS. 17A to 17C are views for explaining a technique for expressing a concentrated line according to the present embodiment.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、116 スケーリング制御部、118 回転制御部、
120 描画部、
122 カメラマトリクス演算部、124 頂点マトリクス演算部、
126 頂点処理部、130 音生成部、
160 操作部、170 記憶部、172 主記憶部、
174 描画バッファ、176 オブジェクトデータ記憶部、
178 テクスチャ記憶部、179 zバッファ、180 情報記憶媒体、
190 表示部、192 音出力部、196 通信部
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 116 scaling control unit, 118 rotation control unit,
120 drawing part,
122 camera matrix calculation unit, 124 vertex matrix calculation unit,
126 vertex processing units, 130 sound generation units,
160 operation unit, 170 storage unit, 172 main storage unit,
174 Drawing buffer, 176 Object data storage unit,
178 texture storage unit, 179 z buffer, 180 information storage medium,
190 Display unit, 192 Sound output unit, 196 Communication unit

Claims (14)

オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
複数のエフェクトオブジェクトによって構成される3次元のエフェクトモデルを記憶する記憶部と、
オブジェクト空間に、仮想カメラの位置・向きに応じて、前記エフェクトモデルを設定するオブジェクト空間設定部として、コンピュータを機能させ、
前記エフェクトモデルは、前記複数のエフェクトオブジェクトを所定軸周りに配置したモデルであって、
前記オブジェクト空間設定部が、
前記エフェクトモデルの前記所定軸側が仮想カメラから見える位置に、前記エフェクトモデルを設定することを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
A storage unit for storing a three-dimensional effect model composed of a plurality of effect objects;
In the object space, the computer functions as an object space setting unit that sets the effect model according to the position / orientation of the virtual camera.
The effect model is a model in which the plurality of effect objects are arranged around a predetermined axis,
The object space setting unit
A program for setting the effect model at a position where the predetermined axis side of the effect model can be seen from a virtual camera.
請求項1において、
前記エフェクトモデルを構成する前記複数のエフェクトオブジェクトそれぞれが、
前記所定軸方向の長さ成分を有することを特徴とするプログラム。
In claim 1,
Each of the plurality of effect objects constituting the effect model is
A program having a length component in the predetermined axial direction.
請求項1又は2において、
前記エフェクトモデルを構成する前記複数のエフェクトオブジェクトそれぞれの形状が、三角形であって、
前記エフェクトモデルが、
前記複数の三角形エフェクトオブジェクトそれぞれの一の稜線を連結して形成されていることを特徴とするプログラム。
In claim 1 or 2,
The shape of each of the plurality of effect objects constituting the effect model is a triangle,
The effect model is
A program formed by connecting one ridge line of each of the plurality of triangle effect objects.
請求項1〜3のいずれかにおいて、
前記エフェクトモデルを構成する前記複数のエフェクトオブジェクトそれぞれの形状が三角形であって、
前記エフェクトモデルは、
前記複数の三角形エフェクトオブジェクトそれぞれの面が、前記所定軸を取り囲む仮想的な筒の側面に沿うと共に、前記複数の三角形エフェクトオブジェクトそれぞれの一の稜線を、前記仮想的な筒の底面の外周に沿って配置されるモデルであることを特徴とするプログラム。
In any one of Claims 1-3,
The shape of each of the plurality of effect objects constituting the effect model is a triangle,
The effect model is
Each surface of the plurality of triangular effect objects is along the side surface of the virtual cylinder surrounding the predetermined axis, and one ridge line of each of the plurality of triangular effect objects is along the outer periphery of the bottom surface of the virtual cylinder. A program characterized by being a model placed in
請求項1〜4のいずれかにおいて、
前記オブジェクト空間設定部が、
仮想カメラの向きと前記所定軸とに基づいて、前記エフェクトモデルを配置することを特徴とするプログラム。
In any one of Claims 1-4,
The object space setting unit
A program characterized in that the effect model is arranged based on a direction of a virtual camera and the predetermined axis.
請求項1〜5のいずれかにおいて、
前記オブジェクト空間設定部が、
仮想カメラの視線と前記所定軸とに基づいて、前記エフェクトモデルを配置することを特徴とするプログラム。
In any one of Claims 1-5,
The object space setting unit
A program that arranges the effect model based on a line of sight of a virtual camera and the predetermined axis.
請求項1〜6のいずれかにおいて、
前記オブジェクト空間設定部が、
仮想カメラの視線上に前記所定軸を一致させて前記エフェクトモデルを配置することを特徴とするプログラム。
In any one of Claims 1-6,
The object space setting unit
A program characterized in that the effect model is arranged so that the predetermined axis coincides with the line of sight of a virtual camera.
請求項1〜7のいずれかにおいて、
前記エフェクトモデルを、前記所定軸方向、及び、前記所定軸に垂直であって、直交する2軸方向の少なくとも一方の軸方向に対して、スケーリングするスケーリング制御部として、コンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-7,
Causing the computer to further function as a scaling control unit that scales the effect model with respect to at least one of the two axial directions perpendicular to the predetermined axis and the predetermined axis. A featured program.
請求項8において、
前記スケーリング制御部が、
仮想カメラの移動速度に基づいて、スケーリングの倍率を求め、求めた倍率に基づいて、前記エフェクトモデルを前記所定軸方向にスケーリングすることを特徴とするプログラム。
In claim 8,
The scaling control unit
A program for obtaining a scaling magnification based on a moving speed of a virtual camera and scaling the effect model in the predetermined axis direction based on the obtained magnification.
請求項8又は9において、
前記スケーリング制御部が、
仮想カメラと前記エフェクトモデルの配置関係、及び、仮想カメラの画角とに基づいてスケーリングの倍率を求め、求めた倍率に基づいて、前記所定軸に垂直であって、直交する2軸方向の少なくとも一方の軸方向に対してスケーリングすることを特徴とするプログラム。
In claim 8 or 9,
The scaling control unit
A scaling magnification is obtained based on the arrangement relationship between the virtual camera and the effect model, and the angle of view of the virtual camera, and based on the obtained magnification, at least in a biaxial direction perpendicular to the predetermined axis and perpendicular to the predetermined axis. A program characterized by scaling with respect to one axial direction.
請求項1〜10のいずれかにおいて、
前記オブジェクト空間設定部が、
前記所定軸に対して回転させた前記エフェクトモデルを、オブジェクト空間に設定することを特徴とするプログラム。
In any one of Claims 1-10,
The object space setting unit
A program characterized in that the effect model rotated with respect to the predetermined axis is set in an object space.
請求項1〜11のいずれかにおいて、
前記オブジェクト空間設定部が、
前記所定軸に垂直であって、直交する2軸の少なくとも一方の軸に対して回転させた前記エフェクトモデルを、オブジェクト空間に設定することを特徴とするプログラム。
In any one of Claims 1-11,
The object space setting unit
A program characterized in that the effect model rotated with respect to at least one of two orthogonal axes perpendicular to the predetermined axis is set in an object space.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜12のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 12 is stored. オブジェクト空間における仮想カメラから見える画像を生成するための画像生成システムであって、
複数のエフェクトオブジェクトによって構成される3次元のエフェクトモデルを記憶する記憶部と、
オブジェクト空間に、仮想カメラの位置・向きに応じて、前記エフェクトモデルを設定するオブジェクト空間設定部とを含み、
前記エフェクトモデルは、前記複数のエフェクトオブジェクトを所定軸周りに配置したモデルであって、
前記オブジェクト空間設定部が、
前記エフェクトモデルの前記所定軸側が仮想カメラから見える位置に、前記エフェクトモデルを設定することを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
A storage unit for storing a three-dimensional effect model composed of a plurality of effect objects;
The object space includes an object space setting unit that sets the effect model according to the position / orientation of the virtual camera,
The effect model is a model in which the plurality of effect objects are arranged around a predetermined axis,
The object space setting unit
An image generation system, wherein the effect model is set at a position where the predetermined axis side of the effect model can be seen from a virtual camera.
JP2007317731A 2007-12-07 2007-12-07 Program, information storage medium, and image generation system Withdrawn JP2009140370A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007317731A JP2009140370A (en) 2007-12-07 2007-12-07 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007317731A JP2009140370A (en) 2007-12-07 2007-12-07 Program, information storage medium, and image generation system

Publications (1)

Publication Number Publication Date
JP2009140370A true JP2009140370A (en) 2009-06-25

Family

ID=40870883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007317731A Withdrawn JP2009140370A (en) 2007-12-07 2007-12-07 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP2009140370A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005227A (en) * 2013-06-21 2015-01-08 株式会社ソニー・コンピュータエンタテインメント Image processor, image processing system, and image processing method
JP2016028339A (en) * 2015-10-02 2016-02-25 ソニー株式会社 Image processor, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005227A (en) * 2013-06-21 2015-01-08 株式会社ソニー・コンピュータエンタテインメント Image processor, image processing system, and image processing method
JP2016028339A (en) * 2015-10-02 2016-02-25 ソニー株式会社 Image processor, image processing method, and program

Similar Documents

Publication Publication Date Title
JP2009237680A (en) Program, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2011053737A (en) Program, information storage medium and image generation device
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2007164557A (en) Program, information recording medium and image generation system
JP2007141082A (en) Program, texture data structure, information storage medium, and image generation system
JP4868586B2 (en) Image generation system, program, and information storage medium
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP2009169471A (en) Program, information storage medium, and image generation system
JP2009140370A (en) Program, information storage medium, and image generation system
JP2009205522A (en) Program, information storage medium, and information conversion system
JP2011215724A (en) Program, information storage medium, and image generation system
JP4754385B2 (en) Program, information recording medium, and image generation system
JP2009246600A (en) Production control program of sound generated from sound source in virtual space
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2009140371A (en) Program, information storage medium, and image generation system
JP2011209864A (en) Program, information storage medium, and image creation system
JP2010033297A (en) Program, information storage medium, and image generation system
JP4641831B2 (en) Program, information storage medium, and image generation system
JP2010033253A (en) Program, information storage medium, and image generation system
JP2006252423A (en) Program, information storage medium and image generation system
JP2010231364A (en) Image generation system, program and information recording medium
JP2009245133A (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110301