JP2009211243A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2009211243A
JP2009211243A JP2008051566A JP2008051566A JP2009211243A JP 2009211243 A JP2009211243 A JP 2009211243A JP 2008051566 A JP2008051566 A JP 2008051566A JP 2008051566 A JP2008051566 A JP 2008051566A JP 2009211243 A JP2009211243 A JP 2009211243A
Authority
JP
Japan
Prior art keywords
screen
coordinate system
screen mode
determined
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008051566A
Other languages
Japanese (ja)
Inventor
Ryoichi Kako
量一 加来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2008051566A priority Critical patent/JP2009211243A/en
Publication of JP2009211243A publication Critical patent/JP2009211243A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium, and an image generation system for generating an image which can be displayed without destroying its vertical and horizontal balance in each of two screen modes whose aspect rates are different. <P>SOLUTION: This program for generating an image which can be viewed from a virtual camera in an object space is provided to make a computer function as a screen mode determination part for determining a screen mode based on selection input to select the screen mode of either a first screen or a second screen whose aspect rates are different and a plotting part for converting the coordinates of each vertex configuring an object arranged in the object space into a visual point coordinate system, and for converting it into a projective coordinate system for performing drawing process. The plotting part is characterized to adjust the field angle of the virtual camera according to the determined screen mode in converting the coordinates of each vertex into the projective coordinate system. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来から、複数のポリゴンが設定されるオブジェクト空間(仮想的な3次元空間)内において、仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。   Conventionally, an image generation system (game system) that generates an image viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which a plurality of polygons are set is known. It is very popular for experiencing so-called virtual reality.

このような画像生成システムでは、ゲーム画面をワイド画面対応により表示した場合にゲーム画面上のキャラクタが横に広がってゲーム画面全体のバランスが崩れることを防止するために、ワイド画面が選択された場合にワイド画面の拡大率の逆数倍に縮小する変換マトリクスによってキャラクタの図形データを表現するポリゴンの各頂点の座標を視点座標系に変換するものが知られている(例えば、特許文献1)。
特許第3965705号公報
In such an image generation system, when the game screen is displayed with wide screen support, when the wide screen is selected to prevent the characters on the game screen from spreading sideways and the balance of the entire game screen is lost. In addition, there is known a technique that converts the coordinates of each vertex of a polygon representing graphic data of a character into a viewpoint coordinate system using a conversion matrix that is reduced to a reciprocal of the enlargement ratio of the wide screen (for example, Patent Document 1).
Japanese Patent No. 3965705

しかしながら従来の画像生成システムでは、キャラクタの図形データを処理対象としており画面全体での処理を行うことができなかった。   However, in the conventional image generation system, the graphic data of the character is a processing target, and the entire screen cannot be processed.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、アスペクト比が異なる2つの画面モードのそれぞれにおいて、縦横のバランスを崩さず表示することが可能な画像を生成することができるプログラム、情報記憶媒体、及び画像生成システムを提供することにある。   The present invention has been made in view of the problems as described above, and an object of the present invention is to provide an image that can be displayed without losing the balance between vertical and horizontal directions in each of two screen modes having different aspect ratios. It is another object of the present invention to provide a program, an information storage medium, and an image generation system.

(1)本発明は、オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
画面のアスペクト比が互いに異なる第1の画面及び第2の画面のいずれかの画面モードを選択する選択入力に基づいて、画面モードを決定する画面モード決定部と、
オブジェクト空間に配置されたオブジェクトを構成する各頂点の座標を視点座標系に変換し、さらに射影座標系に変換して描画処理を行う描画部としてコンピュータを機能させ、
前記描画部は、
前記各頂点の座標を射影座標系に変換する際に、決定された画面モードに応じて仮想カメラの画角を調整することを特徴とする。
(1) The present invention is a program for generating an image visible from a virtual camera in an object space,
A screen mode determination unit that determines a screen mode based on a selection input for selecting one of the first screen and the second screen having different aspect ratios of the screen;
Convert the coordinates of each vertex constituting the object placed in the object space to the viewpoint coordinate system, further convert it to a projective coordinate system, and let the computer function as a drawing unit that performs drawing processing,
The drawing unit
The angle of view of the virtual camera is adjusted according to the determined screen mode when the coordinates of each vertex are converted into the projected coordinate system.

また本発明は上記各部を含む画像生成システムに関係する。また本発明はコンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to an image generation system including the above-described units. The present invention is also a computer-readable information storage medium, and relates to an information storage medium storing a program that causes a computer to function as each of the above-described units.

本発明によれば、射影変換(透視投影変換)時に、決定された画面モードに応じて仮想カメラの画角を調整することにより、アスペクト比が異なる2つの画面モードのそれぞれにおいて、縦横のバランスを崩さず表示することが可能な画像を生成することができる。   According to the present invention, at the time of projective transformation (perspective projection transformation), by adjusting the angle of view of the virtual camera according to the determined screen mode, the vertical and horizontal balances can be obtained in each of the two screen modes having different aspect ratios. An image that can be displayed without breaking down can be generated.

(2)また本発明に係るプログラム及び情報記憶媒体では、
前記第2の画面は、前記第1の画面を横方向に拡大した画面であって、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、前記各頂点の座標を射影座標系に変換する際に、仮想カメラの画面横方向の画角を拡大することを特徴とする。
(2) In the program and information storage medium according to the present invention,
The second screen is a screen obtained by enlarging the first screen in a horizontal direction,
The drawing unit
When the screen mode is determined to be the second screen, the angle of view in the horizontal direction of the virtual camera is enlarged when the coordinates of each vertex are converted into the projected coordinate system.

本発明によれば、横方向に拡大した画面モードにおいて、縦横のバランスを崩さず表示することが可能な画像を生成することができる。   According to the present invention, it is possible to generate an image that can be displayed without breaking the balance between the vertical and horizontal directions in the screen mode expanded in the horizontal direction.

(3)また本発明に係るプログラム及び情報記憶媒体では、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、画面横方向に前記第1の画面に対する前記第2の画面の拡大率の逆数倍に縮小する射影マトリクスに基づいて、前記各頂点の座標を射影座標系に変換することを特徴とする。
(3) In the program and information storage medium according to the present invention,
The drawing unit
When the screen mode is determined to be the second screen, each of the vertices is based on a projection matrix that is reduced in the horizontal direction of the screen to a reciprocal of the enlargement ratio of the second screen with respect to the first screen. It is characterized in that the coordinates of are converted into a projective coordinate system.

本発明によれば、横方向に拡大した画面モードにおいて、縦横のバランスを崩さず表示することが可能な画像を生成することができる。   According to the present invention, it is possible to generate an image that can be displayed without breaking the balance between the vertical and horizontal directions in the screen mode expanded in the horizontal direction.

(4)また本発明に係るプログラム及び情報記憶媒体では、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、前記描画処理によって生成された画像に対して平滑化処理を行って表示部に出力することを特徴とする。
(4) In the program and information storage medium according to the present invention,
The drawing unit
When the screen mode is determined to be the second screen, the image generated by the drawing process is subjected to a smoothing process and output to the display unit.

本発明によれば、横方向に拡大した画面モードにおいて、生成した画像に対して平滑化処理を行うことで、生成した画像が横方向に引き伸ばされて表示部に表示された場合に、見た目に不自然な画像とならないようにすることができる。   According to the present invention, when the generated image is stretched in the horizontal direction and displayed on the display unit by performing the smoothing process on the generated image in the screen mode expanded in the horizontal direction, It is possible to prevent an unnatural image.

(5)また本発明に係るプログラム及び情報記憶媒体では、
前記描画部は、
決定された画面モードに応じて異なるパラメータを用いて前記平滑化処理を行うことを特徴とする。
(5) In the program and information storage medium according to the present invention,
The drawing unit
The smoothing process is performed using different parameters according to the determined screen mode.

(6)また本発明に係るプログラム及び情報記憶媒体では、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、前記描画処理によって生成された画像を、画面横方向に前記第1の画面に対する第2の画面の拡大率より小さい拡大率によって拡大して表示部に出力することを特徴とする。
(6) In the program and information storage medium according to the present invention,
The drawing unit
When the screen mode is determined to be the second screen, the image generated by the drawing process is enlarged in the horizontal direction of the screen with an enlargement ratio smaller than the enlargement ratio of the second screen with respect to the first screen. Output to the display unit.

(7)また本発明に係るプログラム及び情報記憶媒体では、
前記描画部は、
決定された画面モードに応じて解像度の異なるテクスチャをオブジェクトにマッピングすることを特徴とする。
(7) In the program and information storage medium according to the present invention,
The drawing unit
It is characterized in that textures having different resolutions are mapped to objects according to the determined screen mode.

本発明によれば、横方向に拡大した画面モードにおいて、横方向に引き伸ばされて表示部に表示された場合に、見た目に不自然な画像とならないようにすることができる。   According to the present invention, in the screen mode expanded in the horizontal direction, when the image is stretched in the horizontal direction and displayed on the display unit, an unnatural image can be prevented.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤがオブジェクト(移動体、プレーヤキャラクタ)の操作データを入力するためのものであり、その機能は、キーボート、マウス、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data of an object (moving body, player character), and functions thereof are a keyboard, a mouse, a lever, a button, a steering, a microphone, a touch panel type display, a casing, and the like. Can be realized.

特に本実施形態の操作部160は、画面のアスペクト比が互いに異なる第1の画面及び第2の画面のいずれかの画面モードを選択するための操作データを入力するものである。   In particular, the operation unit 160 of the present embodiment inputs operation data for selecting one of the screen modes of the first screen and the second screen having different screen aspect ratios.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。なお、オブジェクトデータ記憶部176は、オブジェクトのオブジェクトデータが記憶される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The object data storage unit 176 stores object data of objects.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば他のゲームシステム、サーバ)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, other game systems and servers), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. realizable.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲームシステムを機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the program and data are received and the game system is made to function is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied.

この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、画面モード決定部108、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes a screen mode determination unit 108, an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

画面モード決定部108は、操作部160からの、画面のアスペクト比が互いに異なる第1の画面及び第2の画面のいずれかの画面モードを選択する選択入力に基づいて、画面モードを決定する。   The screen mode determination unit 108 determines the screen mode based on a selection input for selecting one of the first screen and the second screen having different screen aspect ratios from the operation unit 160.

オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 is an object composed of various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as characters, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). ) Is set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

移動・動作処理部112は、オブジェクト(キャラクタ、移動体オブジェクト等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (character, moving object, etc.). In other words, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, or the like, the object is moved in the object space or the object is moved ( (Motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), or the like, the position (X, Y, Z) or rotation angle (for example, the virtual camera in the world coordinate system) A process of controlling the rotation angle in the case where the X, Y, and Z axes rotate clockwise as viewed from the positive direction is performed. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted). To do. Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object data storage unit 176.

特に本実施形態の描画部120は、オブジェクト空間に配置されたオブジェクトを構成する各頂点の座標を視点座標系に変換(視野変換)し、さらに射影座標系に変換(射影変換)して描画処理を行い、前記各頂点の座標を射影座標系に変換する際に、画面モード決定部108によって決定された画面モードに応じて仮想カメラの画角を調整する。   In particular, the drawing unit 120 according to the present embodiment converts the coordinates of each vertex constituting an object arranged in the object space into a viewpoint coordinate system (view conversion), and further converts into a projective coordinate system (projection conversion) to perform drawing processing. The angle of view of the virtual camera is adjusted according to the screen mode determined by the screen mode determination unit 108 when the coordinates of each vertex are converted into the projected coordinate system.

また描画部120は、前記第2の画面が前記第1の画面を横方向に拡大した画面である場合に、画面モード決定部108によって画面モードが前記第2の画面に決定された場合には、前記各頂点の座標を射影座標系に変換する際に、仮想カメラの画面横方向の画角を拡大するようにしてもよい。   In addition, when the second screen is a screen obtained by enlarging the first screen in the horizontal direction, and the screen mode determination unit 108 determines that the screen mode is the second screen, the drawing unit 120 The angle of view of the virtual camera in the horizontal direction of the screen may be enlarged when the coordinates of the vertices are converted into the projected coordinate system.

また描画部120は、画面モード決定部108によって画面モードが前記第2の画面に決定された場合には、画面横方向に前記第1の画面に対する前記第2の画面の拡大率の逆数倍に縮小する射影マトリクスに基づいて、前記各頂点の座標を射影座標系に変換するようにしてもよい。   In addition, when the screen mode determination unit 108 determines the screen mode to be the second screen, the drawing unit 120 is the reciprocal times the magnification of the second screen with respect to the first screen in the horizontal direction of the screen. The coordinates of each vertex may be converted into a projected coordinate system based on a projection matrix that is reduced to

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

特に本実施形態体の描画部120は、画面モード決定部108によって画面モードが前記第2の画面に決定された場合には、前記描画処理によって生成された画像に対して平滑化処理(アンチエイリアス)を行って描画バッファ174に出力するようにしてもよい。   In particular, when the screen mode determination unit 108 determines the screen mode to be the second screen, the rendering unit 120 of the present embodiment performs a smoothing process (anti-aliasing) on the image generated by the rendering process. May be output to the drawing buffer 174.

また描画部120は、決定された画面モードに応じて異なるパラメータを用いて前記平滑化処理を行うようにしてもよい。   The drawing unit 120 may perform the smoothing process using different parameters according to the determined screen mode.

また描画部120は、画面モードが前記第2の画面に決定された場合には、前記描画処理によって生成された画像を、画面横方向に前記第1の画面に対する第2の画面の拡大率より小さい拡大率によって拡大して表示部190に出力するようにしてもよい。   In addition, when the screen mode is determined to be the second screen, the drawing unit 120 displays the image generated by the drawing process in the horizontal direction of the screen from the enlargement ratio of the second screen with respect to the first screen. The image may be enlarged and output to the display unit 190 with a small magnification.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際にテクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs texture mapping, hidden surface removal processing, α blending, and the like when drawing the object.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

特に本実施形態体の描画部120は、画面モード決定部108によって決定された画面モードに応じてテクスチャ記憶部178から解像度の異なるテクスチャを読み出してオブジェクトにマッピングするようにしてもよい。   In particular, the drawing unit 120 of this embodiment may read out textures having different resolutions from the texture storage unit 178 according to the screen mode determined by the screen mode determination unit 108 and map them to the object.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2−1.仮想カメラの画角の調整
図2(A)、図2(B)は、射影変換について説明するための図である。
2-1. Adjustment of angle of view of virtual camera FIGS. 2A and 2B are diagrams for explaining projective transformation.

本実施形態では、画面モードとしてアスペクト比(縦横比)4:3のノーマル画面(第1の画面)と、アスペクト比16:9のワイド画面(第2の画面)とが用意されており、プレーヤによる選択入力によって画面モードを決定する。   In this embodiment, a normal screen (first screen) with an aspect ratio (aspect ratio) of 4: 3 and a wide screen (second screen) with an aspect ratio of 16: 9 are prepared as screen modes. The screen mode is determined by the selection input by.

そして、オブジェクト空間に配置されたオブジェクトを構成する各頂点の座標を視点座標系に変換(視野変換)し、さらに射影座標系に変換(射影変換)する際に、決定された画面モードに応じて仮想カメラの画角を調整する。   Then, when the coordinates of each vertex constituting the object arranged in the object space are converted into the viewpoint coordinate system (field conversion) and further converted into the projective coordinate system (projection conversion), depending on the determined screen mode Adjust the angle of view of the virtual camera.

すなわち、決定された画像モードに応じて異なる形状のビューボリュームを視点座標系に設定する。具体的には、画面モードがノーマル画面に決定された場合には、図2(A)に示すように、アスペクト比(w/h)が4/3のビューボリュームVV1を視点座標系に設定し、画面モードがワイド画面に選択された場合には、図2(B)に示すように、アスペクト比(w/h)が16/9のビューボリュームVV2を視点座標系に設定する。図2(B)に示すビューボリュームVV2は、図2(A)に示すビューボリュームVV1に比べて、仮想カメラVCのX軸方向の画角(視野角)θxが4/3倍に拡大している。   That is, a view volume having a different shape is set in the viewpoint coordinate system according to the determined image mode. Specifically, when the screen mode is determined to be a normal screen, as shown in FIG. 2A, a view volume VV1 with an aspect ratio (w / h) of 4/3 is set as the viewpoint coordinate system. When the wide screen is selected as the screen mode, as shown in FIG. 2B, the view volume VV2 having an aspect ratio (w / h) of 16/9 is set in the viewpoint coordinate system. The view volume VV2 shown in FIG. 2B has an angle of view (viewing angle) θx in the X-axis direction of the virtual camera VC that is 4/3 times larger than the view volume VV1 shown in FIG. Yes.

ここで視点座標系から射影座標系への射影変換は射影マトリクスR(変換マトリクス)に基づき行われ、射影マトリクスRは、次式により表すことができる。   Here, the projective transformation from the viewpoint coordinate system to the projective coordinate system is performed based on a projection matrix R (conversion matrix), and the projection matrix R can be expressed by the following equation.

Figure 2009211243
Figure 2009211243

なお、パラメータnは、ニアプレーン面NP(仮想カメラVCから近いクリップ平面)のZ座標値であり、パラメータfは、ファープレーン面FP(仮想カメラVCから遠いクリップ平面)のZ座標値である。またパラメータl、rは、それぞれニアプレーン面NPの左端、右端のX座標値であり、パラメータt、bは、それぞれニアプレーン面NPの上端、下端のY座標値である。   The parameter n is the Z coordinate value of the near plane surface NP (clip plane near the virtual camera VC), and the parameter f is the Z coordinate value of the far plane surface FP (clip plane far from the virtual camera VC). The parameters l and r are the X coordinate values of the left end and the right end of the near plane surface NP, respectively, and the parameters t and b are the Y coordinate values of the upper end and the lower end of the near plane surface NP, respectively.

本実施形態では、画面モードがノーマル画面に決定された場合には、アスペクト比(r−l)/(t−b)が4/3となるように各パラメータを設定して射影マトリクスRを求め、画面モードがワイド画面に決定された場合には、アスペクト比(r−l)/(t−b)が16/9となるように各パラメータを設定して射影マトリクスRを求める。   In this embodiment, when the screen mode is determined to be a normal screen, the projection matrix R is obtained by setting each parameter so that the aspect ratio (rl) / (tb) is 4/3. When the screen mode is determined to be a wide screen, the projection matrix R is obtained by setting each parameter so that the aspect ratio (rl) / (tb) is 16/9.

ビューボリューム内のオブジェクトを構成する各頂点の座標は、射影変換により図3に示す射影座標系CC(クリップ座標系)に変換され、さらにビューポート変換によりスクリーン座標系に変換される。   The coordinates of each vertex constituting the object in the view volume are converted into a projective coordinate system CC (clip coordinate system) shown in FIG. 3 by projective transformation, and further converted into a screen coordinate system by viewport transformation.

図4(A)、図4(B)は、スクリーン座標系について説明するための図である。図4(A)は、画面モードがノーマル画面に決定された場合の、スクリーン座標系SCにおけるオブジェクトOBを示し、図4(B)は、画面モードがワイド画面に決定された場合の、スクリーン座標系SCにおけるオブジェクトOBを示す。   4A and 4B are diagrams for explaining the screen coordinate system. FIG. 4A shows an object OB in the screen coordinate system SC when the screen mode is determined as a normal screen, and FIG. 4B shows the screen coordinates when the screen mode is determined as a wide screen. An object OB in the system SC is shown.

本実施形態のスクリーン座標系SCでは、ビューポートVPのアスペクト比は4/3であり、その領域はX軸方向に0〜640、Y軸方向に0〜480であり、描画バッファ174(レンダリングターゲット)の領域(640×480)と対応している。   In the screen coordinate system SC of the present embodiment, the aspect ratio of the viewport VP is 4/3, and the area is 0 to 640 in the X axis direction and 0 to 480 in the Y axis direction, and the drawing buffer 174 (rendering target) ) Region (640 × 480).

図4(A)に示すように、画面モードがノーマル画面である場合には、射影変換の際のビューボリュームVV1のアスペクト比とビューポートVPのアスペクト比が一致しているため、スクリーン座標系SCにおけるオブジェクトOBの縦横のバランスに変化はない。   As shown in FIG. 4A, when the screen mode is a normal screen, the aspect ratio of the view volume VV1 and the aspect ratio of the viewport VP at the time of projective conversion coincide with each other. There is no change in the vertical and horizontal balance of the object OB.

一方、図4(B)に示すように、画面モードがワイド画面である場合には、射影変換の際のビューボリュームVV2のアスペクト比が16/9であるのに対して、ビューポートのアスペクト比が4/3であるために、スクリーン座標系SCにおけるオブジェクトOBがX軸方向(画面横方向)に縮小している。具体的にはノーマル画面に対するワイド画面の拡大率(4/3)の逆数倍(3/4)に縮小している。   On the other hand, as shown in FIG. 4B, when the screen mode is a wide screen, the aspect ratio of the view volume VV2 at the time of projective conversion is 16/9, whereas the aspect ratio of the viewport Is 4/3, the object OB in the screen coordinate system SC is reduced in the X-axis direction (screen horizontal direction). Specifically, the image is reduced to an inverse number (3/4) of the enlargement ratio (4/3) of the wide screen with respect to the normal screen.

図5(A)、図5(B)は、表示部に表示されるゲーム画面の一例である。   FIG. 5A and FIG. 5B are examples of game screens displayed on the display unit.

図5(A)に示すように、画面モードがノーマル画面に決定された場合には、表示部190にアスペクト比4:3のノーマル画面NSが表示される。また図5(B)に示すように、画面モードがワイド画面に決定された場合には、表示部190にアスペクト比16:9のワイド画面WSが表示される。   As shown in FIG. 5A, when the screen mode is determined to be a normal screen, a normal screen NS with an aspect ratio of 4: 3 is displayed on the display unit 190. As shown in FIG. 5B, when the screen mode is determined to be a wide screen, a wide screen WS having an aspect ratio of 16: 9 is displayed on the display unit 190.

なお図5(B)の場合には、描画バッファ174に記憶されたアスペクト比4:3の画像データが画面横方向に約1.11倍(ノーマル画面に対するワイド画面の拡大率(4/3)より小さい拡大率)に拡大されて表示部190に対して出力され、表示部190においてさらに画面横方向に約1.2倍に拡大されてワイド画面WSとして表示される。従ってスクリーン座標系SCにおいて横方向に縮小されたオブジェクトOBは、ワイド画面WSにおいて画面横方向に4/3倍に拡大され、縦横のバランスが本来のものに戻っている。   In the case of FIG. 5B, the image data having the aspect ratio of 4: 3 stored in the drawing buffer 174 is approximately 1.11 times in the horizontal direction of the screen (wide screen enlargement ratio (4/3) with respect to the normal screen). And is output to the display unit 190. The display unit 190 further enlarges the image by about 1.2 times in the horizontal direction of the screen and displays it as a wide screen WS. Therefore, the object OB reduced in the horizontal direction in the screen coordinate system SC is enlarged 4/3 times in the horizontal direction of the screen on the wide screen WS, and the vertical and horizontal balance is restored to the original.

このように、画面モードがワイド画面に決定された場合には、仮想カメラの画角横方向に拡大して射影変換を行う(スクリーン座標系においてオブジェクトの各頂点が横方向に縮小されるような射影マトリクスに基づき射影変換を行う)ことにより、横方向に拡大したワイド画面においても縦横のバランスを崩さず表示することができる。   Thus, when the screen mode is determined to be a wide screen, projection transformation is performed by enlarging the horizontal angle of view of the virtual camera (such that each vertex of the object is reduced in the horizontal direction in the screen coordinate system). By performing the projective transformation based on the projection matrix), the vertical and horizontal balance can be displayed even on a wide screen enlarged in the horizontal direction.

なおワイド画面時に、描画バッファ174からアスペクト比4:3の画像データをそのまま表示部190に対して出力し、表示部190において画面横方向に4/3倍に拡大されてワイド画面WSとして表示されるようにしてもよい。   In the wide screen mode, image data having an aspect ratio of 4: 3 is output from the drawing buffer 174 to the display unit 190 as it is, and the display unit 190 enlarges the image by a factor of 4/3 in the horizontal direction of the screen and displays it as a wide screen WS. You may make it do.

2−2.平滑化処理
図6は、本実施形態における平滑化処理について説明するための図である。
2-2. Smoothing Process FIG. 6 is a diagram for explaining the smoothing process in the present embodiment.

本実施形態では、画面モードがワイド画面に決定された場合には、描画された画像に対して平滑化処理を行って表示部に出力する画像に対して平滑化処理を行って表示部に出力する。   In this embodiment, when the screen mode is determined to be a wide screen, the rendered image is subjected to smoothing processing and output to the display unit, and then output to the display unit. To do.

例えば、図6のA1に示すように、描画バッファ174に描画された元画像OIを拡大処理して描画バッファ174よりサイズの大きいワークバッファに描画し、さらにワークバッファに描画された拡大画像EIを縮小処理して描画バッファ174に描画することで平滑化処理を行う。なお、元画像を縦又は横方向にずらしたワーク画像をワークバッファに描画して、このワーク画像を元画像に合成することにより平滑化処理を行ってもよい。   For example, as shown at A1 in FIG. 6, the original image OI drawn in the drawing buffer 174 is enlarged and drawn in a work buffer larger in size than the drawing buffer 174, and the enlarged image EI drawn in the work buffer is further drawn. Smoothing processing is performed by performing reduction processing and drawing in the drawing buffer 174. Note that a smoothing process may be performed by drawing a work image obtained by shifting the original image in the vertical or horizontal direction in the work buffer and synthesizing the work image with the original image.

このように、画面モードがワイド画面に決定された場合には、描画された画像に対して平滑化処理を行って表示部190に出力することで、表示部190において画面横方向に拡大された場合に、見た目に自然な画像とすることができる。   As described above, when the screen mode is determined to be the wide screen, the rendered image is subjected to smoothing processing and output to the display unit 190, whereby the display unit 190 is enlarged in the horizontal direction of the screen. In some cases, it can be a natural image.

なお、ノーマル画面時にも平滑化処理を行うようにして、画面モードに応じて平滑化処理に用いるパラメータの値を変更するようにしてもよい。例えばワイド画面時には、元画像OIの拡大率をノーマル画面時に比べて大きくして、平滑化の効果がより強く出るようにしてもよい。   Note that the smoothing process may be performed even during the normal screen, and the parameter values used for the smoothing process may be changed according to the screen mode. For example, when the wide screen is used, the enlargement ratio of the original image OI may be set larger than that during the normal screen so that the smoothing effect is enhanced.

2−3.テクスチャマッピング
図7(A)、図7(B)は、本実施形態におけるテクスチャマッピングについて説明するための図である。なお、図7(A)は、ノーマル画面用のテクスチャを示し、図7(B)は、ワイド画面用のテクスチャを示す。
2-3. Texture Mapping FIGS. 7A and 7B are diagrams for describing texture mapping in the present embodiment. 7A shows a texture for a normal screen, and FIG. 7B shows a texture for a wide screen.

本実施形態では、決定された画面モードに応じて解像度の異なるテクスチャをオブジェクトにマッピングする。   In the present embodiment, textures having different resolutions are mapped to objects according to the determined screen mode.

例えば、テクスチャ記憶部176に、ノーマル画面用のテクスチャNTと、ノーマル画面用のテクスチャNTを横方向に3/4倍に縮小させた(ノーマル画面用のテクスチャNTの横方向の解像度を低くした)ワイド画面用のテクスチャWTとを記憶しておき、画面モードがノーマル画面に決定された場合には、ノーマル画面用のテクスチャNTをオブジェクトにマッピングし、画面モードがワイド画面に決定された場合には、ワイド画面用のテクスチャWTをオブジェクトにマッピングする。   For example, in the texture storage unit 176, the normal screen texture NT and the normal screen texture NT are reduced by a factor of 3/4 in the horizontal direction (the horizontal resolution of the normal screen texture NT is reduced). If the texture WT for the wide screen is stored and the screen mode is determined to be a normal screen, the texture NT for the normal screen is mapped to an object, and if the screen mode is determined to be a wide screen The texture WT for the wide screen is mapped to the object.

このように、画面モードがワイド画面に決定された場合には、予め横方向に縮小したテクスチャをスクリーン座標系のオブジェクト(横方向に縮小された)にマッピングすることにより、マッピング時にテクスチャの縦横のバランスを維持させることができる。すなわち、マッピング時にテクスチャが横方向に縮小され、テクスチャに表された文字がつぶれてしまうことを防止することができる。   As described above, when the screen mode is determined to be the wide screen, the texture that has been reduced in the horizontal direction in advance is mapped to the object in the screen coordinate system (reduced in the horizontal direction). Balance can be maintained. That is, it is possible to prevent the texture from being reduced in the horizontal direction during mapping and the characters represented in the texture from being crushed.

2−4.詳細度レベル(LOD)
図8(A)、図8(B)は、本実施形態の詳細度レベル(LOD)の制御について説明するための図である。
2-4. Level of detail (LOD)
8A and 8B are diagrams for explaining the control of the level of detail (LOD) according to the present embodiment.

本実施形態では、オブジェクト空間における仮想カメラとオブジェクトとの距離に基づいてオブジェクトの詳細度レベルを制御して描画処理を行う。具体的には、仮想カメラとオブジェクトとの距離が所定の閾値内であれば、当該オブジェクトについては詳細度レベル1による高精細なオブジェクトを描画する。また、仮想カメラとオブジェクトとの距離が所定の閾値を超えていれば、当該オブジェクトについては詳細度レベル2による低精細なオブジェクト(ポリゴン数や頂点数を削減されたオブジェクト)を描画する。さらに本実施形態では、決定された画面モードに応じて、この詳細度レベルを制御するための閾値を変更する。   In the present embodiment, drawing processing is performed by controlling the level of detail of an object based on the distance between the virtual camera and the object in the object space. Specifically, if the distance between the virtual camera and the object is within a predetermined threshold, a high-definition object with a level of detail level 1 is drawn for the object. If the distance between the virtual camera and the object exceeds a predetermined threshold value, a low-definition object (an object in which the number of polygons and vertices is reduced) with a level of detail 2 is drawn for the object. Furthermore, in the present embodiment, the threshold value for controlling the level of detail is changed according to the determined screen mode.

例えば、画面モードがノーマル画面に決定された場合には、図8(A)に示すように、閾値TH1を設定し、画面モードがワイド画面に決定された場合には、図8(B)に示すように、仮想カメラVCにより近い閾値TH2を設定する。すなわちノーマル画面時にはオブジェクトOB1、OB2が高精細に描画され、ワイド画面時には、最も仮想カメラVCに近いオブジェクトOB1のみが高精細に描画される。   For example, when the screen mode is determined to be a normal screen, a threshold value TH1 is set as shown in FIG. 8A, and when the screen mode is determined to be a wide screen, the screen shown in FIG. As shown, a threshold TH2 closer to the virtual camera VC is set. That is, the objects OB1 and OB2 are drawn with high definition on the normal screen, and only the object OB1 closest to the virtual camera VC is drawn with high definition on the wide screen.

ワイド画面時には、スクリーン座標系においてオブジェクトを構成する各頂点が横方向に縮小するため、仮想カメラVCからある程度離れたオブジェクトについてまで高精細なオブジェクトを描画したとしても、その効果はノーマル画面時と比べて減じてしまう。また、ワイド画面時には、画面に見えるオブジェクトがノーマル画面より広がるため、より多くの頂点を処理しなければならなくなる。従って、画面モードがワイド画面に決定された場合には、詳細度レベルの閾値をノーマル画面時より低く設定して高精細に描画する範囲を狭めることにより、無駄な演算処理をすることなく効率的な描画を行うことができる。   When the wide screen is used, each vertex constituting the object in the screen coordinate system is reduced in the horizontal direction. Therefore, even if a high-definition object is drawn up to an object that is somewhat distant from the virtual camera VC, the effect is higher than that of the normal screen. Will be reduced. Also, when the screen is wide, the objects visible on the screen are wider than the normal screen, so more vertices must be processed. Therefore, when the screen mode is determined to be a wide screen, the threshold of the level of detail is set lower than that in the normal screen to narrow the range of high-definition drawing, so that it is efficient without unnecessary computation processing. Simple drawing.

3.本実施形態の処理
次に、本実施形態の処理の一例について図9のフローチャートを用いて説明する。
3. Processing of this Embodiment Next, an example of processing of this embodiment will be described using the flowchart of FIG.

まず、オブジェクトを構成する各頂点の座標をワールド座標系に変換するワールド座標変換を行う(ステップS10)。次に、各頂点の座標を視点座標系に変換する視野変換を行う(ステップS12)。   First, world coordinate conversion is performed to convert the coordinates of each vertex constituting the object into the world coordinate system (step S10). Next, visual field conversion for converting the coordinates of each vertex into the viewpoint coordinate system is performed (step S12).

次に、画面モードがワイド画面であるか否かを判断し(ステップS14)、ワイド画面でない(ノーマル画面である)と判断した場合には、アスペクト比が4:3のビューボリュームを視点座標系に設定して、ビューボリューム内の各頂点の座標を射影座標系に変換する射影変換を行う(ステップS16)。   Next, it is determined whether or not the screen mode is a wide screen (step S14). If it is determined that the screen mode is not a wide screen (a normal screen), a view volume having an aspect ratio of 4: 3 is selected from the viewpoint coordinate system. Then, projective transformation is performed to transform the coordinates of each vertex in the view volume into a projected coordinate system (step S16).

ステップS14において、画面モードがワイド画面であると判断した場合には、アスペクト比が16:9のビューボリュームを視点座標系に設定して、ビューボリューム内の各頂点の座標を射影座標系に変換する射影変換を行う(ステップS18)。すなわち仮想カメラの横方向のみの画角を4/3倍に拡大して射影変換を行う。   If it is determined in step S14 that the screen mode is the wide screen, the view volume having an aspect ratio of 16: 9 is set as the viewpoint coordinate system, and the coordinates of each vertex in the view volume are converted into the projective coordinate system. Projective transformation is performed (step S18). That is, the projection transformation is performed by enlarging the angle of view of the virtual camera only in the horizontal direction by 4/3 times.

次に、各頂点の座標をスクリーン座標系に変換するビューポート変換を行い(ステップS20)、座標変換後のオブジェクトの描画色を描画バッファに出力する描画処理を行う(ステップS22)。   Next, viewport conversion is performed to convert the coordinates of each vertex into the screen coordinate system (step S20), and drawing processing for outputting the drawing color of the object after coordinate conversion to the drawing buffer is performed (step S22).

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

例えば、1の仮想カメラから見える画像を1画面に表示する場合について説明したが、2つの仮想カメラのそれぞれから見える画像を上下に2分割した画面のそれぞれに表示するようにしてもよい。この場合、画面モードとしてノーマル画面が決定された場合には、アスペクト比が8:3のビューボリュームを視点座標系に設定して射影変換を行い、ワイド画面が決定された場合にはアスペクト比が32:9のビューボリュームを視点座標系に設定して射影変換を行う。すなわち画面を2分割する場合でも、ワイド画面時には、仮想カメラの横方向のみの画角を4/3倍に拡大して射影変換を行う。   For example, the case where an image viewed from one virtual camera is displayed on one screen has been described, but an image viewed from each of the two virtual cameras may be displayed on each of the screens divided into two vertically. In this case, when the normal screen is determined as the screen mode, projective transformation is performed with the view volume having an aspect ratio of 8: 3 set as the viewpoint coordinate system, and when the wide screen is determined, the aspect ratio is Projective transformation is performed with the view volume of 32: 9 set in the viewpoint coordinate system. That is, even when the screen is divided into two, at the time of a wide screen, projection conversion is performed by enlarging the angle of view of only the horizontal direction of the virtual camera by 4/3 times.

本実施形態のゲームシステムの機能ブロック図の例。The example of a functional block diagram of the game system of this embodiment. 図2(A)、図2(B)は、射影変換について説明するための図。2A and 2B are diagrams for explaining projective transformation. 射影座標系を示す図。The figure which shows a projective coordinate system. 図4(A)、図4(B)は、スクリーン座標系について説明するための図。4A and 4B are diagrams for explaining the screen coordinate system. 図5(A)、図5(B)は、表示部に表示されるゲーム画面の一例。FIG. 5A and FIG. 5B are examples of the game screen displayed on the display unit. 平滑化処理について説明するための図。The figure for demonstrating a smoothing process. 図7(A)、図7(B)は、テクスチャマッピングについて説明するための図。7A and 7B are diagrams for explaining texture mapping. 図8(A)、図8(B)は、詳細度レベル(LOD)の制御について説明するための図。8A and 8B are diagrams for explaining the control of the level of detail (LOD). 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment.

符号の説明Explanation of symbols

100 処理部、108 画面モード決定部、110 オブジェクト空間設定部、112 移動・動作処理部、114 仮想カメラ制御部、120 描画部、130 音生成部、160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部 100 processing unit, 108 screen mode determination unit, 110 object space setting unit, 112 movement / motion processing unit, 114 virtual camera control unit, 120 drawing unit, 130 sound generation unit, 160 operation unit, 170 storage unit, 180 information storage medium 190 Display unit 192 Sound output unit 196 Communication unit

Claims (9)

オブジェクト空間における仮想カメラから見える画像を生成するためのプログラムであって、
画面のアスペクト比が互いに異なる第1の画面及び第2の画面のいずれかの画面モードを選択する選択入力に基づいて、画面モードを決定する画面モード決定部と、
オブジェクト空間に配置されたオブジェクトを構成する各頂点の座標を視点座標系に変換し、さらに射影座標系に変換して描画処理を行う描画部としてコンピュータを機能させ、
前記描画部は、
前記各頂点の座標を射影座標系に変換する際に、決定された画面モードに応じて仮想カメラの画角を調整することを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
A screen mode determination unit that determines a screen mode based on a selection input for selecting one of the first screen and the second screen having different aspect ratios of the screen;
Convert the coordinates of each vertex constituting the object placed in the object space to the viewpoint coordinate system, further convert it to a projective coordinate system, and let the computer function as a drawing unit that performs drawing processing,
The drawing unit
A program for adjusting the angle of view of a virtual camera in accordance with the determined screen mode when converting the coordinates of each vertex into a projected coordinate system.
請求項1において、
前記第2の画面は、前記第1の画面を横方向に拡大した画面であって、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、前記各頂点の座標を射影座標系に変換する際に、仮想カメラの画面横方向の画角を拡大することを特徴とするプログラム。
In claim 1,
The second screen is a screen obtained by enlarging the first screen in a horizontal direction,
The drawing unit
When the screen mode is determined to be the second screen, the horizontal camera angle of view of the virtual camera is enlarged when the coordinates of each vertex are converted into the projected coordinate system.
請求項2において、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、画面横方向に前記第1の画面に対する前記第2の画面の拡大率の逆数倍に縮小する射影マトリクスに基づいて、前記各頂点の座標を射影座標系に変換することを特徴とするプログラム。
In claim 2,
The drawing unit
When the screen mode is determined to be the second screen, each of the vertices is based on a projection matrix that is reduced in the horizontal direction of the screen to a reciprocal of the enlargement ratio of the second screen with respect to the first screen. A program characterized by converting the coordinates of to a projective coordinate system.
請求項2又は3のいずれかにおいて、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、前記描画処理によって生成された画像に対して平滑化処理を行って表示部に出力することを特徴とするプログラム。
In either claim 2 or 3,
The drawing unit
When the screen mode is determined to be the second screen, the program performs smoothing processing on the image generated by the drawing processing and outputs it to the display unit.
請求項4において、
前記描画部は、
決定された画面モードに応じて異なるパラメータを用いて前記平滑化処理を行うことを特徴とするプログラム。
In claim 4,
The drawing unit
A program for performing the smoothing process using different parameters according to the determined screen mode.
請求項2乃至5のいずれかにおいて、
前記描画部は、
画面モードが前記第2の画面に決定された場合には、前記描画処理によって生成された画像を、画面横方向に前記第1の画面に対する第2の画面の拡大率より小さい拡大率によって拡大して表示部に出力することを特徴とするプログラム。
In any of claims 2 to 5,
The drawing unit
When the screen mode is determined to be the second screen, the image generated by the drawing process is enlarged in the horizontal direction of the screen with an enlargement ratio smaller than the enlargement ratio of the second screen with respect to the first screen. Output to the display unit.
請求項1乃至6のいずれかにおいて、
前記描画部は、
決定された画面モードに応じて解像度の異なるテクスチャをオブジェクトにマッピングすることを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
The drawing unit
A program that maps textures having different resolutions to an object in accordance with a determined screen mode.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至7のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 7 is stored. オブジェクト空間における仮想カメラから見える画像を生成する画像生成システムであって、
画面のアスペクト比が互いに異なる第1の画面及び第2の画面のいずれかの画面モードを選択する選択入力に基づいて、画面モードを決定する画面モード決定部と、
オブジェクト空間に配置されたオブジェクトを構成する各頂点の座標を視点座標系に変換し、さらに射影座標系に変換して描画処理を行う描画部とを含み、
前記描画部は、
前記各頂点の座標を射影座標系に変換する際に、決定された画面モードに応じて仮想カメラの画角を調整することを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
A screen mode determination unit that determines a screen mode based on a selection input for selecting one of the first screen and the second screen having different aspect ratios of the screen;
A drawing unit that converts coordinates of each vertex constituting the object arranged in the object space into a viewpoint coordinate system, and further converts into a projected coordinate system to perform a drawing process,
The drawing unit
An image generation system that adjusts the angle of view of a virtual camera in accordance with a determined screen mode when converting the coordinates of each vertex into a projected coordinate system.
JP2008051566A 2008-03-03 2008-03-03 Program, information storage medium, and image generation system Withdrawn JP2009211243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008051566A JP2009211243A (en) 2008-03-03 2008-03-03 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008051566A JP2009211243A (en) 2008-03-03 2008-03-03 Program, information storage medium, and image generation system

Publications (1)

Publication Number Publication Date
JP2009211243A true JP2009211243A (en) 2009-09-17

Family

ID=41184336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008051566A Withdrawn JP2009211243A (en) 2008-03-03 2008-03-03 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP2009211243A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110251936A (en) * 2019-06-24 2019-09-20 网易(杭州)网络有限公司 The control method, equipment and storage medium of virtual camera in game

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110251936A (en) * 2019-06-24 2019-09-20 网易(杭州)网络有限公司 The control method, equipment and storage medium of virtual camera in game

Similar Documents

Publication Publication Date Title
JP2010033296A (en) Program, information storage medium, and image generation system
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
JP4804120B2 (en) Program, information storage medium, and image generation system
JP2006195882A (en) Program, information storage medium and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4651527B2 (en) Program, information storage medium, and image generation system
JP2011053737A (en) Program, information storage medium and image generation device
JP4868586B2 (en) Image generation system, program, and information storage medium
JP4754384B2 (en) Program, information recording medium, and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP2009169471A (en) Program, information storage medium, and image generation system
JP2006268103A (en) Program, information storage medium, model data structure, and image generation system
JP2009211243A (en) Program, information storage medium, and image generation system
JP4754385B2 (en) Program, information recording medium, and image generation system
JP2010033253A (en) Program, information storage medium, and image generation system
JP2010033297A (en) Program, information storage medium, and image generation system
JP2010033302A (en) Image generation system, program and information storage medium
JP2010231364A (en) Image generation system, program and information recording medium
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2009140370A (en) Program, information storage medium, and image generation system
JP2006277488A (en) Program, information storage medium and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2006252423A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110510