JP4827250B2 - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP4827250B2
JP4827250B2 JP2006254305A JP2006254305A JP4827250B2 JP 4827250 B2 JP4827250 B2 JP 4827250B2 JP 2006254305 A JP2006254305 A JP 2006254305A JP 2006254305 A JP2006254305 A JP 2006254305A JP 4827250 B2 JP4827250 B2 JP 4827250B2
Authority
JP
Japan
Prior art keywords
color
depth
parameter
virtual camera
cueing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006254305A
Other languages
Japanese (ja)
Other versions
JP2008077304A (en
Inventor
健司 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2006254305A priority Critical patent/JP4827250B2/en
Publication of JP2008077304A publication Critical patent/JP2008077304A/en
Application granted granted Critical
Publication of JP4827250B2 publication Critical patent/JP4827250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

近年、仮想的な3次元空間(以下、「オブジェクト空間」という。)に配置設定されたキャラクタなどのオブジェクトを、仮想カメラ(所与の視点)に基づく所定の画像として生成する画像生成システムが実用化されている。   In recent years, an image generation system that generates an object such as a character placed and set in a virtual three-dimensional space (hereinafter referred to as an “object space”) as a predetermined image based on a virtual camera (a given viewpoint) is practical. It has become.

このような画像生成システムは、仮想現実を体験させることができるものとして様々なシステムにて用いられるようになっており、特に、ゲームシステムにおいては、娯楽性及び興趣性を向上させるためものとして重要視されている。   Such an image generation system has come to be used in various systems as being able to experience virtual reality. In particular, in a game system, it is important for improving entertainment and entertainment. Is being viewed.

従来、このような画像生成システムにおいて、仮想カメラから見える画像における遠近感などを表現するため、仮想カメラからの距離に応じてオブジェクトの色に遠景の色を合成するデプスキューイング処理を行う方法が知られている。   Conventionally, in such an image generation system, in order to express a sense of perspective in an image seen from a virtual camera, there is a method of performing depth cueing processing that combines a distant color with an object color according to the distance from the virtual camera. Are known.

特に、最近では、オブジェクトの色と、遠景の色として設定されたターゲットとなる色とを線形補間するためのパラメータを用意し、そのようなパラメータを用いて仮想カメラにおける視点からの距離に応じて色を合成する代表的な方法が知られている。
特許第3656062号公報
In particular, recently, a parameter for linear interpolation between the object color and the target color set as the distant view color is prepared, and according to the distance from the viewpoint in the virtual camera using such a parameter. Representative methods for synthesizing colors are known.
Japanese Patent No. 3656062

しかしながら、上述のような画像生成システムにあっては、オブジェクトの色の合成率と、遠景の色の合成率とが補間関係を有していたため、オブジェクト空間内の情景(シチュエーション)を詳細に表現することができない場合も多い。   However, in the image generation system as described above, the composition ratio of the object color and the composition ratio of the distant view color have an interpolation relationship, so that the scene in the object space is expressed in detail. There are many cases where this is not possible.

本発明は上記事情に鑑みてなされたものであり、その目的は、より幅広く種々のシチュエーションを表現することができるとともに、簡単な処理にてリアリティのある画像を生成することができるプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above circumstances, and its object is to provide a program and an information storage capable of expressing a wider variety of situations and generating a realistic image by simple processing. To provide a medium and an image generation system.

(1)本発明は、仮想カメラから見える画像を生成するための画像生成システムであって、オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、前記オブジェクト空間における前記仮想カメラの位置及び向きを設定する仮想カメラ制御部と、前記仮想カメラから見た前記オブジェクトの画像を描画する際に、前記仮想カメラに対するオブジェクトの奥行き値に対応づけて、前記オブジェクトの色と所与のデプスキューイング色とを合成するデプスキューイング処理を行うデプスキューイング処理部と、を含み、前記デプスキューイング処理部が、前記奥行き値に対して減衰特性を有する第1のパラメータを前記オブジェクトの色の合成率として設定するとともに、前記奥行き値に対して増加特性を有する第2のパラメータを前記デプスキューイング色の合成率として設定し、前記第1のパラメータおよび前記第2のパラメータに基づいて、前記オブジェクトの色と前記デプスキューイング色とを合成する画像生成システムに関するものである。また本発明は、上記各部としてコンピュータを機能させるプログラム及びそのようなプログラムを記憶するコンピュータに読み取り可能な情報記憶媒体に関するものである。   (1) The present invention is an image generation system for generating an image visible from a virtual camera, and sets an object space setting unit for setting an object in an object space, and a position and an orientation of the virtual camera in the object space A virtual camera control unit, and when rendering the image of the object viewed from the virtual camera, the object color and a given depth cueing color are associated with the depth value of the object relative to the virtual camera. A depth cueing processing unit that performs a depth cueing process to be combined, and the depth cueing processing unit sets a first parameter having an attenuation characteristic with respect to the depth value as a color composition ratio of the object And a second parameter having an increasing characteristic with respect to the depth value. The set as depth cueing color synthesis rate, based on the first parameter and the second parameter relates to an image generation system for synthesizing the color of the object and the depth cueing color. The present invention also relates to a program that causes a computer to function as each of the above-described units and a computer-readable information storage medium that stores such a program.

本発明によれば、デプスキューイング処理を行う際に、オブジェクトの色の合成率を第1のパラメータによって設定し、デプスキューイング色の合成率を第1のパラメータとは異なる第2のパラメータによって設定する。このため本発明によれば、オブジェクトの色とデプスキューイング色とを別個独立に調整することによって、視界の悪さ、大気や環境光の色味などを詳細に表現することができる。この結果、本発明によれば、例えば、空気の澄んだ情景や、曇った日の天候、朝から夕方・夜などの時間帯の違いなど、種々のシチュエーションを従来の手法より自由にかつ詳細に表現することができる。   According to the present invention, when performing the depth cueing process, the composition ratio of the object color is set by the first parameter, and the composition ratio of the depth cueing color is determined by the second parameter different from the first parameter. Set. Therefore, according to the present invention, poor visibility and the color of the atmosphere and ambient light can be expressed in detail by separately adjusting the object color and the depth cueing color. As a result, according to the present invention, various situations such as clear scenes of air, weather on cloudy days, and time zones such as morning to evening / night are more freely and more detailed than conventional methods. Can be expressed.

(2)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記デプスキューイング処理部が、前記第1のパラメータが前記奥行き値に応じた減衰を開始する第1の開始奥行き値と、前記第1のパラメータが前記奥行き値に応じた減衰を終了する第1の終了奥行き値とに基づいて、前記オブジェクトの奥行き値に応じた第1のパラメータを設定し、前記第2のパラメータが前記奥行き値に応じた増加を開始する第2の開始奥行き値と、前記第2のパラメータが前記奥行き値に応じた増加を終了する第2の終了奥行き値とに基づいて、前記オブジェクトの奥行き値に応じた第2のパラメータを設定するようにしてもよい。   (2) In the image generation system, the program, and the information storage medium of the present invention, the depth cueing processing unit includes a first start depth value at which the first parameter starts attenuation according to the depth value, and Based on the first end depth value at which the first parameter ends attenuation according to the depth value, the first parameter is set according to the depth value of the object, and the second parameter is Based on the second start depth value that starts increasing according to the depth value and the second end depth value where the second parameter ends increasing according to the depth value, the depth value of the object is calculated. A corresponding second parameter may be set.

このようにすれば、奥行き値に対する各パラメータの特性変化を開始奥行き値と終了奥行き値とに基づいて個別に調整することができる。このため、例えば、第1の開始奥行き値と第2の開始奥行き値とを互いに異ならせたり、第1の終了奥行き値と第2の終了奥行き値とを互いに異ならせたりすることによって様々なシチュエーションを表現できるようになる。すなわち、この態様によれば、仮想カメラに対する深度(奥行き値に相当するもの)が同じであっても、オブジェクトの色の合成率やデプスキューイング色の合成率が異なる場合を実現できるので、種々のシチュエーションをより自由にかつ詳細に表現することができる。   In this way, the characteristic change of each parameter with respect to the depth value can be individually adjusted based on the start depth value and the end depth value. For this reason, for example, various situations can be made by making the first start depth value and the second start depth value different from each other, or making the first end depth value and the second end depth value different from each other. Can be expressed. That is, according to this aspect, even when the depth (corresponding to the depth value) with respect to the virtual camera is the same, it is possible to realize a case where the composition ratio of the object color and the composition ratio of the depth cueing color are different. This situation can be expressed more freely and in detail.

さらに、この態様では、第1の開始奥行き値と第2の開始奥行き値とを同じにするとともに、第1の終了奥行き値と第2の終了奥行き値とを同じにすることによって第1のパラメータと第2のパラメータとに補間関係を持たせることができるため、特殊なデプスキューイング表現だけではなく従来のデプスキューイング表現も可能となって利便性が高い。   Further, in this aspect, the first parameter is set by making the first start depth value and the second start depth value the same, and by making the first end depth value and the second end depth value the same. And the second parameter can be interpolated, so that not only special depth cueing expression but also conventional depth cueing expression is possible, which is highly convenient.

(3)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記デプスキューイング処理部が、前記オブジェクト空間において前記仮想カメラを中心とする天球オブジェクトに遠景色として付されている色のうち、前記仮想カメラの視線方向と前記天球オブジェクトとの交差点に付されている色を前記デプスキューイング色として設定するようにしてもよい。   (3) Further, in the image generation system, the program, and the information storage medium of the present invention, the depth cueing processing unit includes a color that is added as a distant view to a celestial sphere object centered on the virtual camera in the object space. The color assigned to the intersection between the viewing direction of the virtual camera and the celestial sphere object may be set as the depth cueing color.

このようにすれば、遠景色として天球オブジェクトに付された色を用いるので、予めデプスキューイング色を定めておく場合に比べて、霧やガス又は夕暮れ時などの太陽光の乱反射を的確に表現することができる。すなわち、この態様によれば、大気の状態や環境光の色味の変化をデプスキューイング色に動的に反映させることができる。   In this way, since the color attached to the celestial sphere object is used as a distant view, the diffuse reflection of sunlight such as fog, gas, or dusk is accurately expressed compared to the case where the depth cueing color is determined in advance. can do. That is, according to this aspect, it is possible to dynamically reflect changes in the atmospheric state and the color of ambient light in the depth cueing color.

(4)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記デプスキューイング処理部が、前記仮想カメラの視線方向と前記オブジェクト空間に設定された所与の光源の方向との角度差に応じて変化するパラメータを、前記光源の色に乗算することによって前記デプスキューイング色を設定するようにしてもよい。   (4) In the image generation system, the program, and the information storage medium according to the present invention, the depth cueing processing unit may detect an angular difference between the line-of-sight direction of the virtual camera and the direction of a given light source set in the object space. The depth cueing color may be set by multiplying the color of the light source by a parameter that changes according to the above.

このようにすれば、視線方向に入射する光の色味の変化を光源方向と視線方向との角度差に応じて表現することができるので、種々のシチュエーションをより的確に表現することができる。   In this way, a change in the color of light incident in the line-of-sight direction can be expressed according to the angle difference between the light source direction and the line-of-sight direction, so that various situations can be expressed more accurately.

(5)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記デプスキューイング処理部が、前記オブジェクト空間に設定された所与の光源の色と、前記光源の色と対になる色とを、前記仮想カメラの視線方向と前記オブジェクト空間に設定された所与の光源の方向との角度差に応じて変化するパラメータに基づいて補間することによって前記デプスキューイング色を設定するようにしてもよい。   (5) In the image generation system, the program, and the information storage medium of the present invention, the depth cueing processing unit is a color that is paired with the color of the given light source set in the object space and the color of the light source. The depth cueing color is set by interpolation based on a parameter that changes in accordance with an angle difference between the viewing direction of the virtual camera and the direction of a given light source set in the object space. May be.

このようにすれば、光源方向と対となる色が設定される方向を、例えば、仮想カメラに対して光源とは180度反対の方向として設定することができ、夕焼け時など空間内から見た空の色が一定でない場合(西の空では夕焼けの場合であっても東の空では薄暗くなっているようなシチュエーション)において視線方向に応じた適切なデプスキューイング色を設定することができる。   In this way, the direction in which the color that is paired with the light source direction can be set, for example, as a direction that is 180 degrees opposite to the light source with respect to the virtual camera. In the case where the sky color is not constant (a situation in which the sunset is dark in the east sky even in the case of sunset in the west sky), an appropriate depth cueing color can be set according to the viewing direction.

(6)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記第1のパラメータが前記奥行き値に応じた減衰を開始する第1の開始奥行き値、前記第1のパラメータが前記奥行き値に応じた減衰を終了する第1の終了奥行き値、前記第2のパラメータが前記奥行き値に応じた増加を開始する第2の開始奥行き値、および前記第2のパラメータが前記奥行き値に応じた増加を終了する第2の終了奥行き値の少なくともいずれか1つを、前記オブジェクト空間に対して設定された天候、前記オブジェクト空間において進行する時刻、前記オブジェクト空間における仮想カメラの位置、および前記オブジェクト空間における仮想カメラの向きの少なくともいずれか1つに基づいて変化させるようにしてもよい。   (6) In the image generation system, program, and information storage medium of the present invention, the first parameter is a first start depth value at which attenuation starts according to the depth value, and the first parameter is the depth value. A first ending depth value ending attenuation according to the second parameter, a second starting depth value at which the second parameter starts increasing according to the depth value, and the second parameter according to the depth value. At least one of the second ending depth values ending the increase is the weather set for the object space, the time to travel in the object space, the position of the virtual camera in the object space, and the object space You may make it change based on at least any one of direction of the virtual camera.

このようにすれば、オブジェクト空間の天候や時刻又は仮想カメラの位置や向きの変化によるシチュエーションの違いを的確に表現することができる。   In this way, it is possible to accurately represent the difference in situation due to changes in the weather and time of the object space or the position and orientation of the virtual camera.

以下、本発明に好適な実施の形態について図面を用いて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態にて説明される構成の全てが、本発明の必須の構成要件であるとは限らない。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
まず、図1を用いて本実施形態における画像生成システム(ゲームシステム)の構成について説明する。図1は、本実施形態における画像生成システムの機能ブロック図の一例である。なお、本実施形態の画像生成システムは、図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration First, the configuration of an image generation system (game system) in the present embodiment will be described with reference to FIG. FIG. 1 is an example of a functional block diagram of an image generation system in the present embodiment. Note that the image generation system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM、VRAMなどにより実現できる。そして、本実施形態の記憶部170は、処理部100のワーク領域となる主記憶部171、画像を構成するピクセルの色情報等(画像情報)が記憶される描画バッファ172と、オブジェクトを定義する頂点データ(オブジェクトデータ、モデルデータ)が記憶されるオブジェクトデータ記憶部173と、オブジェクトにマッピングされる各種のテクスチャが記憶されるテクスチャ記憶部174と、隠面消去処理等に用いるZ値(奥行き値の一例)が記憶されるZバッファ176と、を含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM, a VRAM, or the like. The storage unit 170 of the present embodiment defines a main storage unit 171 that is a work area of the processing unit 100, a drawing buffer 172 that stores color information (image information) of pixels constituting the image, and objects. Object data storage unit 173 storing vertex data (object data, model data), texture storage unit 174 storing various textures mapped to the object, Z value (depth value) used for hidden surface removal processing, etc. Z buffer 176 in which is stored). Note that some of these may be omitted.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

この情報記憶媒体180には、処理部100において本実施形態の種々の処理を行うためのプログラム(データ)が記憶されている。即ち、この情報記録媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。   The information storage medium 180 stores a program (data) for the processing unit 100 to perform various processes of the present embodiment. That is, the information recording medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194には、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, It can be realized by a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は、記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result calculation. Or a process for ending the game when a game end condition is satisfied. The processing unit 100 performs various processes using the main storage unit 171 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、本実施形態の処理部100は、オブジェクト空間に各種のオブジェクトを設定するオブジェクト空間設定部110と、オブジェクト空間における移動体オブジェクトの移動・動作演算を行う移動・動作処理部112と、仮想カメラを制御する仮想カメラ制御部114と、仮想カメラから見える画像を生成する画像生成部120と、音を生成する音生成部130と、を含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 100 of the present embodiment includes an object space setting unit 110 that sets various objects in the object space, a movement / motion processing unit 112 that performs movement / motion calculation of a moving object in the object space, and a virtual camera. A virtual camera control unit 114 that controls the image, an image generation unit 120 that generates an image viewed from the virtual camera, and a sound generation unit 130 that generates sound. Note that some of these may be omitted.

オブジェクト空間設定部110は、各キャラクタオブジェクト、車、戦車、建物、樹木、柱、壁、マップ(地形)及び仮想球(天球)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。   The object space setting unit 110 includes various objects (polygons, free-form surfaces or subdivision surfaces) representing display objects such as character objects, cars, tanks, buildings, trees, pillars, walls, maps (terrain), and virtual spheres (celestial spheres). The object is configured to place and set in the object space.

すなわち、オブジェクト空間設定部110は、ワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   That is, the object space setting unit 110 determines the position and rotation angle (synonymous with orientation and direction) of the object (model object) in the world coordinate system, and the rotation angle (X, Y, Z) is determined at that position (X, Y, Z). , Rotation angle around Y, Z axis).

特に本実施形態では、オブジェクトデータ記憶部173に、移動体オブジェクト(車、キャラクタ等)、固定物オブジェクト(建物等)、背景オブジェクト(マップ、地形、仮想球(天球)等)の各オブジェクトを定義するオブジェクトデータが記憶されている。具体的には、このオブジェクトデータ記憶部173には、任意のローカル座標系で設定された頂点の位置座標によってオブジェクトを定義するオブジェクトデータが記憶される。なお、オブジェクトデータには、テクスチャ座標、色(頂点色)、法線ベクトル(法線データ)およびα値などが頂点の位置座標に対応づけられていてもよい。そして、オブジェクト空間設定部110は、オブジェクトデータ記憶部173に記憶されているオブジェクトデータに基づいてオブジェクト空間内にオブジェクトを配置設定する処理を行う。   In particular, in the present embodiment, the object data storage unit 173 defines moving object (car, character, etc.), fixed object (building, etc.), background object (map, terrain, virtual sphere (celestial sphere), etc.). Object data to be stored is stored. Specifically, the object data storage unit 173 stores object data that defines an object by the vertex position coordinates set in an arbitrary local coordinate system. In the object data, texture coordinates, color (vertex color), normal vector (normal data), α value, and the like may be associated with the vertex position coordinates. Then, the object space setting unit 110 performs a process of setting an object in the object space based on the object data stored in the object data storage unit 173.

移動・動作処理部112は、移動体オブジェクト(車又は飛行機の他にキャラクタが使用する道具等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち、この移動・動作処理部112は、操作部160によりプレーヤが入力した操作データ、設定されたパラメータや属性又はプログラム(移動・動作アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of a moving object (such as a tool used by a character in addition to a car or an airplane). That is, the movement / motion processing unit 112 is based on the operation data input by the player through the operation unit 160, the set parameters and attributes, the program (movement / motion algorithm), various data (motion data), and the like. A process for moving the object in the object space or controlling the motion (motion, animation) of the moving object is performed.

具体的には、本実施形態の移動・動作処理部112は、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。   Specifically, the movement / motion processing unit 112 according to the present embodiment stores object movement information (position, rotation angle, speed, or acceleration) and movement information (position or rotation angle of each part object) for one frame. A simulation process is sequentially obtained every (for example, 1/60 seconds).

ここでフレームとは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは毎フレーム固定としてもよいし、処理負荷に応じて可変としてもよい。   Here, the frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. In this embodiment, the frame rate may be fixed every frame or may be variable according to the processing load.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば、仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when shooting an object (eg, character, ball, car) from behind using a virtual camera, the virtual camera position or rotation angle (virtual camera position) is set so that the virtual camera follows changes in the position or rotation of the object. Control). In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ172(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   The image generation unit 120 performs drawing processing based on the results of various processes (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary. In vertex processing, geometry processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed, and an object is configured based on the processing result. Change (update, adjust) the vertex data given for the vertex group. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed. In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the drawing buffer 172 (buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお画像生成部120が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   It should be noted that the vertex processing and pixel processing performed by the image generation unit 120 are performed by hardware that enables a polygon (primitive) drawing process to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .

そして画像生成部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The image generation unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、主記憶部171に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. The object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the main storage unit 171. The

テクスチャマッピングは、記憶部170のテクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部174からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。特に本実施形態では、オブジェクト空間における遠景(背景)を現すための遠景テクスチャ(背景テクスチャ)を記憶部170のテクスチャ記憶部174から読み出すとともに、仮想カメラが設定された位置を中心とするように設定される仮想球オブジェクト(天球オブジェクト)に読み出された遠景テクスチャをマッピングする。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 174 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 174 of the storage unit 170 using the texture coordinates set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation. In particular, in this embodiment, a distant view texture (background texture) for showing a distant view (background) in the object space is read from the texture storage unit 174 of the storage unit 170, and set so that the virtual camera is set at the center. The distant view texture read out is mapped onto the virtual sphere object (celestial sphere object).

なお、本実施形態では、仮想球オブジェクトにマッピングされる遠景テクスチャの色分布(テクセルパターン)を動的に変化させることができる。この場合において、色分布(ピクセルパターン)が異なる遠景テクスチャを動的に生成してもよいし、互いに色分布が異なる複数の遠景テクスチャを予め用意しておき、使用する遠景テクスチャを動的に切り替えるようにしてもよい。   In the present embodiment, the color distribution (texel pattern) of the distant view texture mapped to the virtual sphere object can be dynamically changed. In this case, a distant view texture having a different color distribution (pixel pattern) may be dynamically generated, or a plurality of distant view textures having different color distributions are prepared in advance, and the distant view texture to be used is dynamically switched. You may do it.

隠面消去処理としては、描画ピクセルのZ値が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which a Z value of a drawing pixel is stored. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). For example, in normal α blending, a process for obtaining a color obtained by combining two colors by performing linear interpolation with the α value as the strength of synthesis is performed.

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information indicating the luminance of each RGB color component. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

そして本実施形態では、画像生成部120が、デプスキューイング処理部122を含む。   In this embodiment, the image generation unit 120 includes a depth cueing processing unit 122.

デプスキューイング処理部122は、仮想カメラと描画対象のオブジェクトとの距離(視点座標系における仮想カメラと頂点との間の距離)を示す奥行き値に基づいて、描画対象のオブジェクトの色(以下、「オブジェクトカラー」ともいう。)と、デプスキューイング色とを合成するデプスキューイング処理を行う。   The depth cueing processing unit 122 uses the depth value indicating the distance between the virtual camera and the object to be rendered (the distance between the virtual camera and the vertex in the viewpoint coordinate system) to determine the color of the object to be rendered (hereinafter, (Also referred to as “object color”) and depth cueing processing for combining the depth cueing color.

具体的には、デプスキューイング処理部122は、オブジェクトの色の合成率を奥行き値に応じて減衰させるパラメータ(第1のパラメータの一例:以下、「オブジェクトカラー用パラメータ」という。)と、遠景色等として設定されているデプスキューイング色の合成率を奥行き値に応じて増加させるパラメータ(第2のパラメータの一例:以下、「デプスキューイング色用パラメータ」という。)とに基づいてデプスキューイング処理を行う。   Specifically, the depth cueing processing unit 122 attenuates the color composition ratio of the object in accordance with the depth value (an example of a first parameter: hereinafter referred to as “object color parameter”), and far. Depth cueing based on a parameter (an example of a second parameter: hereinafter referred to as “depth cueing color parameter”) that increases the composition ratio of the depth cueing color set as a scenery or the like according to the depth value. Process.

そして、デプスキューイング処理部122は、オブジェクトの色を構成する色成分(R、G、B)の輝度値に対してオブジェクトカラー用パラメータを乗算するとともに、デプスキューイング色を構成する色成分(R、G、B)の輝度値に対してデプスキューイング色用パラメータを乗算し、各乗算結果を加算することによってデプスキューイング処理後のオブジェクトについての描画ピクセルの色を求めて、求められた描画ピクセルの色を構成する色成分(R、G、B)の輝度値を描画バッファ172に出力する。   Then, the depth cueing processing unit 122 multiplies the luminance value of the color components (R, G, B) constituting the color of the object by the object color parameter, and also sets the color components ( R, G, B) luminance values are multiplied by depth cueing color parameters, and each multiplication result is added to obtain the drawing pixel color for the object after depth cueing processing. The luminance values of the color components (R, G, B) constituting the color of the drawing pixel are output to the drawing buffer 172.

また、デプスキューイング処理部122は、朝、昼、夕方又は夜などのオブジェクト空間の時刻(時間帯)、雨や霧およびその量など当該オブジェクト空間に設定された天候、及び、高地や山地などの仮想カメラが設定されたオブジェクト空間上の位置又はその向きに基づいて、上述の算出に用いるオブジェクトカラー用パラメータ及びデプスキューイング色用パラメータを設定する。   In addition, the depth cueing processing unit 122 performs time (time zone) of the object space such as morning, noon, evening, or night, the weather set in the object space such as rain, fog, and the amount thereof, and the highland or mountainous area. The object color parameter and the depth cueing color parameter used for the above calculation are set based on the position in the object space where the virtual camera is set or its direction.

例えば、デプスキューイング処理部122は、オブジェクトカラー用パラメータが奥行き値に応じた減衰を開始する開始点(第1の開始奥行き値の一例)及びその終了点(第1の終了奥行き値の一例)を、オブジェクト空間の天候及び時刻(時間帯)又は仮想カメラの位置及び向きなどの仮想カメラから見える画像を生成する際のシチュエーションに基づいて設定する。また例えば、デプスキューイング処理部122は、デプスキューイング色用パラメータが奥行き値に応じた増加を開始する開始点(第2の開始奥行き値の一例)及びその終了点(第2の終了奥行き値の一例)を、オブジェクト空間の天候及び時刻(時間帯)又は仮想カメラの位置及び向きなどの仮想カメラから見える画像を生成する際のシチュエーションに基づいて設定する。すなわち本実施形態では、開始点と終了点とにより定められる変化特性に基づいて、仮想カメラと描画対象のオブジェクトとの距離関係に応じたオブジェクトカラー用パラメータおよびデプスキューイング用パラメータを求める。そして本実施形態では、オブジェクトカラー用パラメータについての開始点および終了点と、デプスキューイング色用パラメータについての開始点および終了点とが、個別に設定されるため、各パラメータを独立して求めることができるようになっている。   For example, the depth cueing processing unit 122 starts the start point (an example of the first start depth value) and the end point (an example of the first end depth value) at which the object color parameter starts attenuation according to the depth value. Is set based on the situation when generating an image visible from the virtual camera, such as the weather and time (time zone) of the object space or the position and orientation of the virtual camera. In addition, for example, the depth cueing processing unit 122 starts the increase of the depth cueing color parameter according to the depth value (an example of the second start depth value) and the end point (second end depth value). Is set based on the situation when generating an image that is visible from the virtual camera, such as the weather and time (time zone) of the object space or the position and orientation of the virtual camera. That is, in the present embodiment, the object color parameter and the depth cueing parameter corresponding to the distance relationship between the virtual camera and the drawing target object are obtained based on the change characteristics determined by the start point and the end point. In this embodiment, since the start point and end point for the object color parameter and the start point and end point for the depth cueing color parameter are set individually, each parameter is obtained independently. Can be done.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, and sounds, and outputs them to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また、複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   In addition, when a plurality of players play, game images and game sounds provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 本実施形態のデプスキューイング処理の概要
次に、図2及び図3を用いて本実施形態のデプスキューイング処理の概要について説明する。
2. 2. Method according to this embodiment 2.1 Outline of Depth Cueing Process According to this Embodiment Next, an outline of the depth cueing process according to this embodiment will be described with reference to FIGS. 2 and 3.

なお、図2は、従来のデプスキューイング処理を説明するための図であり、図3は、本実施形態のデプスキューイング処理を説明するための図である。   2 is a diagram for explaining the conventional depth cueing processing, and FIG. 3 is a diagram for explaining the depth cueing processing of the present embodiment.

通常、現実の世界においては、視点を基準に遠方に行くほどに景色は霞んで見えるようになっており、ゲームなどの仮想現実の世界であっても、遠景にあるオブジェクトがくっきりとした輪郭を有していると、プレーヤなどに不自然な印象を与える。   Usually, in the real world, the scenery becomes dazzling as you move farther from the viewpoint, and even in a virtual reality world such as a game, the object in the far view has a clear outline If so, it gives an unnatural impression to the player.

このため、最近では、遠景(背景)にあるオブジェクトの画像をより自然で現実的に表現する一つの手法として、デプスキューイング処理と呼ばれる手法が知られている。   For this reason, recently, a technique called depth cueing processing is known as one technique for expressing an image of an object in a distant view (background) more naturally and realistically.

このデプスキューイング処理は、隠面消去処理が実行され、各描画ピクセルの描画色、すなわち、各描画ピクセルの色成分の輝度値を特定する際に実行される処理であって、視点からの距離に応じてオブジェクトの色をデプスキューイング色と呼ばれるターゲット色(例えば背景色に設定された色)に近づけ、遠景(背景)にあるオブジェクトをぼやかすための画像処理として実行される。またデプスキューイング処理は、オブジェクト空間内に霧(フォグ)が発生している様子を擬似的に表現するエフェクト処理(いわゆるフォグ処理)のためにも利用される。   This depth cueing process is a process executed when the hidden surface removal process is executed and the drawing color of each drawing pixel, that is, the luminance value of the color component of each drawing pixel is specified, and is the distance from the viewpoint. Accordingly, the color of the object is brought close to a target color called a depth cueing color (for example, a color set as a background color), and is executed as image processing for blurring an object in a distant view (background). The depth cueing process is also used for an effect process (so-called fog process) that simulates the appearance of fog in the object space.

従来、このデプスキューイング処理においては、図2に示すように、オブジェクトの色と遠景色として設定されたターゲットとなる色(デプスキューイング色)とを線形補間するパラメータ(例えば、α値など)を用い、描画対象のオブジェクトを構成する描画ピクセルの色に対して仮想カメラからの距離(奥行き値L)に応じたデプスキューイング効果を反映させる処理を実行する。   Conventionally, in this depth cueing process, as shown in FIG. 2, a parameter (for example, α value) for linearly interpolating between the color of an object and a target color (depth cueing color) set as a distant view. Is used to reflect the depth cueing effect corresponding to the distance (depth value L) from the virtual camera to the color of the drawing pixel constituting the object to be drawn.

すなわち、従来のデプスキューイング処理では、(式1)に示すように、オブジェクトの色を構成する輝度値(ROB、GOB、BOB)とデプスキューイング色を構成する輝度値(R、G、B)とを、Z値に応じて設定される単一のパラメータである合成率rによって線形補間して、描画ピクセルの色の輝度値(R、G、B)を求めていた。 That is, in the conventional depth cueing process, as shown in (Equation 1), the luminance values (R OB , G OB , B OB ) constituting the object color and the luminance values (R D ) constituting the depth cueing color are shown. , G D , B D ) are linearly interpolated by a composition ratio r, which is a single parameter set according to the Z value, to obtain the luminance value (R, G, B) of the color of the drawing pixel. It was.

Figure 0004827250
Figure 0004827250

なお、(式1)において、従来(R、G、B)は、従来の手法によりデプスキューイング処理が施された描画ピクセルの色を構成する各色成分の輝度値を示す。     In (Expression 1), conventional (R, G, B) indicates the luminance value of each color component constituting the color of the drawing pixel that has been subjected to depth cueing processing by a conventional method.

また、図2において、L1は、デプスキューイング処理の効果が描画ピクセルに反映され始める奥行き値Lを示し、L2は、描画ピクセルに反映されるデプスキューイング処理の効果が一定になる奥行き値Lを示す。すなわち、図2に示すように、奥行き値Lが0〜L1の範囲では、オブジェクトの色が描画ピクセルの色となり、奥行き値LがL2以降の範囲では、デプスキューイング色が描画ピクセルの色となる。   In FIG. 2, L1 indicates a depth value L at which the effect of the depth cueing process starts to be reflected on the drawing pixel, and L2 indicates a depth value L at which the effect of the depth cueing process reflected on the drawing pixel becomes constant. Indicates. That is, as shown in FIG. 2, in the range where the depth value L is 0 to L1, the color of the object is the color of the drawing pixel, and in the range where the depth value L is L2 or later, the depth cueing color is the color of the drawing pixel. Become.

しかしながら、このような従来のデプスキューイング処理では、オブジェクトの色(オブジェクトカラー)の実質的な合成率“1−r”と、デプスキューイング色の実質的な合成率“r”とが補間関係(図2におけるL1〜L2の区間において、オブジェクトの色が一定の割合で減少するとともに、デプスキューイング色が一定の割合で増加する関係)を有しているため、詳細にオブジェクト空間内の情景を表現することができない場合も多く存在していた。   However, in such a conventional depth cueing process, the substantial composition ratio “1-r” of the object color (object color) and the substantial composition ratio “r” of the depth cueing color are interpolated. (In the section of L1 to L2 in FIG. 2, the object color decreases at a constant rate and the depth cueing color increases at a constant rate), the scene in the object space in detail There were many cases where it was not possible to express.

そこで、本実施形態では、図3に示すように、オブジェクトカラー用パラメータPOとデプスキューイング色用パラメータPDとを個別設定して、オブジェクトカラーが視点からの距離(奥行き値L)に応じて減衰する度合いと、デプスキューイング色が視点からの距離(奥行き値L)に応じて加算合成される度合いとを別個独立に求めている。   Therefore, in this embodiment, as shown in FIG. 3, the object color parameter PO and the depth cueing color parameter PD are individually set, and the object color is attenuated according to the distance from the viewpoint (depth value L). And the degree by which the depth cueing color is added and synthesized in accordance with the distance from the viewpoint (depth value L) is obtained separately and independently.

具体的には、(1)オブジェクトカラー用パラメータ及びデプスキューイング色用パラメータの設定を行う処理(以下、「パラメータの設定処理」という。)、(2)デプスキューイング色を設定する処理(以下、「デプスキューイング色の設定処理」という。)及び(3)オブジェクトカラーとデプスキューイング色との合成を行う処理(以下、「合成処理」という。)の各処理を、デプスキューイング処理として行うようになっている。   Specifically, (1) processing for setting object color parameters and depth cueing color parameters (hereinafter referred to as “parameter setting processing”), and (2) processing for setting depth cueing colors (hereinafter referred to as “parameter setting processing”). , “Dep squeezing color setting processing”) and (3) processing for synthesizing the object color and the depth queuing color (hereinafter referred to as “compositing processing”) are referred to as depth queuing processing. To do.

このように、本実施形態の手法によれば、オブジェクトの色とデプスキューイング色とを個別に調整することによって、視界の悪さや大気あるいは環境光の色味を、描画ピクセルの色に的確に反映することができるので、例えば、空気の澄んだ情景や曇った日の天候、朝から夕方・夜などといった時間帯の違いに基づく表現など種々のシチュエーションをより自由にかつ的確に表現することができるようになる。   As described above, according to the method of the present embodiment, by adjusting the color of the object and the depth cueing color individually, the poor visibility and the color of the atmosphere or ambient light can be accurately matched to the color of the drawing pixel. Since it can be reflected, for example, it is possible to express various situations more freely and accurately, such as expressions based on time zones such as clear scenery of the air, weather on cloudy days, morning to evening / night etc. become able to.

2.2 パラメータの設定処理
次に、上述と同様に、図3を用いて本実施形態のパラメータの設定処理について説明する。
2.2 Parameter Setting Processing Next, parameter setting processing according to the present embodiment will be described using FIG. 3 in the same manner as described above.

本実施形態では、表示画像を構成する各描画ピクセルの色を算出する際に、オブジェクト空間内で進行している仮想の時刻や天候又は仮想カメラ(視点)の位置及び向きなど、オブジェクト空間にて設定されている仮想のシチュエーションに基づいて、オブジェクトカラー用パラメータとデプスキューイング色用パラメータを設定することができるようになっている。   In this embodiment, when calculating the color of each drawing pixel constituting the display image, in the object space, such as the virtual time, weather, or the position and orientation of the virtual camera (viewpoint) that are proceeding in the object space Based on the set virtual situation, the object color parameter and the depth cueing color parameter can be set.

具体的には、オブジェクトカラーの合成率が奥行き値Lに応じた減衰を開始する地点(第1の開始奥行き値:以下、「減衰開始点」という。)Srと、オブジェクトカラーの合成率が奥行き値Lに応じた減衰を終了する地点(第1の終了奥行き値:以下、「減衰終了点」という。)Grとがシチュエーション毎に設定され、シチュエーション毎の減衰開始点Srと減衰終了点Grとに基づいて、図3(A)に示すように、減衰開始点Srと減衰終了点Grとの間において減衰特性を有するオブジェクトカラー用パラメータPOを設定している。   Specifically, the point at which the composition rate of the object color starts to attenuate according to the depth value L (first start depth value: hereinafter referred to as “attenuation start point”) Sr and the composition rate of the object color is the depth. A point (first end depth value: hereinafter referred to as “attenuation end point”) Gr corresponding to the value L is set for each situation, and an attenuation start point Sr and an attenuation end point Gr for each situation are set. As shown in FIG. 3A, an object color parameter PO having attenuation characteristics is set between the attenuation start point Sr and the attenuation end point Gr.

例えば、本実施形態では、オブジェクトカラーの合成率であるオブジェクトカラー用パラメータPOを0〜1.0の範囲に正規化しており、(式2)に示すように、減衰開始点Sr及び減衰終了点Grに基づいてオブジェクトカラー用パラメータ(合成率)POを設定している。   For example, in the present embodiment, the object color parameter PO, which is the composition ratio of the object colors, is normalized to a range of 0 to 1.0, and as shown in (Expression 2), the attenuation start point Sr and the attenuation end point An object color parameter (combination rate) PO is set based on Gr.

Figure 0004827250
Figure 0004827250

ここで、(式2)における「L」は、描画対象となるオブジェクトの仮想カメラからの距離である奥行き値Lを示す。また、本実施形態では、L>Srの場合にオブジェクトカラーが減衰されるデプスキューイング処理が行われるようになっており、オブジェクトカラー用パラメータPOは、L>Grにおいて「0」にクランプされる。なおL<Srの場合に、オブジェクトカラー用パラメータPOが「1.0」にクランプされるようにしてもよい。   Here, “L” in (Expression 2) indicates a depth value L that is the distance from the virtual camera of the object to be rendered. Further, in this embodiment, depth cueing processing in which the object color is attenuated is performed when L> Sr, and the object color parameter PO is clamped to “0” when L> Gr. . If L <Sr, the object color parameter PO may be clamped to “1.0”.

また、本実施の形態では、デプスキューイング色用パラメータについて、デプスキューイング色の合成率が奥行き値Lに応じた増加を開始する地点(第2の開始奥行き値:以下、「増加開始点」という。)Siと、デプスキューイング色の合成率が奥行き値Lに応じた増加を終了する地点(第2の終了奥行き値:以下、「増加終了点」という。)Giとがシチュエーション毎に設定され、増加開始点Siと増加終了点Giとに基づいて、図3(B)に示すように、増加開始点Siと増加終了点Giとの間において増加特性を有するデプスキューイング色用パラメータPDを設定している。   Further, in the present embodiment, with respect to the depth cueing color parameter, a point at which the composition ratio of the depth cueing color starts to increase according to the depth value L (second start depth value: hereinafter referred to as “increase start point”). Si and the point at which the composition ratio of the depth cueing color finishes increasing according to the depth value L (second end depth value: hereinafter referred to as “increase end point”) Gi is set for each situation. Based on the increase start point Si and the increase end point Gi, as shown in FIG. 3B, the depth cueing color parameter PD having an increase characteristic between the increase start point Si and the increase end point Gi. Is set.

例えば、本実施形態では、オブジェクトカラー用パラメータと同様に、デプスキューイング色の合成率であるデプスキューイング色用パラメータを0〜1.0の範囲に正規化しており、(式3)に示すように、増加開始点Si及び増加終了点Giに基づいてデプスキューイング色用パラメータ(合成率)PDを設定している。   For example, in this embodiment, similarly to the object color parameter, the depth cueing color parameter, which is the composition ratio of the depth cueing color, is normalized to a range of 0 to 1.0, as shown in (Expression 3). As described above, the depth cueing color parameter (combination rate) PD is set based on the increase start point Si and the increase end point Gi.

Figure 0004827250
Figure 0004827250

ここで、(式3)における「L」は、描画対象となるオブジェクトの仮想カメラからの距離である奥行き値Lを示す。また、本実施形態では、L>Siの場合にデプスキューイング色が加算合成されるデプスキューイング処理が行われるようになっており、デプスキューイング色用パラメータPDは、L>Giでは、「1.0」にクランプされる。なお、L<Siの場合に、デプスキューイング色用パラメータPDが「0」にクランプされるようにしてもよい。   Here, “L” in (Expression 3) indicates a depth value L that is the distance from the virtual camera of the object to be rendered. In this embodiment, depth cueing processing is performed in which depth cueing colors are added and combined when L> Si, and the depth cueing color parameter PD is “ Clamped to 1.0 ". When L <Si, the depth cueing color parameter PD may be clamped to “0”.

なお本実施形態では、減衰開始点、増加開始点、減衰終了点、及び増加終了点がシチュエーション毎に設定可能なため、シチュエーション毎に減衰開始点と増加開始点とを異ならせることや、減衰終了点と増加終了点とを異ならせるることができる。ただし、任意のシチュエーションでは、減衰開始点と増加開始点とを同一としたり、減衰終了点と増加終了点とを同一としたりすることも可能である。   In this embodiment, since the attenuation start point, increase start point, attenuation end point, and increase end point can be set for each situation, the attenuation start point and the increase start point can be made different for each situation, or the attenuation end point can be set. The point and the increase end point can be made different. However, in an arbitrary situation, the attenuation start point and the increase start point can be made the same, or the attenuation end point and the increase end point can be made the same.

ところで、図3(A)及び図3(B)に示した例では、オブジェクトカラー用パラメータとデプスキューイング色用パラメータとが奥行き値Lに対して1次関数的に変化するパラメータとして設定しているが、シチュエーションに応じて2次関数的、あるいは指数関数的にパラメータが変化するようにしてもよい。   Incidentally, in the example shown in FIGS. 3A and 3B, the object color parameter and the depth cueing color parameter are set as parameters that change linearly with respect to the depth value L. However, the parameters may be changed in a quadratic function manner or an exponential manner according to the situation.

例えば、(式4)及び(式5)に示すように、(式2)で得られるPO、及び(式3)で得られるPDをそれぞれ2乗することによって0〜1.0に正規化された範囲で2次関数的に変化するオブジェクトカラー用パラメータPO´やデプスキューイング色用パラメータPD´を設定することも可能である。   For example, as shown in (Equation 4) and (Equation 5), the PO obtained in (Equation 2) and the PD obtained in (Equation 3) are respectively normalized to 0 to 1.0 by squaring. It is also possible to set an object color parameter PO ′ and a depth cueing color parameter PD ′ that change in a quadratic function within a range.

Figure 0004827250
Figure 0004827250
Figure 0004827250
Figure 0004827250

2.3 デプスキューイング色の設定処理
次に、図4〜図6を用いて本実施形態のデプスキューイング色の設定処理について説明する。
2.3 Depth Cueing Color Setting Processing Next, depth cueing color setting processing according to the present embodiment will be described with reference to FIGS. 4 to 6.

まず本実施形態では、仮想カメラの向き(いわゆる視線方向)に応じてデプスキューイング色を設定する手法を採用している。   First, in this embodiment, a method of setting a depth cueing color according to the direction of the virtual camera (so-called line-of-sight direction) is adopted.

例えば、図4に示すように、オブジェクト空間において仮想カメラの位置Vを中心として設定された仮想球オブジェクトSB(天球オブジェクト)に遠景色BGを設定するテクスチャ(遠景テクスチャ、背景テクスチャ)がマッピングされている場合に、仮想カメラVCの視線方向Aと仮想球オブジェクトSBとの交差点に付されている色BGをデプスキューイング色DCとして設定することができる。   For example, as shown in FIG. 4, a texture (distant view texture, background texture) for setting a distant view BG is mapped to a virtual sphere object SB (celestial sphere object) set around the position V of the virtual camera in the object space. The color BG attached to the intersection of the viewing direction A of the virtual camera VC and the virtual sphere object SB can be set as the depth cueing color DC.

本実施形態の手法によれば、仮想球オブジェクトSBに付された遠景色BGからデプスキューイング色DCを取得できるので、視線方向に映る空模様を的確に反映させたデプスキューイング色DCを設定することができる。   According to the method of the present embodiment, the depth cueing color DC can be acquired from the distant view BG attached to the virtual sphere object SB. Therefore, the depth cueing color DC that accurately reflects the sky pattern reflected in the viewing direction is set. be able to.

なお、図4に示す例では、後述する図6に示される例を適用して仮想カメラVCの視線方向Aと仮想球オブジェクトSBとの交差点に付されている遠景色BGと環境光を設定する光源の色LCとを、仮想カメラVCの視線方向Aと光源方向Lとの角度差θに基づいて補間することによってデプスキューイング色DCを設定するようにしてもよい。   In the example shown in FIG. 4, the distant view BG attached to the intersection between the visual line direction A of the virtual camera VC and the virtual sphere object SB is set by applying the example shown in FIG. The depth cueing color DC may be set by interpolating the light source color LC based on the angle difference θ between the visual line direction A and the light source direction L of the virtual camera VC.

また本実施形態の手法の他の例として、図5に示すように、環境光を設定する光源の色LCと、光源が設定されている方向と180度異なる方向Mに設定された色(環境光源の色と対になる色、例えば黒色)MCとを、仮想カメラVCの視線方向Aと光源の方向Lとの角度差θに応じて変化する補間パラメータに基づいて補間することによってデプスキューイング色DCを設定してもよい。   As another example of the method of the present embodiment, as shown in FIG. 5, the color LC of the light source for setting the ambient light and the color (environment set in the direction M 180 degrees different from the direction in which the light source is set). Depth cueing by interpolating a color paired with the color of the light source (for example, black) MC based on an interpolation parameter that changes in accordance with the angle difference θ between the line-of-sight direction A of the virtual camera VC and the direction L of the light source A color DC may be set.

すなわち、図5に示す例では、仮想カメラVCの視線方向Aと光源の方向Lとの角度差θに応じて変化する内積値「cosθ」(視線方向Aと光源方向Lとの内積に相当)を補間パラメータとして利用しており、(式6)に示すように、光源の色LCと、光源の色LCと対となる色MCとを「cosθ」によって線形補間することによってデプスキューイング色DCを設定している。なお、(式6)では、cosθが負の場合(cosθ<0)の場合には、cosθが0にクランプされる。   That is, in the example shown in FIG. 5, the inner product value “cos θ” that changes in accordance with the angle difference θ between the visual line direction A of the virtual camera VC and the light source direction L (corresponding to the inner product of the visual line direction A and the light source direction L). As the interpolation parameter, as shown in (Equation 6), the depth cueing color DC is obtained by linearly interpolating the light source color LC and the color MC paired with the light source color LC by “cos θ”. Is set. In (Expression 6), when cos θ is negative (cos θ <0), cos θ is clamped to 0.

Figure 0004827250
Figure 0004827250

図5に示す例によれば、西の空では夕焼けの場合であっても東の空では薄暗くなっているようなシチュエーションにおいて、仮想カメラVCの視線方向Aの変化に追従するようにデプスキューイング色DCを変化させることができるので、種々のシチュエーションをより的確に表現することができるようになっている。   According to the example shown in FIG. 5, the depth cueing is performed so as to follow the change in the line-of-sight direction A of the virtual camera VC in a situation where the sunset is dim in the east sky even in the west sky. Since the color DC can be changed, various situations can be expressed more accurately.

なお、図5に示す例では、光源の色LCと対になる色MCを光源方向Lと180度異なる方向Mに設定するようになっているが、180度以外、例えば、150度や120度など任意の角度方向に光源の色LCと対になる色MCを設定してもよい。   In the example shown in FIG. 5, the color MC that is paired with the light source color LC is set in a direction M that is 180 degrees different from the light source direction L, but other than 180 degrees, for example, 150 degrees or 120 degrees. A color MC that is paired with the color LC of the light source may be set in an arbitrary angle direction.

また、図5に示す例では、角度差θに応じて変化する補間パラメータとして「cosθ」を用いているが、オブジェクト空間のシチュエーションによって「cosθ」を補間パラメータとして用いるようにしてもよい。 In the example shown in FIG. 5, “cos θ” is used as an interpolation parameter that changes according to the angle difference θ, but “cos 2 θ” may be used as an interpolation parameter depending on the situation of the object space.

また、本実施形態の手法の他の例として、図6に示すように、環境光を設定する光源の色LCを、視線方向Aと光源の方向Lとに基づいて調整することによりデプスキューイング色DCを設定するようにしてもよい。   As another example of the method of the present embodiment, as shown in FIG. 6, the depth cueing is performed by adjusting the color LC of the light source that sets the ambient light based on the line-of-sight direction A and the direction L of the light source. The color DC may be set.

すなわち、図6に示す例では、仮想カメラVCの視線方向Aと環境光を設定する光源の方向Lとの角度差θに応じて変化する余弦「cosθ」を調整パラメータとして利用しており、(式7)に示すように、光源の色LCに調整パラメータを乗算することによってデプスキューイング色DCを設定している。なお、(式7)では、cosθが負の場合(cosθ<0)の場合には、cosθが0にクランプされる。   That is, in the example shown in FIG. 6, the cosine “cos θ” that changes in accordance with the angle difference θ between the viewing direction A of the virtual camera VC and the direction L of the light source that sets the ambient light is used as an adjustment parameter. As shown in Expression 7), the depth cueing color DC is set by multiplying the color LC of the light source by the adjustment parameter. In (Expression 7), when cos θ is negative (cos θ <0), cos θ is clamped to 0.

Figure 0004827250
Figure 0004827250

図6に示す例によれば、例えば、光源方向Lに対して視線方向Aが変化する場合に、角度差θに応じた色味の変化を表現することができる。ただし、上述のように、調整パラメータとして「cosθ」を用いる代わりに、オブジェクト空間のシチュエーションによって「cosθ」を光源の色LCに乗算するようにしてもよい。 According to the example illustrated in FIG. 6, for example, when the line-of-sight direction A changes with respect to the light source direction L, it is possible to express a change in color according to the angle difference θ. However, as described above, instead of using “cos θ” as the adjustment parameter, “cos 2 θ” may be multiplied by the color LC of the light source by the situation of the object space.

また、上述では、光源が1種類の場合を例に説明しているが、太陽、月、外灯など2種類以上の複数の光源がオブジェクト空間に設定されている場合であっても、上述の考え方を適用してデプスキューイング色DCを設定することができる。   In the above description, the case where there is one type of light source has been described as an example. However, even if a plurality of two or more types of light sources such as the sun, the moon, and the outside light are set in the object space, the above-described concept To set the depth cueing color DC.

また本実施形態の手法の変形例として、オブジェクト空間内で進行している仮想時刻、オブジェクト空間内の天候、あるいは仮想カメラの位置・向きなど各種のシチュエーションに応じて、デプスキューイング色DCを設定することができる。   In addition, as a modification of the method of the present embodiment, the depth cueing color DC is set according to various situations such as the virtual time in the object space, the weather in the object space, or the position / orientation of the virtual camera. can do.

例えば、オブジェクト空間内で進行している仮想時刻に基づいてオブジェクト空間における時間帯を決定し、「朝」の時間帯においては「白色」、「昼」の時間帯においては「青色」、「夕方」の時間単位においては「赤色」及び「夜」の時間帯においては「黒色」をデプスキューイング色DCとして設定するようにしてもよい。なお、「朝」の時間帯であっても「昼」に近い場合には、青味がかっている「白」などをデプスキューイング色DCとして設定するようにしてもよい。   For example, the time zone in the object space is determined based on the virtual time progressing in the object space, “white” in the “morning” time zone, “blue”, “evening” in the “daytime” time zone. In the time unit “”, “black” may be set as the depth cueing color DC in the time zone of “red” and “night”. Even in the “morning” time zone, when it is close to “noon”, a bluish “white” or the like may be set as the depth cueing color DC.

また、オブジェクト空間内の天候に関しては、「晴れ」のときは「青色」、「曇り」のときは「灰色」又は「霧」が発生ししているときは「白色」をデプスキューイング色DCとして設定するようにしてもよい。この場合に、時間帯によって設定される色と天候によって設定される色とを合成してデプスキューイング色DCを設定するようにしてもよい。   As for the weather in the object space, the depth cueing color DC is “blue” when “sunny”, “white” when “cloudy” occurs, or “white” when “mist” occurs. You may make it set as. In this case, the depth cueing color DC may be set by combining the color set according to the time zone and the color set according to the weather.

さらに、仮想カメラの位置又は向きに関しては、仮想カメラの位置が山頂の場合には「白色」をデプスキューイング色DCとして設定し、仮想カメラの位置が山麓の場合には「灰色」をデプスキューイング色DCとして設定するようにしてもよい。また、太陽などのオブジェクト空間に設定された環境光を設定する光源に対する向きに応じて、時間帯や天候にて設定された色に対して「白色」あるいは「黒色」を加算合成した色をデプスキューイング色DCとして設定するようにしてもよい。   Furthermore, regarding the position or orientation of the virtual camera, “white” is set as the depth cueing color DC when the virtual camera is at the top of the mountain, and “gray” is set as the depth cueing when the virtual camera is at the top of the mountain. You may make it set as ing color DC. Also, depending on the direction to the light source that sets the ambient light set in the object space such as the sun, the color set by adding “white” or “black” to the color set in the time zone or weather is depth. You may make it set as cueing color DC.

2.4 合成処理
本実施形態では、上述のように設定されたオブジェクトカラー用パラメータPO、デプスキューイング色用パラメータPD、及びデプスキューイング色DCに基づいて、オブジェクトカラーOCとデプスキューイング色DCとを、(式8)に示す演算を行うことによって合成して描画ピクセルの色Cを算出している。
2.4 Composition Processing In this embodiment, the object color OC and the depth cueing color DC are based on the object color parameter PO, the depth cueing color parameter PD, and the depth cueing color DC set as described above. Are combined by performing the calculation shown in (Equation 8) to calculate the color C of the drawing pixel.

Figure 0004827250
Figure 0004827250

具体的には、オブジェクトカラーOC(ROC、GOC、BOC)に(式2)に示すオブジェクトカラー用パラメータPOを乗算して、奥行き値Lに応じて減衰させたオブジェクトカラー(Ro、Go、Bo)を算出するとともに、デプスキューイング色DC(RDC、GDC、BDC)に(式3)に示すデプスキューイング色用パラメータPDを乗算して、奥行き値Lに応じて加算されるデプスキューイング色(R、G、B)を算出する。 Specifically, the object color OC (R OC , G OC , B OC ) is multiplied by the object color parameter PO shown in (Equation 2) and attenuated according to the depth value L (Ro, Go). , Bo), and the depth cueing color DC (R DC , G DC , B DC ) is multiplied by the depth cueing color parameter PD shown in (Equation 3) and added according to the depth value L. that depth cueing color is calculated (R D, G D, B D) a.

そして、オブジェクトカラー(Ro、Go、Bo)とデプスキューイング色の色成分の輝度値(R、G、B)とを加算合成して、描画ピクセルの色C(Rc、Gc、Bc)を算出している。 Then, the object color (Ro, Go, Bo) and the luminance value (R D , G D , B D ) of the color component of the depth cueing color are added and synthesized to obtain the color C (Rc, Gc, Bc) of the drawing pixel. ).

3.本実施形態の処理
次に、図7及び図8を用いて本実施形態の手法を実現する処理の例について説明する。
3. Processing of this Embodiment Next, an example of processing for realizing the method of this embodiment will be described with reference to FIGS. 7 and 8.

まず図7に示すように、フレーム更新(例えば、1/60秒)のタイミングが到来したか否かを判断する(ステップS1)。そしてフレーム更新のタイミングである場合には(ステップS1でY)、デプスキューイング処理のためのシェーダプログラムを描画プロセッサ(画像生成部120)に転送する(ステップS2)。   First, as shown in FIG. 7, it is determined whether or not the timing of frame update (for example, 1/60 seconds) has arrived (step S1). If it is the frame update timing (Y in step S1), the shader program for the depth cueing process is transferred to the drawing processor (image generation unit 120) (step S2).

次に、シェーダプログラムの実行の際に必要となるシェーダパラメータの設定と転送を行う(ステップS3)。具体的には、描画対象となるオブジェクトの頂点座標を視点座標系に変換するためのマトリクス(ワールドマトリクス及びビューマトリクス)、視点座標系での環境光(平行光源)の光源方向、オブジェクトの色(オブジェクトにマッピングされるデカールテクスチャの色)、デプスキューイング色を設定するための遠景色、オブジェクトカラー用パラメータPOを設定するための減衰開始点Sr及び減衰終了点Gr、デプスキューイング色用パラメータPDを設定するための増加開始点Si及び増加終了点Giなどがシェーディングパラメータとして設定されて描画プロセッサに転送される。   Next, the shader parameters necessary for executing the shader program are set and transferred (step S3). Specifically, a matrix (world matrix and view matrix) for converting the vertex coordinates of the object to be drawn into the viewpoint coordinate system, the light source direction of the ambient light (parallel light source) in the viewpoint coordinate system, and the object color ( Color of decal texture mapped to object), distant view for setting depth cueing color, attenuation start point Sr and attenuation end point Gr for setting object color parameter PO, parameter PD for depth cueing color The increase start point Si and the increase end point Gi for setting are set as shading parameters and transferred to the drawing processor.

次に、描画対象となるオブジェクトの頂点リスト(頂点のローカル座標及びテクスチャ座標を含むデータ)を描画プロセッサに転送し(ステップS4)、描画プロセッサにシェーダプログラムの実行を指示するコマンドを転送する(ステップS5)。   Next, the vertex list (data including the local coordinates and texture coordinates of the vertex) of the object to be drawn is transferred to the drawing processor (step S4), and a command for instructing execution of the shader program is transferred to the drawing processor (step S4). S5).

続いて描画プロセッサでは、図8に示すように、シェーダプログラム、シェーダパラメータ、及び頂点リストを取得して(ステップS10)、描画対象となるオブジェクトの頂点に関するジオメトリ計算を行って、仮想カメラから頂点までの距離である奥行き値Lを算出する(ステップS11)。具体的には、頂点のローカル座標をマトリクス変換して視点座標系での頂点の位置を求めるとともに、視点座標系での仮想カメラから頂点までの距離を算出して奥行き値Lを求める。   Subsequently, as shown in FIG. 8, the drawing processor acquires a shader program, shader parameters, and a vertex list (step S <b> 10), performs geometry calculation regarding the vertex of the object to be drawn, and from the virtual camera to the vertex. The depth value L, which is the distance of, is calculated (step S11). Specifically, the local coordinates of the vertices are subjected to matrix conversion to obtain the position of the vertex in the viewpoint coordinate system, and the distance from the virtual camera to the vertex in the viewpoint coordinate system is calculated to obtain the depth value L.

次に、奥行き値Lと減衰開始点Srとの差分値の符号が正であるか否かを判断し(ステップS12)、奥行き値Lが減衰開始点Srより奥側である場合には(ステップS12でY)、オブジェクトの色OCを、オブジェクトカラー用パラメータPOに応じて減衰させる処理を行う(ステップS13)。   Next, it is determined whether or not the sign of the difference value between the depth value L and the attenuation start point Sr is positive (step S12). If the depth value L is on the far side from the attenuation start point Sr (step S12). A process of attenuating the object color OC in accordance with the object color parameter PO is performed (Y in S12) (step S13).

次に、奥行き値Lと増加開始点Siとの差分値の符号が正であるか否かを判断し(ステップS14)、奥行き値Lが増加開始点Siより奥側である場合には(ステップS14でY)、デプスキューイング色用パラメータPDに基づいてデプスキューイング色DCの加算分を求める処理を行う(ステップS15)。   Next, it is determined whether or not the sign of the difference value between the depth value L and the increase start point Si is positive (step S14). If the depth value L is on the far side from the increase start point Si (step S14). In S14, Y), a process for obtaining the addition of the depth cueing color DC based on the depth cueing color parameter PD is performed (step S15).

そして最終出力色Cをオブジェクトの色OCとデプスキューイング色DCとの加算合成により求めて描画バッファへ出力する(ステップS16)。   Then, the final output color C is obtained by addition synthesis of the object color OC and the depth cueing color DC, and is output to the drawing buffer (step S16).

4.ハードウェア構成
次に、図9を用いて本実施形態を実現できるハードウェア構成について説明する。なお、図18は、本実施形態を実現できるハードウェア構成の例である。
4). Hardware Configuration Next, a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. FIG. 18 is an example of a hardware configuration that can realize this embodiment.

メインプロセッサ900は、光学ディスク982(CD、DVDなど:情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり、動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。   The main processor 900 operates based on a program stored in the optical disk 982 (CD, DVD, etc .: information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like. Executes image processing, sound processing, and the like. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。頂点シェーダやピクセルシェーダなどのプログラマブルシェーダが描画プロセッサ910に実装されている場合には、シェーダプログラムに従って、頂点データの作成・変更(更新)やピクセル(フラグメント)の描画色の決定を行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When a programmable shader such as a vertex shader or a pixel shader is mounted on the rendering processor 910, creation / change (update) of vertex data and determination of a pixel (fragment) rendering color are performed according to the shader program. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。光学ディスクドライブ980は、プログラム、画像データ、或いは音データなどが格納される光学ディスク982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The optical disk drive 980 accesses an optical disk 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお、本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. May be. Alternatively, it may be realized by both hardware and a program.

そして、本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。   When the processing of each unit of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each unit of this embodiment is stored in the information storage medium. .

より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

また、本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   Further, the present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

また、パラメータ設定処理、デプスキューイング色の設定処理及び合成処理についても本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Further, the parameter setting process, the depth cueing color setting process, and the synthesis process are not limited to those described in the present embodiment, and techniques equivalent to these are also included in the scope of the present invention.

また、本発明は、種々のゲームに適用できる。そして、本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Further, the present invention can be applied to various games. The present invention is applied to various image generation systems such as an arcade game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. Applicable.

本実施形態の画像生成システムの機能ブロック図。The functional block diagram of the image generation system of this embodiment. 従来のデプスキューイング手法を説明するための図。The figure for demonstrating the conventional depth cueing method. 本実施形態のデプスキューイング手法を説明するための図。The figure for demonstrating the depth cueing method of this embodiment. 本実施形態のデプスキューイング手法を説明するための図。The figure for demonstrating the depth cueing method of this embodiment. 本実施形態のデプスキューイング手法を説明するための図。The figure for demonstrating the depth cueing method of this embodiment. 本実施形態のデプスキューイング手法を説明するための図。The figure for demonstrating the depth cueing method of this embodiment. 本実施形態の具体的な処理例を示すフローチャート。The flowchart which shows the specific process example of this embodiment. 本実施形態の具体的な処理例を示すフローチャート。The flowchart which shows the specific process example of this embodiment. ハードウェア構成例Hardware configuration example

符号の説明Explanation of symbols

100 処理部、
110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、
120 画像生成部、122 デプスキューイング処理部、
130 音生成部、
160 操作部、
170 記憶部、
171 主記憶部、172 描画バッファ、173 オブジェクトデータ記憶部、
174 テクスチャ記憶部、176 Zバッファ、
180 情報記憶媒体、190 表示部、192 音出力部、
194 携帯型情報記憶装置、196 通信部
100 processing unit,
110 Object space setting unit, 112 Movement / motion processing unit,
114 virtual camera control unit,
120 image generation units, 122 depth cueing processing units,
130 sound generator,
160 operation unit,
170 storage unit,
171 Main storage unit, 172 Drawing buffer, 173 Object data storage unit,
174 Texture storage unit, 176 Z buffer,
180 information storage medium, 190 display unit, 192 sound output unit,
194 Portable information storage device, 196 communication unit

Claims (10)

仮想カメラから見える画像を生成するためのプログラムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクト空間における前記仮想カメラの位置及び向きを設定する仮想カメラ制御部と、
前記仮想カメラから見た前記オブジェクトの画像を描画する際に、前記仮想カメラに対するオブジェクトの奥行き値に対応づけて、前記オブジェクトの色と所与のデプスキューイング色とを合成するデプスキューイング処理を行うデプスキューイング処理部としてコンピュータを機能させ、
前記デプスキューイング処理部が、
前記奥行き値に対して減衰特性を有する第1のパラメータを前記オブジェクトの色の合成率として設定するとともに、前記奥行き値に対して増加特性を有する第2のパラメータを前記デプスキューイング色の合成率として設定し、
前記第1のパラメータに基づいて前記オブジェクトの色を調整するとともに、前記第2のパラメータに基づいて前記デプスキューイング色を調整し、
前記調整したオブジェクトの色と前記調整したデプスキューイング色を合成し、描画ピクセルの色成分を算出することを特徴とするプログラム。
A program for generating an image visible from a virtual camera,
An object space setting section for setting an object in the object space;
A virtual camera control unit that sets the position and orientation of the virtual camera in the object space;
A depth cueing process for combining the object color and a given depth cueing color in association with the depth value of the object relative to the virtual camera when rendering the image of the object viewed from the virtual camera; Let the computer function as a depth cueing processor
The depth cueing processing unit
A first parameter having an attenuation characteristic with respect to the depth value is set as a color composition ratio of the object, and a second parameter having an increase characteristic with respect to the depth value is set as the composition ratio of the depth cueing color. Set as
Adjusting the color of the object based on the first parameter and adjusting the depth cueing color based on the second parameter;
A program characterized in that a color component of a drawing pixel is calculated by combining the adjusted object color and the adjusted depth cueing color .
請求項1において、
前記オブジェクトの色の減衰調整を開始する前記奥行き値を示す第1の開始奥行き値と、前記デプスキューイング色の増加調整を開始する前記奥行き値を示す第2の開始奥行き値と、が異なるとともに、
前記オブジェクトの色の減衰調整を終了する前記奥行き値を示す第1の終了奥行き値と、前記デプスキューイング色の増加調整を終了する前記奥行き値を示す第2の終了奥行き値とが、異なることを特徴とするプログラム。
In claim 1,
The first start depth value indicating the depth value at which the attenuation adjustment of the color of the object is started is different from the second start depth value indicating the depth value at which the increase adjustment of the depth cueing color is started. ,
The first ending depth value indicating the depth value at which the color attenuation adjustment of the object ends is different from the second ending depth value indicating the depth value at which the depth cueing color increase adjustment ends. A program characterized by
請求項1又は2において、
前記デプスキューイング処理部が、
前記オブジェクト空間において前記仮想カメラを中心とする天球オブジェクトに遠景色として付されている色のうち、前記仮想カメラの視線方向と前記天球オブジェクトとの交差点に付されている色を前記デプスキューイング色として設定することを特徴とするプログラム。
In claim 1 or 2,
The depth cueing processing unit
Of the colors attached to the celestial sphere object centered on the virtual camera in the object space as a distant view, the color attached to the intersection of the sight line direction of the virtual camera and the celestial sphere object is the depth cueing color. A program characterized by being set as
請求項1又は2において、
前記デプスキューイング処理部が、
前記仮想カメラの視線方向と当該仮想カメラの位置から前記オブジェクト空間に設定された光源の位置に向かう光源の方向との角度差に応じて変化するパラメータを、前記光源の色に乗算することによって前記デプスキューイング色を設定することを特徴とするプログラム。
In claim 1 or 2,
The depth cueing processing unit
By multiplying the color of the light source by a parameter that changes according to the angle difference between the visual line direction of the virtual camera and the direction of the light source from the virtual camera position toward the light source position set in the object space, A program characterized by setting a depth cueing color.
請求項1又は2において、
前記デプスキューイング処理部が、
前記オブジェクト空間に設定された所与の光源の色と、当該仮想カメラの位置から前記オブジェクト空間に設定された光源の位置に向かう光源の方向に対して当該オブジェクト空間内の所定の方向にある色とを、前記仮想カメラの視線方向と前記光源の方向との角度差に応じて変化するパラメータに基づいて補間することによって前記デプスキューイング色を設定することを特徴とするプログラム。
In claim 1 or 2,
The depth cueing processing unit
The color in a predetermined direction in the object space with respect to the color of the given light source set in the object space and the direction of the light source from the virtual camera position toward the light source position set in the object space preparative, program and setting the depth cueing color by interpolating based on parameters that vary depending on the angular difference between the direction of said line of sight direction of the virtual camera source.
請求項2において、
前記第1の開始奥行き値、前記第1の終了奥行き値、前記第2の開始奥行き値、および前記第2の終了奥行き値の少なくともいずれか1つは、前記オブジェクト空間に対して設定された天候、前記オブジェクト空間において進行する時刻、前記オブジェクト空間における仮想カメラの位置、および前記オブジェクト空間における仮想カメラの向きの少なくともいずれか1つに基づいて設定されることを特徴とするプログラム。
In claim 2 ,
Said first start depth value, wherein the first end depth value, the second start depth value, and the at least one of the second ends depth values, weather set for the object space A program that is set based on at least one of the time to travel in the object space, the position of the virtual camera in the object space, and the orientation of the virtual camera in the object space.
請求項1〜6の何れかにおいて、  In any one of Claims 1-6,
前記第1のパラメータが、前記第2のパラメータとは無関係に定まる値であり、前記第2のパラメータが、前記第1のパラメータとは無関係に定まる値であることを特徴とするプログラム。  A program characterized in that the first parameter is a value determined independently of the second parameter, and the second parameter is a value determined independently of the first parameter.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜7のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。  A computer-readable information storage medium, wherein the program according to any one of claims 1 to 7 is stored. 仮想カメラから見える画像を生成するための画像生成システムであって、  An image generation system for generating an image visible from a virtual camera,
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、  An object space setting section for setting an object in the object space;
前記オブジェクト空間における前記仮想カメラの位置及び向きを設定する仮想カメラ制御部と、  A virtual camera control unit that sets the position and orientation of the virtual camera in the object space;
前記仮想カメラから見た前記オブジェクトの画像を描画する際に、前記仮想カメラに対するオブジェクトの奥行き値に対応づけて、前記オブジェクトの色と所与のデプスキューイング色とを合成するデプスキューイング処理を行うデプスキューイング処理部と、  A depth cueing process for combining the object color and a given depth cueing color in association with the depth value of the object relative to the virtual camera when rendering the image of the object viewed from the virtual camera; A depth cueing processing unit,
を備え、  With
前記デプスキューイング処理部が、  The depth cueing processing unit
前記奥行き値に対して減衰特性を有する第1のパラメータを前記オブジェクトの色の合成率として設定するとともに、前記奥行き値に対して増加特性を有する第2のパラメータを前記デプスキューイング色の合成率として設定し、    A first parameter having an attenuation characteristic with respect to the depth value is set as a color composition ratio of the object, and a second parameter having an increase characteristic with respect to the depth value is set as the composition ratio of the depth cueing color. Set as
前記第1のパラメータに基づいて前記オブジェクトの色を調整するとともに、前記第2のパラメータに基づいて前記デプスキューイング色を調整し、    Adjusting the color of the object based on the first parameter and adjusting the depth cueing color based on the second parameter;
前記調整したオブジェクトの色と前記調整したデプスキューイング色を合成し、描画ピクセルの色成分を算出することを特徴とする画像生成システム。    An image generation system comprising: combining the adjusted object color and the adjusted depth cueing color to calculate a color component of a drawing pixel.
請求項9に記載の画像生成システムにおいて、  The image generation system according to claim 9.
前記第1のパラメータが、前記第2のパラメータとは無関係に定まる値であり、前記第2のパラメータが、前記第1のパラメータとは無関係に定まる値であることを特徴とする画像生成システム。  The image generation system according to claim 1, wherein the first parameter is a value determined independently of the second parameter, and the second parameter is a value determined independently of the first parameter.
JP2006254305A 2006-09-20 2006-09-20 Program, information storage medium, and image generation system Active JP4827250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006254305A JP4827250B2 (en) 2006-09-20 2006-09-20 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006254305A JP4827250B2 (en) 2006-09-20 2006-09-20 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2008077304A JP2008077304A (en) 2008-04-03
JP4827250B2 true JP4827250B2 (en) 2011-11-30

Family

ID=39349305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006254305A Active JP4827250B2 (en) 2006-09-20 2006-09-20 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4827250B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5613433B2 (en) * 2010-03-31 2014-10-22 株式会社カプコン Image processing program, recording medium, and computer apparatus
JP5887715B2 (en) * 2011-05-23 2016-03-16 セイコーエプソン株式会社 Image processing apparatus and image processing method
KR101918158B1 (en) * 2016-06-16 2018-11-14 주식회사 에이치투앤컴퍼니 Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof
WO2020149142A1 (en) * 2019-01-15 2020-07-23 富士フイルム株式会社 Stereoscopic image display body

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4574058B2 (en) * 2001-05-02 2010-11-04 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP4187188B2 (en) * 2002-04-26 2008-11-26 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP2005275795A (en) * 2004-03-24 2005-10-06 Namco Ltd Program, information storage medium and image generation system

Also Published As

Publication number Publication date
JP2008077304A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4804120B2 (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4651527B2 (en) Program, information storage medium, and image generation system
JP4827250B2 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
US7710419B2 (en) Program, information storage medium, and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2008077408A (en) Program, information storage medium, and image generation system
US7724255B2 (en) Program, information storage medium, and image generation system
JP4592087B2 (en) Image generation system, program, and information storage medium
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2006277488A (en) Program, information storage medium and image generation system
JP2002329213A (en) Image generation system, program, and information storage medium
JP2008077406A (en) Image generation system, program, and information storage medium
JP2010033295A (en) Image generation system, program and information storage medium
JP2010033253A (en) Program, information storage medium, and image generation system
JP2007164736A (en) Image generation system, program and information storage medium
JP4521811B2 (en) Program, information storage medium, and image generation system
JP4693153B2 (en) Image generation system, program, and information storage medium
JP2010033301A (en) Image generation system, program and information storage medium
JP2006252425A (en) Program, information storage medium, and image generation system
JP4641831B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4827250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250