JP4806578B2 - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP4806578B2
JP4806578B2 JP2006066194A JP2006066194A JP4806578B2 JP 4806578 B2 JP4806578 B2 JP 4806578B2 JP 2006066194 A JP2006066194 A JP 2006066194A JP 2006066194 A JP2006066194 A JP 2006066194A JP 4806578 B2 JP4806578 B2 JP 4806578B2
Authority
JP
Japan
Prior art keywords
distant view
image
virtual camera
distant
view image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006066194A
Other languages
Japanese (ja)
Other versions
JP2007241868A (en
Inventor
聡 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2006066194A priority Critical patent/JP4806578B2/en
Publication of JP2007241868A publication Critical patent/JP2007241868A/en
Application granted granted Critical
Publication of JP4806578B2 publication Critical patent/JP4806578B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、キャラクタ、車などのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。レースゲームを楽しむことができる画像生成システムを例にとれば、プレーヤは、ゲームコントローラなどの操作部を用いて自車を操作し、他のプレーヤが操作する他車と競争することでゲームを楽しむ。   Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which objects such as characters and cars are arranged and set is known. It is very popular for experiencing so-called virtual reality. Taking an image generation system capable of enjoying a racing game as an example, a player operates the own vehicle using an operation unit such as a game controller, and enjoys the game by competing with other vehicles operated by other players. .

このような画像生成システムでは、遠景であるか近景であるかに依らず、全ての背景を3次元のオブジェクトで表して描画する手法を採用していた。   Such an image generation system employs a technique in which all backgrounds are represented by three-dimensional objects and drawn regardless of whether the background is a distant view or a close-up view.

しかしながら、この手法によると、背景を構成する全てのオブジェクトについて3次元演算を行わなければならない。従って、広い範囲の背景を表示しようとすると、演算負荷が膨大になってしまうという課題があった。
特開平11−250232号公報
However, according to this method, it is necessary to perform a three-dimensional operation on all the objects constituting the background. Therefore, there has been a problem that the calculation load becomes enormous when attempting to display a wide range of backgrounds.
JP-A-11-250232

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、少ない処理負荷での背景画像の生成を可能にするプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide a program, an information storage medium, and an image generation system that enable generation of a background image with a small processing load. There is.

本発明は、画像を生成する画像生成システムであって、オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像を記憶する遠景画像記憶部と、仮想カメラの制御を行う仮想カメラ制御部と、前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置により特定される遠景画像を、仮想カメラから所与の距離だけ離れた位置に配置されるプリミティブ面により構成される遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成する画像生成部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention is an image generation system that generates an image, and controls a far-view image storage unit that stores a plurality of distant view images including distant view images that should be seen from a virtual camera at each position in an object space, and a virtual camera. A distant view image specified by the position of the virtual camera among the plurality of distant view images stored in the virtual camera control unit and the distant view image storage unit is arranged at a position away from the virtual camera by a given distance. The present invention relates to an image generation system including an image generation unit that maps to a distant view map object constituted by a primitive surface and generates an image that can be viewed from a virtual camera in the object space. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明によれば、オブジェクト空間の各位置において仮想カメラから見えるべき遠景画像が遠景画像記憶部に記憶される。そして、遠景画像記憶部に記憶される遠景画像のうち、仮想カメラの位置により特定される遠景画像が、遠景マップオブジェクトにマッピングされる。従って、遠景オブジェクトの描画処理をリアルタイムに行わなくても、リアルな遠景画像を含む画像を生成でき、少ない処理負荷での背景画像の生成が可能になる。   According to the present invention, a distant view image that should be visible from the virtual camera at each position in the object space is stored in the distant view image storage unit. Then, a distant view image specified by the position of the virtual camera among the distant view images stored in the distant view image storage unit is mapped to the distant view map object. Therefore, an image including a real distant view image can be generated without performing a distant view object drawing process in real time, and a background image can be generated with a small processing load.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記画像生成部は、前記遠景画像に描かれる遠景オブジェクトよりも仮想カメラから見て近くに配置設定される近景オブジェクトの描画処理を行ってもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the image generation unit performs a drawing process of a foreground object that is arranged and set closer to the virtual camera than the distant object drawn in the distant image. May be.

このようにすれば、近景オブジェクトについては、リアルタイムに描画できるようになり、生成される画像の品質を向上できる。   In this way, the foreground object can be drawn in real time, and the quality of the generated image can be improved.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記遠景画像記憶部は、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て遠くにあるオブジェクトが、遠景オブジェクトとして描かれる遠景画像を記憶し、前記画像生成部は、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て近くにあるオブジェクトを、近景オブジェクトとして描画してもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the distant view image storage unit draws an object that is farther from the virtual camera than the position of the primitive plane of the distant view map object as a distant view object. A distant view image may be stored, and the image generation unit may draw an object closer to the virtual camera than the position of the primitive surface of the distant view map object as a foreground object.

このようにすれば、仮想カメラの直ぐ近くに近景オブジェクトが近づいた場合等においても、自然でリアルな画像を生成できる。   In this way, a natural and realistic image can be generated even when a foreground object approaches in the immediate vicinity of the virtual camera.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記画像生成部は、前記遠景マップオブジェクトのプリミティブ面の位置よりも所与の距離範囲だけ遠くにあるオブジェクトについても、近景オブジェクトとして描画してもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the image generation unit renders an object that is far from the position of the primitive plane of the distant view map object by a given distance range as a foreground object. May be.

このようにすれば、遠景マップオブジェクトに描かれた画像から、近景オブジェクトの描画により生成される画像に、シームレスに切り替わるようになり、不自然な画像が生成されてしまう事態を防止できる。   In this way, it is possible to seamlessly switch from the image drawn on the distant view map object to the image generated by drawing the foreground object, thereby preventing an unnatural image from being generated.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記遠景画像記憶部は、オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像の生成処理の際に得られるZ値を記憶し、前記画像生成部は、遠景画像の前記Z値を用いて、隠面消去処理を行ってもよい。   In the image generation system, program, and information storage medium according to the present invention, the distant view image storage unit stores a Z value obtained at the time of generating each distant view image that should be seen from the virtual camera at each position in the object space. The image generation unit may perform hidden surface removal processing using the Z value of the distant view image.

このようにすれば、遠景画像についても、前後関係の正しい画像を表示できるようになる。   In this way, it is possible to display an image having a correct context even for a distant view image.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、仮想カメラの視線方向と前記遠景マップオブジェクトとの位置関係に応じて、前記Z値の変換処理を行う変換処理部を含んでもよい(該変換手段として機能させてもよい)。   In addition, the image generation system, the program, and the information storage medium according to the present invention may include a conversion processing unit that performs the conversion processing of the Z value according to the positional relationship between the visual line direction of the virtual camera and the distant view map object ( It may function as the conversion means).

このようにすれば、遠景画像のZ値を正しいZ値に変換することができ、前後関係が正しく判断された隠面消去処理を実現できる。   In this way, it is possible to convert the Z value of the distant view image into a correct Z value, and it is possible to realize hidden surface removal processing in which the context is correctly determined.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記遠景マップオブジェクトは、遠景キューブマップオブジェクトであり、前記遠景画像記憶部は、前記遠景キューブマップオブジェクトに対してマッピングされる遠景画像を記憶し、前記画像生成部は、前記遠景画像記憶部に記憶される遠景画像を、前記遠景キューブマップオブジェクトに対してマッピングしてもよい。   In the image generation system, program, and information storage medium according to the present invention, the distant view map object is a distant view cube map object, and the distant view image storage unit stores a distant view image mapped to the distant view cube map object. And the image generation unit may map the distant view image stored in the distant view image storage unit to the distant view cube map object.

このようにすれば、仮想カメラの視線方向が前後左右等に向いた場合にも、遠景マップオブジェクトに描かれた遠景画像を含む画像を生成できる。   In this way, it is possible to generate an image including a distant view image drawn on the distant view map object even when the line-of-sight direction of the virtual camera is front-rear, left-right, or the like.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記画像生成部は、前記遠景マップオブジェクトの遠景画像を、環境マッピング画像として、オブジェクト空間で移動する移動体に対して環境マッピングしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the image generation unit performs environment mapping on the moving object moving in the object space as an environment mapping image of the distant view map object. Also good.

このようにすれば、遠景表示のために生成された遠景画像を有効活用して、環境マッピングを実現できる。   In this way, environment mapping can be realized by effectively utilizing the distant view image generated for distant view display.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記遠景画像記憶部は、前記複数の遠景画像を圧縮画像として記憶し、前記画像生成部は、前記圧縮画像を伸長することにより得られた遠景画像を、前記遠景マップオブジェクトにマッピングしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the distant view image storage unit stores the plurality of distant view images as compressed images, and the image generation unit obtains the decompressed images by decompressing the compressed images. The obtained distant view image may be mapped to the distant view map object.

このようにすれば、遠景画像の記憶に必要な使用記憶容量を節約できる。   In this way, it is possible to save the used storage capacity necessary for storing the distant view image.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記遠景画像記憶部は、複数の遠景画像を圧縮ムービーテクスチャとして記憶し、前記画像生成部は、前記圧縮ムービーテクスチャを伸長することにより得られた遠景画像を、前記遠景マップオブジェクトにマッピングしてもよい。   In the image generation system, program, and information storage medium according to the present invention, the distant view image storage unit stores a plurality of distant view images as compressed movie textures, and the image generation unit expands the compressed movie textures. The obtained distant view image may be mapped to the distant view map object.

このようにすれば、ムービーテクスチャの再生機能を有効活用して、遠景画像の圧縮・伸長が可能になる。   In this way, it is possible to compress and expand a distant view image by effectively utilizing the movie texture playback function.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記遠景画像記憶部は、仮想カメラによる画像生成の際のオブジェクト空間での位置が互いに近い遠景画像ほど、そのフレーム番号が近い番号になるように圧縮された圧縮画像を記憶してもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the far-field image storage unit has a frame number closer to a far-field image whose positions in the object space when the image is generated by the virtual camera are closer to each other. You may memorize | store the compressed image compressed so that it might become.

このようにすれば、似た画像の遠景画像については、そのフレーム番号が近くなるように圧縮されて記憶されるため、圧縮効率を向上でき、メモリの使用記憶容量を節約できる。   In this way, the distant view images of similar images are compressed and stored so that their frame numbers are close to each other, so that the compression efficiency can be improved and the used storage capacity of the memory can be saved.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記画像生成部は、前記圧縮画像を伸長することにより得られる複数の遠景画像の中から、仮想カメラの位置に対応する遠景画像を前記フレーム番号により特定し、特定された遠景画像を、前記遠景マップオブジェクトにマッピングしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the image generation unit generates a distant view image corresponding to the position of the virtual camera from a plurality of distant view images obtained by expanding the compressed image. The distant view image specified by the frame number may be mapped to the distant view map object.

このようにすれば、遠景画像を圧縮した場合にも、仮想カメラの位置に対応する遠景画像を簡素な処理で特定して遠景マップオブジェクトにマッピングできるようになる。   In this way, even when the distant view image is compressed, the distant view image corresponding to the position of the virtual camera can be identified by simple processing and mapped to the distant view map object.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記複数の遠景画像のうち、仮想カメラの周囲の所与の範囲に対応する遠景画像の圧縮画像だけが伸長され、前記画像生成部は、伸長により得られた前記所与の範囲に対応する遠景画像の中から、仮想カメラの位置に対応する遠景画像を、前記遠景マップオブジェクトにマッピングしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, only the compressed image of the distant view image corresponding to a given range around the virtual camera among the plurality of distant view images is decompressed, and the image generation unit May map a distant view image corresponding to the position of the virtual camera from the distant view image corresponding to the given range obtained by the expansion to the distant view map object.

このようにすれば、オブジェクト空間の全ての位置に対応する遠景画像を伸長しなくても済むため、伸長処理の処理負荷を軽減できる。   In this way, since it is not necessary to decompress distant view images corresponding to all positions in the object space, the processing load of the decompression process can be reduced.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、各画像が複数の画面の各々に表示される複数の画像を生成する場合に、第1の仮想カメラから見える第1の画面用の第1の画像と、第2の仮想カメラから見える第2の画面用の第2の画像を、遠景画像記憶部に記憶される遠景画像を共用して生成してもよい。   In the image generation system, the program, and the information storage medium according to the present invention, when generating a plurality of images in which each image is displayed on each of the plurality of screens, The first image and the second image for the second screen that can be seen from the second virtual camera may be generated by sharing the distant view image stored in the distant view image storage unit.

このようにすれば、メモリの使用記憶容量の増加を抑えながら、負荷の軽い処理で複数画面表示を実現できる。   In this way, it is possible to realize a multi-screen display by processing with a light load while suppressing an increase in the used storage capacity of the memory.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記画像生成部は、前記複数の遠景画像の中から、仮想カメラの位置に対応する遠景画像として、第1〜第N(Nは2以上の整数)の位置に対応付けられた第1〜第Nの遠景画像を読み出し、読み出された第1〜第Nの遠景画像を合成した画像を、前記遠景マップオブジェクトに対してマッピングしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the image generation unit includes first to Nth (N is a distant view image corresponding to the position of the virtual camera from the plurality of distant view images. The first to Nth distant view images associated with the position of an integer of 2 or more are read, and an image obtained by combining the read first to Nth distant view images is mapped to the distant view map object. May be.

このようにすれば、データ量の増加を抑えながら高品質の遠景画像を生成して表示できる。   In this way, it is possible to generate and display a high quality distant view image while suppressing an increase in the amount of data.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、アクセル、ブレーキ、或いはタッチパネル型ディスプレイなどにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, button, steering, accelerator, brake, touch panel display, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、ハードディスク、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (CD, DVD), a hard disk, a memory (ROM, etc.), and the like. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなホスト装置(サーバー)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。処理部100は記憶部170(主記憶部172)をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. The processing unit 100 performs various processes using the storage unit 170 (main storage unit 172) as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、ゲーム演算部108、オブジェクト空間設定部110、移動体演算部112、仮想カメラ制御部114、画像生成部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes a game calculation unit 108, an object space setting unit 110, a moving body calculation unit 112, a virtual camera control unit 114, an image generation unit 120, and a sound generation unit 130. Note that some of these may be omitted.

ゲーム演算部108はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、移動体やマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 108 performs game calculation processing. Here, the game calculation includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a moving object or a map, a process for displaying an object, and calculating a game result. Or a process for ending the game when a game end condition is satisfied.

オブジェクト空間設定部110は、移動体(車、人、ロボット等)、コース(道路)、マップ(地形)、建物、樹木、壁などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のモデルデータ記憶部176には、移動体オブジェクト(キャラクタ)等のモデルデータが記憶されている。そしてオブジェクト空間設定部110は、このモデルデータを用いてオブジェクト空間へのオブジェクトの設定(配置)処理を行う。   The object space setting unit 110 includes various objects (polygons, free-form surfaces or subdivision surfaces) representing display objects such as moving objects (cars, people, robots, etc.), courses (roads), maps (terrain), buildings, trees, and walls. The object is configured to place and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, model data such as a moving object (character) is stored in the model data storage unit 176 of the storage unit 170. Then, the object space setting unit 110 performs an object setting (arrangement) process in the object space using the model data.

移動体演算部(移動・動作処理部)112は、移動体を移動させるための演算を行う。また移動体を動作させるための演算も行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving object calculation unit (movement / motion processing unit) 112 performs an operation for moving the moving object. Also, calculations for operating the moving body are performed. That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving body (object, model object) is moved in the object space, Performs processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラにより車、キャラクタなどの移動体を後方から撮影する場合には、移動体の位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動体演算部112で得られた移動体の位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when shooting a moving body such as a car or character from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera) so that the virtual camera follows changes in the position or rotation of the moving body. To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the moving object obtained by the moving object computing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

なお本実施形態の移動体は、画面に表示されるオブジェクトであってもよいし、画面に表示されない仮想的なオブジェクトであってもよい。例えば1人称視点等の場合には、仮想カメラの位置を移動体位置と見なすことができる。   Note that the moving object of this embodiment may be an object displayed on the screen or a virtual object that is not displayed on the screen. For example, in the case of the first person viewpoint, the position of the virtual camera can be regarded as the moving body position.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずモデル(オブジェクト)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むモデルデータが入力され、入力されたモデルデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The image generation unit 120 performs drawing processing based on the results of various processes (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, model data including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the model (object) is first input. Based on the vertex data included in the input model data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

画像生成部120は、オブジェクトを描画する際にジオメトリ処理、隠面消去処理、αブレンディング、テクスチャマッピング処理等を行う。   The image generation unit 120 performs geometry processing, hidden surface removal processing, α blending, texture mapping processing, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のモデルデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, model data (positional coordinates of object vertices, texture coordinates, color data, normal vectors, α values, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理がある。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ(Zプレーン)に格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal process, there is a hidden surface removal process by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which a Z value (depth information) of a drawing pixel is stored. That is, when drawing a pixel corresponding to the primitive of the object, the Z value stored in the Z buffer (Z plane) is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づいて行う処理であり、通常αブレンディング、加算αブレンディング或いは減算αブレンディングなどがある。例えば通常αブレンディングの場合には下式の処理を行う。   α blending (α synthesis) is processing performed based on an α value (A value), and includes normal α blending, addition α blending, subtraction α blending, and the like. For example, in the case of normal α blending, the following processing is performed.

=(1−α)×R+α×R
=(1−α)×G+α×G
=(1−α)×B+α×B
一方、加算αブレンディングの場合には下式の処理を行う。
R Q = (1−α) × R 1 + α × R 2
G Q = (1−α) × G 1 + α × G 2
B Q = (1−α) × B 1 + α × B 2
On the other hand, in the case of addition α blending, the following processing is performed.

=R+α×R
=G+α×G
=B+α×B
また、減算αブレンディングの場合には下式の処理を行う。
R Q = R 1 + α × R 2
G Q = G 1 + α × G 2
B Q = B 1 + α × B 2
In the case of subtractive α blending, the following processing is performed.

=R−α×R
=G−α×G
=B−α×B
ここで、R、G、Bは、描画バッファ174(フレームバッファ)に既に描画されている画像(元画像)のRGB成分であり、R、G、Bは、描画バッファ174に描画すべき画像のRGB成分である。また、R、G、Bは、αブレンディングにより得られる画像のRGB成分である。なおα値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、半透明度(透明度、不透明度と等価)情報、マスク情報、或いはバンプ情報などとして使用できる。
R Q = R 1 −α × R 2
G Q = G 1 −α × G 2
B Q = B 1 −α × B 2
Here, R 1 , G 1 , B 1 are RGB components of an image (original image) already drawn in the drawing buffer 174 (frame buffer), and R 2 , G 2 , B 2 are drawing buffers 174. Are RGB components of the image to be drawn. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as translucency (equivalent to transparency and opacity) information, mask information, or bump information.

テクスチャマッピング(テクスチャフェッチ、テクスチャサンプリング)処理は、テクスチャ記憶部に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理である。具体的には、オブジェクト(プリミティブ面)の頂点等に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。   Texture mapping (texture fetching, texture sampling) processing is processing for mapping a texture (texel value) stored in a texture storage unit to an object. Specifically, the texture (surface properties such as color and α value) is read from the texture storage unit using texture coordinates or the like set (given) to the vertex or the like of the object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to the object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.

本実施形態では遠景画像記憶部173が複数の遠景画像(背景画像)を記憶する。具体的にはオブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像(遠景テクスチャ)を記憶する。例えば各遠景画像が各位置(格子点、基準点、位置取得用ポリゴン等)に対応して用意される複数の遠景画像を記憶する。そして画像生成部120は、遠景画像記憶部173に記憶される複数の遠景画像のうち、仮想カメラ(移動体)の位置により特定される遠景画像(仮想カメラの位置に対応付けられた遠景画像)を、遠景マップオブジェクトにマッピングする。   In this embodiment, the distant view image storage unit 173 stores a plurality of distant view images (background images). Specifically, a plurality of distant view images (distant view textures) including each distant view image that should be seen from the virtual camera at each position in the object space are stored. For example, each distant view image stores a plurality of distant view images prepared corresponding to each position (grid point, reference point, position acquisition polygon, etc.). The image generation unit 120 then identifies a distant view image (distant view image associated with the position of the virtual camera) specified by the position of the virtual camera (moving body) among the plurality of distant view images stored in the distant view image storage unit 173. Are mapped to a distant view map object.

ここで遠景マップオブジェクトは、仮想カメラから所与の距離だけ離れた位置に配置される1又は複数のプリミティブ面(ポリゴン)により構成されるオブジェクトである。この遠景マップオブジェクトとしては、例えば環境マッピングに使用される遠景キューブマップオブジェクトを用いることができる。この場合には遠景画像記憶部173は、遠景キューブマップオブジェクトに対してマッピングされる遠景画像を記憶し、画像生成部120は、遠景画像記憶部173に記憶される遠景画像を、遠景キューブマップオブジェクトにマッピングする。例えば立方体の展開図に対応する遠景画像を、遠景キューブマップオブジェクトを構成するポリゴンにマッピングする。   Here, the distant view map object is an object composed of one or a plurality of primitive surfaces (polygons) arranged at a position away from the virtual camera by a given distance. As this distant view map object, for example, a distant view cube map object used for environment mapping can be used. In this case, the distant view image storage unit 173 stores the distant view image mapped to the distant view cube map object, and the image generation unit 120 converts the distant view image stored in the distant view image storage unit 173 into the distant view cube map object. To map. For example, a distant view image corresponding to a developed view of a cube is mapped to a polygon constituting a distant view cube map object.

画像生成部120は近景オブジェクトの描画処理を行う。ここで近景オブジェクトは、遠景画像に描かれる遠景オブジェクトよりも仮想カメラから見て近くに配置設定されるオブジェクトである。即ち遠景画像記憶部173は、遠景マップオブジェクトのプリミティブ面(ポリゴン)の位置よりも仮想カメラから見て遠くにあるオブジェクト(仮想カメラから所与のしきい値距離以上離れていると想定されるオブジェクト)が、遠景オブジェクトとして描かれる遠景画像を記憶する。即ちゲーム制作時等における遠景画像の生成の際に、仮想カメラから見て遠景マップオブジェクトのプリミティブ面(ポリゴン)の位置よりも遠くにあるオブジェクトについては、遠景として遠景画像に描かれる。一方、画像生成部120は、遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て近くにあるオブジェクト(仮想カメラからみて所与のしきい値距離より近いオブジェクト)を、近景オブジェクトとして描画する。なお画像生成部120は、遠景マップオブジェクトのプリミティブ面の位置よりも所与の距離範囲だけ遠くにあるオブジェクトであって、本来は遠景オブジェクトであるオブジェクトについても、近景オブジェクトとして描画する。   The image generation unit 120 performs a foreground object drawing process. Here, the foreground object is an object that is arranged closer to the virtual camera than the distant object drawn in the distant image. That is, the distant view image storage unit 173 is an object that is farther from the virtual camera than the position of the primitive plane (polygon) of the distant view map object (an object that is assumed to be more than a given threshold distance from the virtual camera). ) Stores a distant view image drawn as a distant view object. That is, when generating a distant view image at the time of game production or the like, an object far from the position of the primitive plane (polygon) of the distant view map object as viewed from the virtual camera is drawn in the distant view image as a distant view. On the other hand, the image generation unit 120 draws an object closer to the virtual camera than the position of the primitive surface of the distant view map object (an object closer to a given threshold distance from the virtual camera) as a foreground object. . Note that the image generation unit 120 draws an object that is far away from the primitive plane position of the distant view map object by a given distance range and is originally a distant view object as a foreground object.

また遠景画像記憶部173は、オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像の生成処理の際に得られたZ値を記憶する。例えば遠景画像の色(色プレーン)と共にZ値(Zプレーン)を記憶する。即ちZバッファ法による隠面消去により得られたZ値を記憶する。   Further, the distant view image storage unit 173 stores the Z value obtained in the process of generating each distant view image that should be seen from the virtual camera at each position in the object space. For example, the Z value (Z plane) is stored together with the color (color plane) of the distant view image. That is, the Z value obtained by hidden surface removal by the Z buffer method is stored.

そして画像生成部120は、遠景画像のZ値を用いて、隠面消去処理を行う。即ち移動体などのオブジェクトを描画する際には、遠景画像のZ値も考慮して、Zバッファ法による隠面消去処理を行う。この場合に画像生成部120が含む変換処理部122は、仮想カメラの視線方向と遠景マップオブジェクトとの位置関係に応じて、Z値の変換処理を行う。具体的には、遠景マップオブジェクトを構成するプリミティブ面の向きと視線方向とのなす角度と、変換処理の対象となる点(ピクセル)のX座標、Y座標等に基づいて、その点のZ値を変換する。   Then, the image generation unit 120 performs hidden surface removal processing using the Z value of the distant view image. That is, when drawing an object such as a moving object, the hidden surface removal process by the Z buffer method is performed in consideration of the Z value of the distant view image. In this case, the conversion processing unit 122 included in the image generation unit 120 performs Z value conversion processing in accordance with the positional relationship between the viewing direction of the virtual camera and the distant view map object. Specifically, based on the angle between the direction of the primitive surface constituting the distant view map object and the line-of-sight direction, and the X coordinate, Y coordinate, etc. of the point (pixel) to be converted, the Z value of that point Convert.

また遠景画像記憶部173は、複数の遠景画像を圧縮画像として記憶する。例えば複数の遠景画像を圧縮ムービーテクスチャとして記憶する。具体的には仮想カメラによる画像生成の際のオブジェクト空間での位置が互いに近い遠景画像ほど、そのフレーム番号が近い番号になるように圧縮された圧縮画像を記憶する。   The distant view image storage unit 173 stores a plurality of distant view images as compressed images. For example, a plurality of distant view images are stored as compressed movie textures. More specifically, a compressed image that is compressed so that the distant view images whose positions in the object space at the time of image generation by the virtual camera are closer to each other has a closer frame number is stored.

画像生成部120が含む伸長部(展開部、デコード部)124は圧縮画像の伸長処理を行う。具体的にはMPEG、JPEG等の圧縮画像として遠景画像記憶部173に記憶された遠景画像(ムービーテクスチャ)を伸長する。例えばMPEGで圧縮された一連のIピクチャを伸張する。   A decompression unit (decompression unit, decoding unit) 124 included in the image generation unit 120 performs decompression processing of the compressed image. Specifically, the distant view image (movie texture) stored in the distant view image storage unit 173 as a compressed image such as MPEG or JPEG is expanded. For example, a series of I pictures compressed by MPEG is expanded.

遠景画像のデータ圧縮は次のように実現できる。即ち、まずデータが複数のマクロブロックに分割される。そして、分割された各ブロックに対して、DCT(離散コサイン変換、直交変換)が施される。これにより、データが周波数(空間周波数)分解される。次に、DCTにより得られた各DCT係数(広義には直交変換係数)が量子化される。そして、ハフマン符号化(エントロピー符号化、可変長符号化)が行われ、これにより圧縮データが得られる。一方、圧縮画像のデータ伸張は次のように実現できる。即ち、まず圧縮データが遠景画像記憶部173から読み込まれる。伸張部124は、この読み込まれた圧縮データに対してハフマン復号化(エントロピー復号化、可変長復号化)を行う。次に、伸張部124は、ハフマン復号化後のデータに対して逆量子化を行う。そして、逆DCTを行い、これにより伸張データが得られる。   Data compression of a distant view image can be realized as follows. That is, first, data is divided into a plurality of macroblocks. Then, DCT (Discrete Cosine Transform, Orthogonal Transform) is performed on each divided block. Thereby, the data is decomposed in frequency (spatial frequency). Next, each DCT coefficient (orthogonal transform coefficient in a broad sense) obtained by DCT is quantized. Then, Huffman coding (entropy coding, variable length coding) is performed, whereby compressed data is obtained. On the other hand, data decompression of a compressed image can be realized as follows. That is, first, the compressed data is read from the distant view image storage unit 173. The decompression unit 124 performs Huffman decoding (entropy decoding, variable length decoding) on the read compressed data. Next, the decompression unit 124 performs inverse quantization on the data after Huffman decoding. Then, inverse DCT is performed, whereby decompressed data is obtained.

画像生成部120は、圧縮画像を伸長(デコード)することにより得られた遠景画像を、遠景マップオブジェクトにマッピングする。例えば圧縮ムービーテクスチャを伸長することにより得られた遠景画像を遠景マップオブジェクトにマッピングする。具体的には、圧縮画像を伸長することにより得られる複数の遠景画像の中から、仮想カメラの位置に対応する遠景画像をフレーム番号により特定する。例えば仮想カメラの位置とフレーム番号とを対応付けておき、仮想カメラの位置からフレーム番号を特定し、フレーム番号により特定される遠景画像を、遠景マップオブジェクトにマッピングする。   The image generation unit 120 maps the distant view image obtained by decompressing (decoding) the compressed image to the distant view map object. For example, a distant view image obtained by expanding a compressed movie texture is mapped to a distant view map object. Specifically, a distant view image corresponding to the position of the virtual camera is specified by a frame number from among a plurality of distant view images obtained by decompressing the compressed image. For example, the position of the virtual camera is associated with the frame number, the frame number is specified from the position of the virtual camera, and the distant view image specified by the frame number is mapped to the distant view map object.

なお画像生成部120は、各画像が複数の画面の各々に表示される複数の画像を生成することができる。即ち、異なる仮想カメラ位置(視点位置)、視線方向での画像を生成して、各プレーヤに対応する各画面に表示する。例えば第1の仮想カメラから見える第1の画面用の第1の画像(第1の視界画像)と、第2の仮想カメラから見える第2の画面用の第2の画像(第2の視界画像)を生成し、第1、第2の画面に表示する。この場合に画像生成部120は、第1の画面用の第1の画像と、第2の画面用の第2の画像を、遠景画像記憶部173に記憶される遠景画像を共用して生成する。例えば第1の画面に表示する第1の画像については、遠景画像記憶部173に記憶される複数の遠景画像のうち、第Kの位置に対応付けられた遠景画像を使用して生成する。一方、第2の画面に表示する第2の画像については、遠景画像記憶部173に記憶される複数の遠景画像のうち、第Lの位置に対応付けられた遠景画像を使用して生成する。   The image generation unit 120 can generate a plurality of images in which each image is displayed on each of a plurality of screens. That is, images with different virtual camera positions (viewpoint positions) and line-of-sight directions are generated and displayed on each screen corresponding to each player. For example, a first image for the first screen (first view image) that can be seen from the first virtual camera, and a second image for the second screen (second view image that can be seen from the second virtual camera) ) And displayed on the first and second screens. In this case, the image generation unit 120 generates the first image for the first screen and the second image for the second screen by sharing the distant view image stored in the distant view image storage unit 173. . For example, the first image to be displayed on the first screen is generated using a distant view image associated with the Kth position among a plurality of distant view images stored in the distant view image storage unit 173. On the other hand, the second image displayed on the second screen is generated using a distant view image associated with the Lth position among the plurality of distant view images stored in the distant view image storage unit 173.

また画像生成部120は、複数の遠景画像の中から、仮想カメラの位置に対応する遠景画像として、第1〜第Nの位置に対応付けられた第1〜第Nの遠景画像を読み出す。具体的には、仮想カメラの近くの第1〜第の位置に対応付けられた第1〜第Nの遠景画像を遠景画像記憶部173から読み出す。そして読み出された第1〜第Nの遠景画像を合成した画像を、遠景マップオブジェクトに対してマッピングする。具体的には、仮想カメラの位置と第1〜第Nの位置との位置関係(距離等)に基づいてα値を求め、求められたα値に基づいて、第1〜第Nの遠景画像をα合成し、遠景マップオブジェクトにマッピングする。   In addition, the image generation unit 120 reads out the first to Nth distant view images associated with the first to Nth positions as the distant view images corresponding to the position of the virtual camera from the plurality of distant view images. Specifically, the first to Nth distant view images associated with the first to first positions near the virtual camera are read from the distant view image storage unit 173. An image obtained by combining the read first to Nth distant view images is mapped to the distant view map object. Specifically, the α value is obtained based on the positional relationship (distance etc.) between the position of the virtual camera and the first to Nth positions, and the first to Nth distant view images are obtained based on the obtained α value. Is alpha-combined and mapped to a distant view map object.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 遠景マップオブジェクトへの遠景画像のマッピング
本実施形態では図2に示すように、オブジェクト空間の各位置P11、P12、P13、P14、P15・・・において仮想カメラ(移動体)から見えるべき遠景画像(背景画像)IM11、IM12、IM13、IM14、IM15・・・が、遠景画像記憶部173に記憶される。具体的にはゲーム制作時(CG制作時)に、オブジェクト空間の各位置P11、P12、P13・・・に仮想カメラを配置設定する。そして、各位置P11、P12、P13・・・に配置された仮想カメラによりその周囲を見渡した時に見えるべき画像を生成する。そしてこのようにして生成された画像が、遠景画像として遠景画像記憶部173に記憶される。この場合の遠景画像は、背景を構成するオブジェクトのうち、遠景オブジェクトをオブジェクト空間に配置して生成する。またこの遠景画像の生成処理は、ゲーム制作時に行われ、リアルタイム性が要求されない処理であるため、ポリゴン数が極めて多い詳細なモデルを用いて遠景画像を生成する。また図2に示すように、各遠景画像IM11、IM12、IM13・・・は、位置P11、P12、P13・・・に対応付けられて遠景画像記憶部173に記憶される。なお位置P11、P12、P13・・・とフレーム番号を対応付けておき、このフレーム番号と遠景画像IM11、IM12、IM13・・・を対応付けて遠景画像記憶部173に記憶するようにしてもよい。
2. 2. Method of this embodiment 2.1 Mapping of a distant view image to a distant view map object In this embodiment, as shown in FIG. 2, a virtual camera (moving) is provided at each position P11, P12, P13, P14, P15. Distant view images (background images) IM11, IM12, IM13, IM14, IM15... To be seen from the body) are stored in the distant view image storage unit 173. Specifically, at the time of game production (CG production), a virtual camera is arranged and set at each position P11, P12, P13. And the image which should be seen when the surroundings are looked around by the virtual camera arrange | positioned at each position P11, P12, P13 ... is produced | generated. The image generated in this way is stored in the distant view image storage unit 173 as a distant view image. In this case, the distant view image is generated by arranging distant view objects in the object space among the objects constituting the background. Further, this far-view image generation process is performed at the time of game production and does not require real-time performance, and therefore a distant view image is generated using a detailed model having an extremely large number of polygons. 2, the distant view images IM11, IM12, IM13... Are stored in the distant view image storage unit 173 in association with the positions P11, P12, P13. Note that the positions P11, P12, P13,... May be associated with frame numbers, and the frame numbers and the distant view images IM11, IM12, IM13,. .

図3に本実施形態の遠景画像の例を示す。図3のA1は、進行方向に対して仮想カメラを左に向けた時に見える画像である。同様にA2、A3、A4、A5、A6は、仮想カメラを前、右、後ろ、上、下に向けた時に見える画像(2次元画像、疑似3次元画像)である。これらの画像では、仮想カメラから遠い位置にある観客席、壁、空、雲等の遠景オブジェクトが描画されている。また道(コース)の画像も描画されている。遠景画像記憶部173は、例えば図3のA1〜A6の画像を一組とした画像を遠景画像として記憶する。なお図3のA1〜A6の各画像を別個に遠景画像として記憶するようにしてもよい。   FIG. 3 shows an example of a distant view image of the present embodiment. A1 in FIG. 3 is an image that can be seen when the virtual camera is turned to the left with respect to the traveling direction. Similarly, A2, A3, A4, A5, and A6 are images (a two-dimensional image and a pseudo three-dimensional image) that can be seen when the virtual camera is pointed forward, right, back, up, and down. In these images, a distant view object such as a spectator seat, a wall, a sky, a cloud and the like located far from the virtual camera is drawn. A road (course) image is also drawn. The distant view image storage unit 173 stores, as a distant view image, for example, a set of images A1 to A6 in FIG. In addition, you may make it memorize | store each image of A1-A6 of FIG. 3 as a distant view image separately.

本実施形態では図3の遠景画像を例えば図4に示すような遠景マップオブジェクト(遠景キューブマップオブジェクト)MOBにマッピングして、オブジェクト空間(ゲーム空間)内において仮想カメラVCから見える画像を生成する。具体的には図3のA1、A2、A3、A4、A5、A6の画像を、各々、遠景マップオブジェクトMOBを構成するプリミティブ面(ポリゴン)PS1、PS2、PS3、PS4、PS5、PS6にマッピングする。即ちプリミティブ面PS1〜PS6の外側、内側の面(表側、裏側面)のうち、仮想カメラVCから見える側である内側の面にA1〜A6の画像をマッピングする。そして遠景マップオブジェクトMOBの内側に配置された仮想カメラVCから、これらの遠景マップオブジェクトMOBの内側の面を見ることで、ゲーム(CG)制作時と同様の画像が仮想カメラに映し出される。これにより、ゲーム画像を構成する遠景(背景)の画像が表示部190に表示されるようになる。   In this embodiment, the distant view image of FIG. 3 is mapped to a distant view map object (distant view cube map object) MOB as shown in FIG. 4, for example, and an image that can be seen from the virtual camera VC in the object space (game space) is generated. Specifically, the images A1, A2, A3, A4, A5, and A6 in FIG. 3 are mapped to the primitive planes (polygons) PS1, PS2, PS3, PS4, PS5, and PS6 constituting the distant view map object MOB, respectively. . That is, the images of A1 to A6 are mapped to the inner surfaces that are visible from the virtual camera VC among the outer and inner surfaces (front and back surfaces) of the primitive surfaces PS1 to PS6. Then, from the virtual camera VC arranged inside the distant view map object MOB, by viewing the inner surface of these distant view map objects MOB, an image similar to that at the time of game (CG) production is displayed on the virtual camera. As a result, a distant view (background) image constituting the game image is displayed on the display unit 190.

図2、図3、図4では、オブジェクト空間の各位置において、上下前後左右の6方向のそれぞれの画像が用意されて、遠景マップオブジェクトMOB(キューブマップオブジェクト)の内側にマッピングされる。従って、仮想カメラVCが上下前後左右等のどの方向を向いた場合にも、その方向に対応する遠景画像(背景画像)が表示部190に表示されるようになる。   2, 3, and 4, images in six directions of up, down, front, back, left, and right are prepared at each position in the object space and mapped inside the distant view map object MOB (cube map object). Therefore, when the virtual camera VC faces in any direction such as up / down / front / back / left / right, a distant view image (background image) corresponding to the direction is displayed on the display unit 190.

このような本実施形態の手法によれば、遠景画像を構成する遠景オブジェクトについては、リアルタイムに描画しなくても済む。従って処理負荷を軽減できる。また遠景は2次元画像(疑似3次元画像)として予め用意されているため、広い距離範囲の遠景を表示しても、処理負荷はそれほど変化しない。従って広い距離範囲に亘る遠景の表示が少ない処理負荷で可能になる。更に、遠景画像は、リアルタイムに生成されずに、ゲーム制作時に生成できる。従って、リアルタイム処理で生成する場合に比べて、高精細の遠景画像を用意することができ、少ない処理負荷でリアルな画像を生成できる。   According to such a method of the present embodiment, it is not necessary to draw a distant view object constituting a distant view image in real time. Therefore, the processing load can be reduced. Since the distant view is prepared in advance as a two-dimensional image (pseudo three-dimensional image), the processing load does not change so much even if a distant view of a wide distance range is displayed. Therefore, it is possible to display a distant view over a wide distance range with a small processing load. Furthermore, a distant view image can be generated at the time of game production without being generated in real time. Therefore, it is possible to prepare a high-definition distant view image as compared with the case of generating by real-time processing, and it is possible to generate a realistic image with a small processing load.

なお遠景マップオブジェクトMOBとしては種々の形状のオブジェクトを採用できる。例えば図4のプリミティブ面PS1〜PS6の一部を省略したオブジェクトにしてもよい。例えば仮想カメラVCが後ろ側、上側、下側を向かないようなゲーム(電車ゲーム等)においては、プリミティブ面PS4、PS5、PS6を設けない遠景マップオブジェクトMOBを採用できる。また本実施形態の遠景マップオブジェクトは、図4のようなキューブの遠景マップオブジェクトに限定されない。例えば図5(A)では直方体の遠景マップオブジェクトが用いられ、図5(B)では円柱の遠景マップオブジェクトが用いられている。遠景マップオブジェクトは、例えば、少なくとも仮想カメラの前方、左側、右側に位置するプリミティブ面により構成されるオブジェクトであればよい。   Note that objects of various shapes can be adopted as the distant view map object MOB. For example, an object in which a part of the primitive surfaces PS1 to PS6 in FIG. 4 is omitted may be used. For example, in a game (such as a train game) in which the virtual camera VC does not face the rear side, the upper side, or the lower side, a distant view map object MOB that does not include the primitive planes PS4, PS5, and PS6 can be employed. The distant view map object of the present embodiment is not limited to the distant view map object of the cube as shown in FIG. For example, a rectangular parallelepiped map object is used in FIG. 5A, and a cylindrical distant map object is used in FIG. 5B. The distant view map object may be, for example, an object composed of primitive surfaces positioned at least on the front, left, and right sides of the virtual camera.

また図2では、複数の遠景画像がオブジェクト空間の格子点の位置に対応付けられているが、本実施形態はこれに限定されない。例えば図6(A)では、オブジェクト空間のコースに沿って基準点G1、G2、G3・・・が設定されている。即ち図6(A)では、コース上での移動体の現在位置や順位等を把握するために、コースの中心線(基準線)に沿って基準点G1、G2、G3・・・設定し、これらの基準点G1、G2、G3・・・を繋いだ線を座標軸とする道座標系を用いる。そして基準点G1、G2、G3・・・のうち移動体(仮想カメラ)に最も近い基準点を検索することで、移動体の現在位置や順位を取得する。   In FIG. 2, a plurality of distant view images are associated with the positions of lattice points in the object space, but the present embodiment is not limited to this. For example, in FIG. 6A, reference points G1, G2, G3... Are set along the course of the object space. That is, in FIG. 6A, in order to grasp the current position and order of the moving body on the course, reference points G1, G2, G3... Are set along the center line (reference line) of the course. A road coordinate system using a line connecting these reference points G1, G2, G3... As a coordinate axis is used. The current position and order of the moving object are acquired by searching for the reference point closest to the moving object (virtual camera) among the reference points G1, G2, G3.

本実施形態の遠景画像は、これらの基準点G1、G2、G3・・・に対応付けて記憶してもよい。例えばレール上を走る電車から見える画像が表示される電車ゲーム等では、仮想カメラの位置がレールの左右にずれることはない。従って、このような電車ゲーム等では、レールに沿って並ぶ基準点G1、G2、G3・・・に対応付けて遠景画像を記憶すればよい。   The distant view image of the present embodiment may be stored in association with these reference points G1, G2, G3. For example, in a train game or the like in which an image seen from a train running on the rail is displayed, the position of the virtual camera does not shift to the left or right of the rail. Therefore, in such a train game or the like, a distant view image may be stored in association with the reference points G1, G2, G3,.

また図6(B)に示すように、遠景画像が対応付けられる格子点を、仮想カメラ(移動体)の移動可能範囲にのみ設定するようにしてもよい。このようにすれば、遠景画像のデータ量を減らすことができ、メモリの使用記憶容量を節約できる。また仮想カメラ(移動体)の移動フィールドに対して、複数の位置取得用(座標計算用)のポリゴンを配置し、この細分化された各ポリゴンに対して遠景画像を対応付けて記憶するようにしてもよい。この場合には、各ポリゴンに対して移動条件情報、イベント発生フラグなどの属性情報を設定し、この属性情報に基づいて移動体の移動を制御したり、ゲームイベントを発生させたりすることができる。   Further, as shown in FIG. 6B, lattice points associated with a distant view image may be set only in the movable range of the virtual camera (moving body). In this way, the data amount of the distant view image can be reduced, and the used storage capacity of the memory can be saved. Also, a plurality of position acquisition (coordinate calculation) polygons are arranged in the movement field of the virtual camera (moving body), and a distant view image is associated with each subdivided polygon and stored. May be. In this case, attribute information such as movement condition information and an event generation flag can be set for each polygon, and the movement of the moving body can be controlled based on this attribute information, or a game event can be generated. .

2.2 近景オブジェクトの描画
本実施形態では図3の遠景画像に描かれる遠景オブジェクト(観客席、壁等)よりも仮想カメラから見て近くに配置設定される近景オブジェクトの描画処理を行っている。
2.2 Drawing foreground objects In this embodiment, drawing processing is performed for foreground objects that are arranged and set closer to the virtual camera than the distant objects (audience seats, walls, etc.) drawn in the distant view image of FIG. .

具体的には図7(A)(B)のB1、B2に示すように、遠景マップオブジェクトMOBのプリミティブ面PS2の位置よりも、仮想カメラVCから見て遠くにあるオブジェクトOB2が、遠景オブジェクトとして遠景画像に描かれる。例えば図3における観客席や背景等のオブジェクトが、遠景オブジェクトとして遠景画像に描かれて、遠景画像記憶部173に記憶される。なお図7(A)は、遠景マップオブジェクトMOB、仮想カメラVC、オブジェクトOB1、OB2等を横方向(X軸に沿った方向)から見た場合の図であり、図7(B)は上方向(Y軸に沿った方向)から見た場合の図である。   Specifically, as shown in B1 and B2 of FIGS. 7A and 7B, an object OB2 that is farther from the virtual camera VC than the position of the primitive plane PS2 of the far view map object MOB is a far view object. It is drawn in a distant view image. For example, objects such as spectator seats and backgrounds in FIG. 3 are drawn as a distant view object in a distant view image and stored in the distant view image storage unit 173. FIG. 7A is a view when the distant view map object MOB, virtual camera VC, objects OB1, OB2, etc. are viewed from the horizontal direction (direction along the X axis), and FIG. 7B is the upward direction. It is a figure at the time of seeing from (direction along the Y-axis).

そして本実施形態では画像生成部120が、遠景マップオブジェクトMOBのプリミティブ面PS2の位置よりも、仮想カメラVCから見て近くにあるオブジェクトOB1を、近景オブジェクトとして描画する。   In this embodiment, the image generation unit 120 draws an object OB1 that is closer to the virtual camera VC than the position of the primitive plane PS2 of the distant view map object MOB as a foreground object.

即ち本実施形態では、遠景マップオブジェクトMOBを構成するプリミティブ面PS2は、仮想カメラVCから所与の距離だけ離れた位置に配置される。従って、このプリミティブ面PS2よりも遠くにあるオブジェクトOB2については、図7(A)(B)のB1、B2に示すように遠景画像に描いても不自然にはならないが、プリミティブ面PS2よりも手前側にあるオブジェクトOB1を遠景画像に描くと、不自然な画像が生成されるおそれがある。例えばオブジェクトOB1が仮想カメラVCの目の前に近づいた場合には、オブジェクトOB1の形状、画像が大きく表示され、その詳細が目立ってしまう。   That is, in the present embodiment, the primitive plane PS2 constituting the distant view map object MOB is arranged at a position away from the virtual camera VC by a given distance. Accordingly, the object OB2 farther than the primitive surface PS2 is not unnatural even if it is drawn on a distant view image as shown by B1 and B2 in FIGS. 7A and 7B. If the object OB1 on the near side is drawn on a distant view image, an unnatural image may be generated. For example, when the object OB1 comes close to the eyes of the virtual camera VC, the shape and image of the object OB1 are displayed large, and the details are conspicuous.

そこで図7(A)(B)では、プリミティブ面PS2よりも手前側にあるオブジェクトOB1については、通常のリアルタイム処理の近景オブジェクトとして描画する。このようにすれば、オブジェクトOB1が仮想カメラVCの目の前に近づいた場合等においても、自然でリアルな画像を生成できる。   Therefore, in FIGS. 7A and 7B, the object OB1 on the near side of the primitive surface PS2 is drawn as a foreground object in normal real-time processing. In this way, a natural and realistic image can be generated even when the object OB1 approaches the front of the virtual camera VC.

また本実施形態では図8(A)に示すように、遠景マップオブジェクトMOBのプリミティブ面PS2の位置よりも所与の距離範囲だけ遠くにあるオブジェクトOB3についても、近景オブジェクトとして描画してもよい。例えば図8(A)では、遠景マップオブジェクトMOBの周囲に、MOBよりも広い領域EARが設定される。そして遠景マップオブジェクトMOBの外側に配置されるオブジェクトは、近景オブジェクトとしてリアルタイムに描画されないのが原則であるが、遠景マップオブジェクトMOBの外側に位置し、領域EARの内側に位置するオブジェクトOB3については、近景オブジェクトとしてリアルタイムに描画する。この場合に図8(A)のC1に示すように、このオブジェクトOB3は、遠景オブジェクトとして遠景画像にも描画されている。   In the present embodiment, as shown in FIG. 8A, an object OB3 that is a given distance range away from the position of the primitive plane PS2 of the distant view map object MOB may be drawn as a foreground object. For example, in FIG. 8A, an area EAR wider than the MOB is set around the distant view map object MOB. In principle, an object placed outside the distant view map object MOB is not drawn as a foreground object in real time, but an object OB3 located outside the distant view map object MOB and inside the region EAR is Draw in real time as a foreground object. In this case, as indicated by C1 in FIG. 8A, this object OB3 is also drawn in the distant view image as a distant view object.

このようにすれば図8(B)に示すように、仮想カメラVC(移動体)の位置が変化し、オブジェクトOB3が遠景マップオブジェクトMOB内に入って来た場合に、オブジェクトOB3の画像が遠景画像から近景画像に、不自然さがなく切り替わるようになる。例えば図8(A)において、オブジェクトOB3を近景オブジェクトとして描画しておかないと、オブジェクトOB3がプリミティブ面PS2の位置に来た時に、リアルタイム描画のオブジェクトとして突然に表示されてしまい、不自然な画像が生成されるおそれがある。   In this way, as shown in FIG. 8B, when the position of the virtual camera VC (moving object) changes and the object OB3 enters the distant view map object MOB, the image of the object OB3 is distant. The image is switched from the image to the foreground image without any unnaturalness. For example, in FIG. 8A, if the object OB3 is not drawn as a foreground object, when the object OB3 comes to the position of the primitive plane PS2, it is suddenly displayed as a real-time drawing object, and an unnatural image is displayed. May be generated.

この点、図8(A)では、領域EARに位置した時からオブジェクトOB3は近景オブジェクトとして描画される。従って、オブジェクトOB3がプリミティブ面PS2の位置に来た時にも、遠景マップオブジェクトMOBに描かれた画像から、リアルタイム描画により生成される画像に、シームレスに切り替わるようになり、不自然な画像が生成されてしまう事態を効果的に防止できる。   In this regard, in FIG. 8A, the object OB3 is drawn as a foreground object from the time when it is located in the area EAR. Therefore, even when the object OB3 comes to the position of the primitive surface PS2, the image drawn on the distant view map object MOB is seamlessly switched from the image drawn by real-time drawing to an unnatural image. Can be effectively prevented.

2.3 Z値を用いた隠面消去
本実施形態では図9(A)に示すように、遠景画像に対して、R、G、Bの色(色プレーン)のみならず、Z値(奥行き値と同義)も設定される。即ち、オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像の生成処理(ゲーム制作時)の際に得られるZ値(Zプレーン)が、遠景画像に設定される。そして、オブジェクト(近景オブジェクト、移動体等)の描画の際に、オブジェクトのZ値のみならず、遠景画像のZ値も使用して、隠面消去が処理が行われる。
2.3 Hidden surface removal using Z values In this embodiment, as shown in FIG. 9A, not only R, G, and B colors (color planes) but also Z values (depths) for distant view images. Synonymous with value). That is, the Z value (Z plane) obtained at the time of generating each distant view image that should be visible from the virtual camera at each position in the object space (when creating a game) is set as the distant view image. Then, when drawing an object (foreground object, moving object, etc.), the hidden surface removal process is performed using not only the Z value of the object but also the Z value of the distant view image.

例えば図9(B)において、オブジェクトOB4(例えばビル)は遠景オブジェクトとして遠景画像に描かれている。この場合に、遠景画像のうち、オブジェクトOB4の描画領域には、オブジェクトOB4の色のみならず、オブジェクトOB4の画像生成の際に得られたZ値(Zバッファ法により得られたZ値)が設定(記憶)される。そして、他のオブジェクトOB5(例えば飛行船)をリアルタイム描画する際には、遠景画像のZ値も考慮して隠面消去処理を行う。このようにすれば図9(B)に示すように、オブジェクトOB5のうちオブジェクトOB4よりも奥側にある部分については隠面消去されて表示されないようになる。従って、前後関係の正しい画像を表示できるようになり、生成される画像のリアル度、品質を向上できる。なお遠景画像のZ値は、例えば遠景画像のαプレーンに記憶しておき、オブジェクトOB5を描画する前に、このαプレーンのZ値をZバッファに書き込むようにしてもよい。   For example, in FIG. 9B, an object OB4 (for example, a building) is depicted in a distant view image as a distant view object. In this case, in the drawing area of the object OB4 in the distant view image, not only the color of the object OB4 but also the Z value (Z value obtained by the Z buffer method) obtained when the image of the object OB4 is generated. Set (stored). Then, when drawing another object OB5 (for example, an airship) in real time, the hidden surface removal process is performed in consideration of the Z value of the distant view image. In this way, as shown in FIG. 9B, the portion of the object OB5 located behind the object OB4 is hidden and is not displayed. Therefore, it becomes possible to display an image having a correct context, and the realism and quality of the generated image can be improved. The Z value of the distant view image may be stored in the α plane of the distant view image, for example, and the Z value of the α plane may be written in the Z buffer before the object OB5 is drawn.

また本実施形態では、仮想カメラの視線方向に応じて奥行きZ値の変換処理を行っている。即ち遠景画像のZ値に対して、仮想カメラの視線方向と遠景マップオブジェクトとの位置関係に応じた変換処理を行う。なお以下では説明を簡単にするために、X−Z平面上の1軸回転のみを考える。   In the present embodiment, depth Z value conversion processing is performed in accordance with the viewing direction of the virtual camera. In other words, the Z value of the distant view image is subjected to conversion processing according to the positional relationship between the viewing direction of the virtual camera and the distant view map object. In the following, in order to simplify the description, only one-axis rotation on the XZ plane is considered.

例えば図10において、仮想カメラVCの視点位置をVPとして視線方向をEV、EV’とする。また仮想カメラVCの視線方向がEVである時の点PのX、Z座標をXP、ZPとする。この点Pは、遠景画像を構成する遠景オブジェクトの点(ピクセル)である。遠景画像のZプレーンには、仮想カメラVCがプリミティブ面PS2に正対し、視線方向がEVの方向である時のZ値が設定される。従って、仮想カメラVCの視線方向がEVからEV’に変化した時には、Z値の変換処理が必要になる。   For example, in FIG. 10, the viewpoint position of the virtual camera VC is VP, and the line-of-sight directions are EV and EV ′. Further, the X and Z coordinates of the point P when the visual line direction of the virtual camera VC is EV are XP and ZP. This point P is a point (pixel) of a distant view object constituting the distant view image. In the Z plane of the distant view image, a Z value is set when the virtual camera VC faces the primitive plane PS2 and the line-of-sight direction is the EV direction. Therefore, when the line-of-sight direction of the virtual camera VC changes from EV to EV ′, Z value conversion processing is required.

例えば図10において視線方向EVとEV’のなす角度をθとする。すると、変換後の点PのZ値ZP’は下式のように表すことができる。   For example, in FIG. 10, the angle formed by the line-of-sight directions EV and EV ′ is θ. Then, the Z value ZP ′ of the converted point P can be expressed as the following equation.

ZP’=ZP×COSθ+XP×SINθ
即ち上式では、仮想カメラVCの視線方向EVと遠景マップオブジェクトMOBとの位置関係に応じて、Z値の変換処理が行われる。具体的には、遠景マップオブジェクトMOBを構成するプリミティブ面PS2の向きに相当する方向EVと現在の仮想カメラVCの視線方向EV’とのなす角度θと、対象となる点P(ピクセル)のX座標、Y座標などに基づいて、点PのZ値をZPからZP’に変換する。そして変換により得られたZ値ZP’に基づいて、隠面消去処理を行う。このようにすれば、遠景画像に設定されたZ値を正しいZ値に変換することができ、前後関係が正しく判断された隠面消去処理を実現できる。
ZP ′ = ZP × COSθ + XP × SINθ
That is, in the above equation, the Z value conversion process is performed according to the positional relationship between the visual line direction EV of the virtual camera VC and the distant view map object MOB. Specifically, the angle θ formed by the direction EV corresponding to the orientation of the primitive plane PS2 constituting the distant view map object MOB and the line-of-sight direction EV ′ of the current virtual camera VC, and X of the target point P (pixel) Based on the coordinates, Y coordinates, etc., the Z value of the point P is converted from ZP to ZP ′. Then, based on the Z value ZP ′ obtained by the conversion, a hidden surface removal process is performed. In this way, the Z value set for the distant view image can be converted to the correct Z value, and the hidden surface removal process in which the context is correctly determined can be realized.

2.4 環境マッピング
本実施形態では図11に示すように、遠景マップオブジェクトMOBの遠景画像を、環境マッピング画像として、オブジェクト空間で移動する移動体MBに対して環境マッピングするようにしている。即ち図11において、仮想カメラVCは移動体MBに追従して移動しており、仮想カメラVCから見える画像には移動体MBの画像が映し出されている。この時、遠景マップオブジェクトMOBの内側には、仮想カメラVCにより周囲を見回した時の遠景画像がマッピングされている。
2.4 Environment Mapping In this embodiment, as shown in FIG. 11, the environment mapping is performed on the distant view image of the distant map object MOB as the environment mapping image with respect to the moving object MB moving in the object space. That is, in FIG. 11, the virtual camera VC moves following the moving body MB, and an image of the moving body MB is displayed in an image that can be seen from the virtual camera VC. At this time, a distant view image when the surroundings are looked around by the virtual camera VC is mapped inside the distant view map object MOB.

そこで本実施形態では、この遠景画像を、環境マッピング画像として移動体MBにマッピングしている。このようにすれば、仮想カメラVCにより周囲を見回した時の遠景画像が移動体MBにマッピングされるようになり、環境マッピングを実現できる。従って、遠景表示のために生成された遠景画像を有効活用して、環境マッピングを実現できるため、それほど処理負荷を増加させることなくリアルな画像を生成できる。   Therefore, in the present embodiment, this distant view image is mapped to the mobile object MB as an environment mapping image. In this way, a distant view image when the surroundings are looked around by the virtual camera VC is mapped to the moving body MB, and environment mapping can be realized. Therefore, since the environment mapping can be realized by effectively using the distant view image generated for distant view display, a realistic image can be generated without increasing the processing load so much.

なお図11の環境マッピングは例えば以下の手法で実現できる。例えば図11において移動体MBの各点(頂点、ピクセル、面)には法線ベクトルNが設定される。この場合に、法線ベクトルNを座標変換マトリクスを用いて例えば視点座標系に座標変換する。そして座標変換後の法線ベクトルNの例えばX、Y座標に基づいて、環境マッピングのためのテクスチャ座標TX、TYを求める。そして求められたテクスチャ座標TX、TYに基づいて、遠景マップオブジェクトMOBの遠景画像(遠景テクスチャ)をサンプリングして、移動体MBにマッピングする。このようにすれば、仮想カメラVCの向く方向に応じたリアルな遠景画像が移動体MBに環境マッピングされるようになる。   The environment mapping in FIG. 11 can be realized by the following method, for example. For example, in FIG. 11, a normal vector N is set for each point (vertex, pixel, surface) of the moving body MB. In this case, the normal vector N is coordinate-converted to, for example, a viewpoint coordinate system using a coordinate conversion matrix. Then, based on, for example, X and Y coordinates of the normal vector N after coordinate conversion, texture coordinates TX and TY for environment mapping are obtained. Then, based on the obtained texture coordinates TX and TY, a distant view image (distant view texture) of the distant map object MOB is sampled and mapped to the moving object MB. In this way, a realistic distant view image corresponding to the direction in which the virtual camera VC faces is environment-mapped on the moving body MB.

なお仮想カメラVCの向く方向に依存せずに、移動体MBの法線ベクトルNでサンプリングされる遠景画像をそのまま移動体MBにマッピングするようにしてもよい。また図11ではキューブ環境マッピングの例を示しているが、本実施形態の環境マッピングはこのようなキューブ環境マッピングに限定されず、四面体環境マッピング等であってもよい。   Note that a distant view image sampled by the normal vector N of the moving object MB may be mapped to the moving object MB as it is without depending on the direction in which the virtual camera VC faces. Although FIG. 11 shows an example of cube environment mapping, the environment mapping of the present embodiment is not limited to such cube environment mapping, and may be tetrahedral environment mapping or the like.

2.5 遠景画像の圧縮
本実施形態ではオブジェクト空間の各位置に対応した遠景画像を用意する。従って、遠景画像の記憶に必要な使用記憶容量が大きくなってしまうという課題がある。
2.5 Compression of Distant View Image In this embodiment, a distant view image corresponding to each position in the object space is prepared. Therefore, there is a problem that the use storage capacity necessary for storing the distant view image becomes large.

そこで本実施形態では、複数の遠景画像を圧縮画像として記憶し、この圧縮画像を伸長することにより得られた遠景画像を、遠景マップオブジェクトにマッピングする。   Therefore, in this embodiment, a plurality of distant view images are stored as compressed images, and distant view images obtained by expanding the compressed images are mapped to distant view map objects.

例えば、この種の画像生成システムは、オープニング画面やエンディング画面でのCGムービーの再生のために、ムービーテクスチャの再生機能を有している場合が多い。本実施形態では、このムービーテクスチャの再生機能を有効活用して、遠景画像の圧縮・伸長を行う。具体的には図12(A)に示すように、複数の遠景画像を圧縮ムービーテクスチャCTEX11、CTEX12、CTEX13、CTEX14・・・として記憶しておく。そしてこれらの圧縮ムービーテクスチャCTEX11、CTEX12、CTEX13、CTEX14・・・を伸長することにより得られた遠景画像IM11、IM12、IM13、IM14・・・を、遠景マップオブジェクトにマッピングする。   For example, this type of image generation system often has a movie texture playback function for playback of a CG movie on an opening screen or an ending screen. In this embodiment, the movie texture playback function is effectively used to compress and decompress a distant view image. Specifically, as shown in FIG. 12A, a plurality of distant view images are stored as compressed movie textures CTEX11, CTEX12, CTEX13, CTEX14. Then, the distant view images IM11, IM12, IM13, IM14,... Obtained by expanding these compressed movie textures CTEX11, CTEX12, CTEX13, CTEX14,.

例えば図12(B)では、オブジェクト空間の各位置P11、P12、P13・・・に対して圧縮ムービーテクスチャCTEX11、CTEX12、CTEX13・・・が対応付けられている。従ってこれらの圧縮ムービーテクスチャCTEX11、CTEX12、CTEX13・・・を伸長することで得られる遠景画像IM11、IM12、IM13・・・もオブジェクト空間の各位置P11、P12、P13・・・に対応付けられるようになる。従って、画像生成システムのムービーテクスチャの再生機能を有効活用して遠景画像を圧縮・伸長できるようになり、新たな圧縮・伸長アルゴリズムを導入しなくても、遠景画像を効率的に圧縮・伸長できるようになる。   For example, in FIG. 12B, compressed movie textures CTEX11, CTEX12, CTEX13,... Are associated with each position P11, P12, P13,. Accordingly, the distant view images IM11, IM12, IM13,... Obtained by expanding these compressed movie textures CTEX11, CTEX12, CTEX13,... Are also associated with the positions P11, P12, P13,. become. Therefore, it is possible to compress and expand distant view images by effectively using the movie texture playback function of the image generation system, and it is possible to efficiently compress and expand distant view images without introducing a new compression / decompression algorithm. It becomes like this.

また本実施形態では、仮想カメラによる画像生成の際のオブジェクト空間での位置が互いに近い遠景画像ほど、そのフレーム番号が近い番号になるように圧縮された圧縮画像が記憶されている。例えば図2に示すように、位置P11とP12は近い位置にあり、IM11とIM12は、仮想カメラによる画像生成の際のオブジェクト空間での位置が互いに近い遠景画像である。そしてこれらの遠景画像IM11とIM12は、そのフレーム番号が1と2というように近い番号になるように圧縮された圧縮画像(圧縮ムービーテクスチャ)CTEX11とCTEX12として記憶される。同様に、位置P13とP14は近い位置にあり、IM13とIM14は、仮想カメラによる画像生成の際のオブジェクト空間での位置が互いに近い遠景画像である。そしてこれらの画像IM13とIM14は、そのフレーム番号が3と4というように近い番号になるように圧縮された圧縮画像(圧縮ムービーテクスチャ)CTEX13とCTEX14として記憶される。   Further, in the present embodiment, a compressed image is stored which is compressed so that the distant view images whose positions in the object space at the time of image generation by the virtual camera are closer to each other have the closer frame numbers. For example, as shown in FIG. 2, the positions P11 and P12 are close positions, and IM11 and IM12 are distant view images whose positions in the object space at the time of image generation by the virtual camera are close to each other. These distant view images IM11 and IM12 are stored as compressed images (compressed movie textures) CTEX11 and CTEX12 that are compressed so that the frame numbers are close to 1 and 2, for example. Similarly, positions P13 and P14 are close to each other, and IM13 and IM14 are distant view images that are close to each other in the object space when an image is generated by the virtual camera. These images IM13 and IM14 are stored as compressed images (compressed movie textures) CTEX13 and CTEX14 that are compressed so that their frame numbers are close to 3 and 4, for example.

例えばオブジェクト空間の位置P11において仮想カメラから見える遠景画像IM11と、位置P12において見える遠景画像IM12は、位置P11とP12が近いため、似た画像になる。従って図12(C)に示すように、これらの遠景画像IM11、IM12のフレーム番号が近い番号になるように圧縮すれば、遠景画像IM11、IM12をあたかも動画のように圧縮できるようになり、圧縮効率を向上できる。即ち遠景画像IM11、IM12は似た画像であり、その差分成分(動きベクトル)が少ないため、圧縮効率が高くなり、圧縮画像のデータ量を小さくできる。この結果、メモリの使用記憶容量を節約でき、少ないリソースで高品質な画像を生成できる。   For example, the distant view image IM11 seen from the virtual camera at the position P11 in the object space and the distant view image IM12 seen at the position P12 are similar because the positions P11 and P12 are close to each other. Therefore, as shown in FIG. 12C, if the frame numbers of these distant view images IM11 and IM12 are compressed so that they are close to each other, the distant view images IM11 and IM12 can be compressed as if they were moving images. Efficiency can be improved. That is, the distant view images IM11 and IM12 are similar images, and their difference components (motion vectors) are small, so that the compression efficiency is increased and the data amount of the compressed image can be reduced. As a result, the used storage capacity of the memory can be saved, and a high-quality image can be generated with fewer resources.

なお本実施形態では、圧縮画像を伸長することにより得られる複数の遠景画像の中から、仮想カメラの位置に対応する遠景画像をフレーム番号により特定し、特定された遠景画像を、前記遠景マップオブジェクトにマッピングしている。例えば図12(C)において、仮想カメラの位置がP11である場合には、複数の遠景画像IM11、IM12、IM13・・・の中から、仮想カメラの位置P11に対応する遠景画像IM11をフレーム番号=1により特定し、特定された遠景画像IM11を遠景マップオブジェクトにマッピングする。同様に仮想カメラの位置がP12である場合には、複数の遠景画像IM11、IM12、IM13・・・の中から、仮想カメラの位置P12に対応する遠景画像IM12をフレーム番号=2により特定し、特定された遠景画像IM12を遠景マップオブジェクトにマッピングする。このようにすれば、フレーム番号とオブジェクト空間の各位置を対応付けておくだけで、遠景画像を特定して遠景マップオブジェクトにマッピングできるようになる。   In the present embodiment, a distant view image corresponding to the position of the virtual camera is specified by a frame number from a plurality of distant view images obtained by decompressing the compressed image, and the specified distant view image is defined as the distant view map object. Is mapped. For example, in FIG. 12C, when the position of the virtual camera is P11, the frame number of the distant view image IM11 corresponding to the position P11 of the virtual camera is selected from the plural distant view images IM11, IM12, IM13. = 1, and the specified distant view image IM11 is mapped to the distant view map object. Similarly, when the position of the virtual camera is P12, the distant view image IM12 corresponding to the position P12 of the virtual camera is specified by the frame number = 2 from the plurality of distant view images IM11, IM12, IM13. The identified distant view image IM12 is mapped to the distant view map object. In this way, the distant view image can be specified and mapped to the distant view map object simply by associating the frame number with each position in the object space.

図13に圧縮ムービー情報のデータ構造の例を示す。圧縮ムービー情報は、ヘッダ・ブロック(圧縮ムービーテクスチャの制御情報)、フレームデータアドレス・ブロック(圧縮テクスチャの格納場所の指定情報)、フレームデータ・ブロック(圧縮テクスチャのデータ。MPEGのIピクチャのデータ)を有する。   FIG. 13 shows an example of the data structure of the compressed movie information. The compressed movie information includes a header block (compressed movie texture control information), a frame data address block (information specifying the storage location of the compressed texture), and a frame data block (compressed texture data, MPEG I picture data). Have

ここで、ヘッダ・ブロックは、圧縮ムービー情報のデータサイズや、フレーム幅(テクスチャの幅方向のテクセル数)や、フレーム高さ(テクスチャの高さ方向のテクセル数)や、ムービーテクスチャのフレーム数などのデータを含む。   Here, the header block is the data size of the compressed movie information, the frame width (the number of texels in the texture width direction), the frame height (the number of texels in the texture height direction), the number of frames of the movie texture, etc. Including data.

また、フレームデータアドレス・ブロックは、フレームデータ・ブロックでの各圧縮ムービーテクスチャCTEX11〜CTEXMN(フレーム1〜M×N)のアドレス(格納場所を指定するためのデータ。先頭アドレス)や、各CTEX11〜CTEXMNのデータサイズや、フレームデータ・ブロックでのエンドコードのアドレスを含む。   The frame data address block includes addresses (data for designating the storage location; head address) of each compressed movie texture CTEX11 to CTEXMN (frames 1 to M × N) in the frame data block and each of the CTEX11 to This includes the data size of CTEXMN and the end code address in the frame data block.

また、フレームデータ・ブロックは、CTEX11〜CTEXMN(フレーム1〜M×N)のデータ(画像データ)や、各フレームの区切りコードや、フレームデータ・ブロックのエンドコードを含む。   The frame data block includes data (image data) of CTEX11 to CTEXMN (frames 1 to M × N), a delimiter code of each frame, and an end code of the frame data block.

本実施形態では、圧縮ムービーテクスチャCTEX11〜CTEXMN(フレーム1〜M×N)のデータから、図13に示すようなデータ構造の圧縮ムービー情報を作成する。そして本実施形態では、このようなデータ構造の圧縮ムービー情報を利用して、フレーム番号により特定される遠景画像を遠景マップオブジェクトにマッピングしている。   In the present embodiment, compressed movie information having a data structure as shown in FIG. 13 is created from data of compressed movie textures CTEX11 to CTEXMN (frames 1 to M × N). In this embodiment, the distant view image specified by the frame number is mapped to the distant view map object using the compressed movie information having such a data structure.

例えばフレーム番号1の遠景画像をマッピングする場合には、圧縮ムービーテクスチャCTEX11のアドレスをフレームデータアドレス・ブロックから取得する。そしてそのアドレスにある圧縮ムービーテクスチャCTEX11のデータを伸長部124で伸長して、遠景画像IM11を得る。そして得られた遠景画像IM11を遠景マップオブジェクトにマッピングする。同様に、フレーム番号2の遠景画像をマッピングする場合には、圧縮ムービーテクスチャCTEX12のアドレスをフレームデータアドレス・ブロックから取得する。そして、そのアドレスにある圧縮ムービーテクスチャCTEX12のデータを伸長部124で伸長して、遠景画像IM12を得る。そして得られた遠景画像IM12を遠景マップオブジェクトにマッピングする。このようにすることで、圧縮ムービーテクスチャを利用した遠景画像のマッピングが可能になる。   For example, when mapping a distant view image of frame number 1, the address of the compressed movie texture CTEX11 is acquired from the frame data address block. Then, the data of the compressed movie texture CTEX11 at the address is decompressed by the decompression unit 124 to obtain the distant view image IM11. Then, the obtained distant view image IM11 is mapped to the distant view map object. Similarly, when mapping the distant view image of frame number 2, the address of the compressed movie texture CTEX12 is acquired from the frame data address block. Then, the data of the compressed movie texture CTEX12 at the address is decompressed by the decompression unit 124 to obtain the distant view image IM12. Then, the obtained distant view image IM12 is mapped to the distant view map object. By doing so, it is possible to map a distant view image using a compressed movie texture.

なお、処理負荷の軽減やメモリの使用効率の向上のためには、図14のような手法を採用することが望ましい。即ち図14では、複数の遠景画像のうち、仮想カメラVCの周囲の所与の範囲AR1(格子点)に対応する遠景画像の圧縮画像だけが伸長される。即ちオブジェクト空間の全ての位置ではなく、範囲AR1内の位置に対応付けられた遠景画像の圧縮画像(圧縮ムービーテクスチャ)だけを伸長して、記憶部170の例えば主記憶部172に展開する。この範囲AR1は仮想カメラVCの周囲に設定され、仮想カメラVC(移動体)の移動と伴い移動する。   In order to reduce the processing load and improve the use efficiency of the memory, it is desirable to adopt the method as shown in FIG. That is, in FIG. 14, only the compressed image of the distant view image corresponding to the given range AR1 (grid point) around the virtual camera VC is decompressed among the plural distant view images. That is, not only all the positions in the object space but only the compressed image (compressed movie texture) of the distant view image associated with the position in the range AR1 is expanded and expanded in the main storage unit 172 of the storage unit 170, for example. This range AR1 is set around the virtual camera VC, and moves with the movement of the virtual camera VC (moving body).

そして画像生成部120は、伸長により得られた範囲AR1に対応する遠景画像の中から、仮想カメラVCの位置に対応する遠景画像を、遠景マップオブジェクトにマッピングする。即ち主記憶部172に展開された、範囲AR1に対応する遠景画像の中から、仮想カメラVCの位置に対応する遠景画像を読み出し、読み出された遠景画像を遠景マップオブジェクトにマッピングする。   Then, the image generation unit 120 maps a distant view image corresponding to the position of the virtual camera VC from the distant view image corresponding to the range AR1 obtained by the expansion to the distant view map object. That is, the far-field image corresponding to the position of the virtual camera VC is read from the far-field images corresponding to the range AR1 developed in the main storage unit 172, and the read far-field image is mapped to the far-field map object.

図14の手法によれば、オブジェクト空間の全ての位置に対応する遠景画像を伸長しなくても済むため、伸長部124の処理負荷を軽減できる。また範囲AR1に対応する遠景画像の圧縮画像だけが、主記憶部172に展開されるため、主記憶部172の使用記憶容量を節約でき、メモリの使用効率を向上できる。   According to the method of FIG. 14, it is not necessary to expand a distant view image corresponding to all positions in the object space, so that the processing load of the expansion unit 124 can be reduced. Further, since only the compressed image of the distant view image corresponding to the range AR1 is developed in the main storage unit 172, the use storage capacity of the main storage unit 172 can be saved, and the use efficiency of the memory can be improved.

なお図14に示すように範囲AR1は、例えば仮想カメラVCが追従する移動体(車等)が移動するコースCSを覆うように設定できる。また範囲AR1は、移動体の速度等の移動情報に応じて、その大きさを設定できる。   As shown in FIG. 14, the range AR1 can be set so as to cover a course CS on which a moving body (such as a car) followed by the virtual camera VC moves. The size of the range AR1 can be set according to movement information such as the speed of the moving object.

2.6 複数画面表示
本実施形態の画像生成部120は、各画像が複数の画面の各々に表示される複数の画像を生成できる。例えば図15では、第1の画面DS1用の第1の画像IM1と、第2の画面DS2用の第2の画像IM2が生成され、画面DS1、DS2に表示される。ここで画像IM1は、画面DS1用の第1の仮想カメラから見える視界画像である。画像IM2は、画面DS2用の第2の仮想カメラから見える視界画像である。これらの第1、第2の仮想カメラは視点位置や視線方向が異なっている。
2.6 Multiple Screen Display The image generation unit 120 of the present embodiment can generate a plurality of images in which each image is displayed on each of a plurality of screens. For example, in FIG. 15, a first image IM1 for the first screen DS1 and a second image IM2 for the second screen DS2 are generated and displayed on the screens DS1 and DS2. Here, the image IM1 is a view field image that can be seen from the first virtual camera for the screen DS1. The image IM2 is a view field image that can be seen from the second virtual camera for the screen DS2. These first and second virtual cameras have different viewpoint positions and line-of-sight directions.

即ち画像IM1には、第1のプレーヤが操作する第1の移動体MB1が表示され、画像IM2には、第2のプレーヤが操作する第2の移動体MB2が表示される。そして画像IM1は、第1のプレーヤの視点に対応する第1の仮想カメラにより映し出される画像であり、画像IM2は、第2のプレーヤの視点に対応する第2の仮想カメラにより映し出される画像である。図15のように画面を分割して表示することで、複数のプレーヤが対戦してゲームを楽しむことができるゲーム画像を表示できる。   That is, the first moving body MB1 operated by the first player is displayed in the image IM1, and the second moving body MB2 operated by the second player is displayed in the image IM2. The image IM1 is an image displayed by the first virtual camera corresponding to the viewpoint of the first player, and the image IM2 is an image displayed by the second virtual camera corresponding to the viewpoint of the second player. . By dividing and displaying the screen as shown in FIG. 15, it is possible to display a game image in which a plurality of players can play and enjoy the game.

なお、図15では画面DS1、DS2は、1つの表示部の画面を分割した画面になっているが、第1の表示部の画面を画面DS1とし、第2の表示部の画面を画面DS2としてもよい。   In FIG. 15, the screens DS1 and DS2 are screens obtained by dividing the screen of one display unit, but the screen of the first display unit is the screen DS1, and the screen of the second display unit is the screen DS2. Also good.

本実施形態では、図15に示すような画面DS1、DS2用の画像IM1、IM2を、遠景画像記憶部173に記憶される遠景画像を共用して生成している。具体的には、画面DS1用の仮想カメラ(移動体MB1)の位置がP11である場合には、位置P11に対応付けられた遠景画像IM11を用いて、画面DS1用の画像IM1が生成される。また画面DS2用の仮想カメラ(移動体MB2)の位置がP53である場合には、位置P53に対応付けられた遠景画像IM53を用いて、画面DS2用の画像IM2が生成される。   In the present embodiment, images IM1 and IM2 for the screens DS1 and DS2 as shown in FIG. 15 are generated by sharing the distant view image stored in the distant view image storage unit 173. Specifically, when the position of the virtual camera (mobile body MB1) for the screen DS1 is P11, the image IM1 for the screen DS1 is generated using the distant view image IM11 associated with the position P11. . When the position of the virtual camera (moving body MB2) for the screen DS2 is P53, the image IM2 for the screen DS2 is generated using the distant view image IM53 associated with the position P53.

例えば本実施形態の手法を採用せずに、図15に示すような2画面表示を行おうとすると、画面DS1用のオブジェクトの描画処理と、画面DS2用のオブジェクトの描画処理が必要になるため、1画面表示の場合に比べて処理負荷が2倍程度になってしまう。このため、リアルタイムの画像生成が難しくなる。特に画面の分割数が更に増えると、この処理負荷の増加の問題は深刻になる。   For example, when the two-screen display as shown in FIG. 15 is performed without employing the method of the present embodiment, the drawing process of the object for the screen DS1 and the drawing process of the object for the screen DS2 are necessary. The processing load is about twice that of a single screen display. For this reason, real-time image generation becomes difficult. In particular, when the number of screen divisions further increases, the problem of an increase in processing load becomes serious.

この点、本実施形態によれば、遠景オブジェクトについては遠景画像に予め描画されている。従って、図15のように2画面表示を行った場合にも、1画面表示の場合に比べて処理負荷はそれほど増加しない。   In this regard, according to the present embodiment, the distant view object is drawn in advance in the distant view image. Therefore, even when two-screen display is performed as shown in FIG. 15, the processing load does not increase much compared to the case of single-screen display.

また図15では、画面DS1用の画像IM1と画面DS2用の画像IM2とが、遠景画像記憶部173を共用して生成される。即ち画像IM1の生成に使用される遠景画像IM11と、画像IM2の生成に使用される遠景画像IM53は、同じ遠景画像記憶部173に記憶される遠景画像である。従って図15の手法によれば、メモリの使用記憶容量の増加を抑えながら、負荷の軽い処理で図15のような2画面表示を実現できるという利点がある。   In FIG. 15, the image IM1 for the screen DS1 and the image IM2 for the screen DS2 are generated by sharing the distant view image storage unit 173. That is, the distant view image IM11 used for generating the image IM1 and the distant view image IM53 used for generating the image IM2 are distant view images stored in the same distant view image storage unit 173. Therefore, according to the method of FIG. 15, there is an advantage that the two-screen display as shown in FIG. 15 can be realized by processing with a light load while suppressing an increase in the used storage capacity of the memory.

2.7 遠景画像の合成
より正確な遠景画像を生成するためには、図2の位置P11、P12、P13・・・の密度(格子点密度)を高くすればよい。しかしながら、このように位置の密度を高くすると、その分だけ多くのデータ量の遠景画像を記憶しなければならなくなり、メモリの使用記憶容量が増えてしまう。
2.7 Composition of Distant View Image In order to generate a more accurate distant view image, the density (grid point density) of the positions P11, P12, P13... In FIG. However, when the position density is increased in this way, a far-field image having a larger amount of data must be stored, and the use storage capacity of the memory increases.

そこで本実施形態では、複数の遠景画像の合成により得られた遠景画像を遠景マップオブジェクトにマッピングする手法を採用している。   Therefore, in the present embodiment, a technique is adopted in which a distant view image obtained by combining a plurality of distant view images is mapped to a distant view map object.

例えば図16では、遠景画像記憶部173に記憶される複数の遠景画像の中から、仮想カメラVCの位置に対応する遠景画像として、位置P11、P12(広義には第1〜第Nの位置)に対応付けられた遠景画像IM11、IM12(広義には第1〜第Nの遠景画像)を読み出す。そして読み出された遠景画像IM11、IM12を合成した画像を、遠景マップオブジェクトに対してマッピングする。   For example, in FIG. 16, positions P11 and P12 (first to Nth positions in a broad sense) as distant view images corresponding to the position of the virtual camera VC from among a plurality of distant view images stored in the distant view image storage unit 173. The distant view images IM11 and IM12 (first to Nth distant view images in a broad sense) associated with are read out. Then, an image obtained by combining the read distant view images IM11 and IM12 is mapped to the distant view map object.

具体的には図16において、位置P11と仮想カメラVCの距離L1と、位置P12と仮想カメラVCとの距離L2を求める。そしてこれらの距離L1、L2に基づいて、遠景画像IM11、IM12の合成の際のα値を求める。   Specifically, in FIG. 16, a distance L1 between the position P11 and the virtual camera VC and a distance L2 between the position P12 and the virtual camera VC are obtained. Based on these distances L1 and L2, the α value at the time of synthesizing the distant view images IM11 and IM12 is obtained.

例えば遠景画像IM11のR、G、B成分をR11、G11、B11とし、遠景画像IM12のR、G、B成分をR12、G12、B12とする。また合成により得られた遠景画像IMAのR、G、B成分をRa、Ga、Baとする。すると例えば下式が成り立つ。 For example, the R, G, and B components of the distant view image IM11 are R 11 , G 11 , and B 11, and the R, G, and B components of the distant view image IM12 are R 12 , G 12 , and B 12 . Further, R, G, and B components of the distant view image IMA obtained by the synthesis are represented by Ra, Ga, and Ba. Then, for example, the following equation holds.

Ra=(1−α)×R11+α×R12
Ga=(1−α)×G11+α×G12
Ba=(1−α)×B11+α×B12
α=L1/(L1+L2)
このように、複数の遠景画像を合成した遠景画像を用いる手法によれば、位置P11、P12、P13・・・の密度をそれほど高くしなくても、より正確な遠景画像を生成できる。従って、データ量の増加を抑えながら高品質の遠景画像を生成して表示できる。
Ra = (1-α) × R 11 + α × R 12
Ga = (1-α) × G 11 + α × G 12
Ba = (1−α) × B 11 + α × B 12
α = L1 / (L1 + L2)
As described above, according to the technique using the distant view image obtained by combining a plurality of distant view images, a more accurate distant view image can be generated without increasing the density of the positions P11, P12, P13. Therefore, it is possible to generate and display a high quality distant view image while suppressing an increase in the data amount.

なお遠景画像の合成手法は種々の変形実施が可能である。例えば上式の補間処理の式では2つの位置の遠景画像を合成しているが、3つ以上の位置の遠景画像を合成してもよい。またR、G、Bなどの色のみならず、遠景画像のZ値についても、上式のような補間処理で求めてもよい。   It should be noted that the distant view image composition method can be variously modified. For example, in the above equation for interpolation processing, distant view images at two positions are combined, but distant view images at three or more positions may be combined. Further, not only the colors such as R, G, and B but also the Z value of the distant view image may be obtained by the interpolation processing as in the above equation.

2.8 詳細な処理例
次に本実施形態の詳細な処理例を図17のフローチャートを用いて説明する。
2.8 Detailed Processing Example Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.

まず、仮想カメラの位置(視点位置)、視線方向を求める(ステップS1)。例えば、操作部160からの操作データやプログラムなどに基づいて、移動体の位置、方向を求め、この移動体に追従する仮想カメラの位置、視線方向を求める。或いは、仮想カメラの制御データ(制御プログラム)に基づいて仮想カメラの位置、視線方向を求める。   First, the virtual camera position (viewpoint position) and line-of-sight direction are obtained (step S1). For example, the position and direction of the moving body are obtained based on operation data from the operation unit 160, a program, and the like, and the position and line-of-sight direction of the virtual camera following the moving body are obtained. Alternatively, the position and line-of-sight direction of the virtual camera are obtained based on the virtual camera control data (control program).

次に、求められた仮想カメラの位置により、対象となる遠景画像を特定する(ステップS2)。例えば図12(C)では、仮想カメラの位置によりフレーム番号を特定し、このフレーム番号により遠景画像を特定する。   Next, a target distant view image is specified based on the obtained position of the virtual camera (step S2). For example, in FIG. 12C, a frame number is specified by the position of the virtual camera, and a distant view image is specified by this frame number.

次に図12(A)で説明したように、圧縮された遠景ムービーテクスチャを伸長する(ステップS3)。そして伸長により得られた遠景画像のテクスチャを、図4に示すような遠景キューブマップオブジェクトにマッピングする(ステップS4)。   Next, as described in FIG. 12A, the compressed distant view movie texture is expanded (step S3). Then, the texture of the distant view image obtained by the expansion is mapped to a distant view cube map object as shown in FIG. 4 (step S4).

次に、遠景キューブマップオブジェクトを仮想カメラの視線方向に応じて描画バッファに描画する(ステップS5)。この際に、図10で説明したようにZ値を視線方向に従って変換する。そして、図7(A)(B)で説明したように、近景オブジェクトを描画バッファに描画する(ステップS6)。次に、車などの移動体を描画バッファに描画する(ステップS7)。この際に、図11で説明したように、移動体に対して遠景キューブマップオブジェクトのテクスチャを環境マッピングする。   Next, the distant view cube map object is drawn in the drawing buffer according to the viewing direction of the virtual camera (step S5). At this time, as described in FIG. 10, the Z value is converted in accordance with the line-of-sight direction. Then, as described in FIGS. 7A and 7B, the foreground object is drawn in the drawing buffer (step S6). Next, a moving body such as a car is drawn in the drawing buffer (step S7). At this time, as described with reference to FIG. 11, the texture of the distant view cube map object is environment-mapped with respect to the moving object.

3.ハードウェア構成
図18に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、DVD982(情報記憶媒体。CDでもよい。)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
3. Hardware Configuration FIG. 18 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a DVD 982 (information storage medium, which may be a CD), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like. Perform processing, sound processing, etc. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエイリアシング、シェーディング処理なども行う。頂点シェーダやピクセルシェーダなどのプログラマブルシェーダが実装されている場合には、シェーダプログラムに従って、頂点データの作成・変更(更新)やピクセル(あるいはフラグメント)の描画色の決定を行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When a programmable shader such as a vertex shader or a pixel shader is installed, the vertex data is created / changed (updated) and the drawing color of a pixel (or fragment) is determined according to the shader program. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980(CDドライブでもよい。)は、プログラム、画像データ、或いは音データなどが格納されるDVD982(CDでもよい。)にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 (may be a CD drive) accesses a DVD 982 (may be a CD) in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings.

また遠景画像のマッピング手法、遠景画像の圧縮・伸長手法、遠景画像の合成手法も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Further, the far-field image mapping method, the far-field image compression / decompression method, and the far-field image composition method are not limited to those described in this embodiment, and methods equivalent to these methods are also included in the scope of the present invention.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレイヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 本実施形態の手法の説明図。Explanatory drawing of the method of this embodiment. 遠景画像の例。An example of a distant view image. 遠景マップオブジェクトの例。An example of a distant view map object. 図5(A)(B)は遠景マップオブジェクトの他の例。5A and 5B show other examples of the distant view map object. 図6(A)(B)は基準点や位置取得用ポリゴンを用いる手法の説明図。6A and 6B are explanatory diagrams of a method using a reference point and a position acquisition polygon. 図7(A)(B)は近景オブジェクトの描画手法の説明図。7A and 7B are explanatory diagrams of a drawing method for a foreground object. 図8(A)(B)は近景オブジェクトの描画手法の説明図。8A and 8B are explanatory diagrams of a drawing method for a foreground object. 図9(A)(B)は遠景画像のZ値を用いた隠面消去手法の説明図。9A and 9B are explanatory diagrams of a hidden surface removal method using the Z value of a distant view image. Z値の変換手法の説明図。Explanatory drawing of the conversion method of Z value. 遠景画像を用いた環境マッピング手法の説明図。Explanatory drawing of the environment mapping method using a distant view image. 図12(A)(B)(C)は遠景画像の圧縮・伸長手法の説明図。12A, 12B, and 12C are explanatory diagrams of a method for compressing and expanding a distant view image. 圧縮ムービー情報のデータ構造の例。An example of the data structure of compressed movie information. 所与の範囲に対応する遠景画像の圧縮画像だけを伸長する手法の説明図。Explanatory drawing of the method of decompress | decompressing only the compression image of the distant view image corresponding to a given range. 第1、第2の画面用の第1、第2の画像を、遠景画像記憶を共用して生成する手法の説明図。Explanatory drawing of the method which produces | generates the 1st, 2nd image for 1st, 2nd screens by sharing a distant view image memory | storage. 複数の遠景画像を合成する手法の説明図。Explanatory drawing of the method of synthesize | combining several distant view images. 本実施形態の処理の詳細例。The detailed example of the process of this embodiment. ハードウェア構成例。Hardware configuration example.

符号の説明Explanation of symbols

100 処理部、108 ゲーム演算部、110 オブジェクト空間設定部、
112 移動体演算部、114 仮想カメラ制御部、120 画像生成部、
122 変換処理部、124 伸長部、130 音生成部、
160 操作部、170 記憶部、172 主記憶部、
173 遠景画像記憶記憶部、174 描画バッファ、176 モデルデータ記憶部、
180 情報記憶媒体、190 表示部、192 音出力部、
194 携帯型情報記憶装置、196 通信部
100 processing unit, 108 game calculation unit, 110 object space setting unit,
112 moving body calculation unit, 114 virtual camera control unit, 120 image generation unit,
122 conversion processing unit, 124 expansion unit, 130 sound generation unit,
160 operation unit, 170 storage unit, 172 main storage unit,
173 Distant view image storage unit, 174 drawing buffer, 176 model data storage unit,
180 information storage medium, 190 display unit, 192 sound output unit,
194 Portable information storage device, 196 communication unit

Claims (22)

画像生成のためのプログラムであって、
オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像を記憶する遠景画像記憶部と、
仮想カメラの制御を行う仮想カメラ制御部と、
前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置により特定される遠景画像を、仮想カメラから所与の距離だけ離れた位置に配置されるプリミティブ面により構成される遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成する画像生成部として、
コンピュータを機能させ、
前記遠景マップオブジェクトは、複数のプリミティブ面により構成される遠景キューブマップオブジェクトであり、
前記遠景画像記憶部は、
前記遠景キューブマップオブジェクトに対してマッピングされる遠景画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される遠景画像を、前記遠景キューブマップオブジェクトに対してマッピングし
前記遠景画像記憶部は、
オブジェクト空間の各位置において仮想カメラから見えるべき前記各遠景画像として、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て遠くにあるオブジェクトが、遠景オブジェクトとして描かれる遠景画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される前記複数の遠景画像の中から、仮想カメラが配置されるオブジェクト空間内の各位置に対応する遠景画像を、前記遠景マップオブジェクトに対してマッピングすることを特徴とするプログラム。
A program for image generation,
A distant view image storage unit for storing a plurality of distant view images including each distant view image to be seen from the virtual camera at each position in the object space;
A virtual camera control unit for controlling the virtual camera;
Of the plurality of distant view images stored in the distant view image storage unit, the distant view image specified by the position of the virtual camera is configured by a primitive surface arranged at a position away from the virtual camera by a given distance. As an image generation unit that maps to a distant view map object and generates an image that can be seen from a virtual camera in the object space,
Make the computer work,
The distant view map object is a distant view cube map object composed of a plurality of primitive surfaces,
The distant view image storage unit
Storing a distant view image to be mapped to the distant view cube map object;
The image generation unit
Mapping the distant view image stored in the distant view image storage unit to the distant view cube map object ;
The distant view image storage unit
As each far view image that should be seen from the virtual camera at each position in the object space, an object that is farther from the virtual camera than the position of the primitive plane of the far view map object is stored as a far view object.
The image generation unit
A far view image corresponding to each position in an object space where a virtual camera is arranged is mapped to the far view map object from the plurality of far view images stored in the far view image storage unit. Program to do.
請求項1において、
前記遠景画像記憶部は、
オブジェクト空間の各位置において仮想カメラを上下左右前後に向けた時に見えるべき各画像を、前記遠景画像として記憶し、
前記画像生成部は、
前記遠景キューブマップオブジェクトを構成する複数のプリミティブ面の各プリミティブ面に対して、仮想カメラを上下左右前後に向けた時に見えるべき前記各画像をマッピングすることを特徴とするプログラム。
In claim 1,
The distant view image storage unit
Each image that should be seen when the virtual camera is pointed up, down, left, right, back and forth at each position in the object space is stored as the distant view image,
The image generation unit
A program that maps each of the images that should be seen when the virtual camera is directed up, down, left, and right, back and forth, to each primitive surface of a plurality of primitive surfaces constituting the distant view cube map object.
請求項1又は2において、
前記画像生成部は、
前記遠景画像に描かれる遠景オブジェクトよりも仮想カメラから見て近くに配置設定される近景オブジェクトの描画処理を行うことを特徴とするプログラム。
In claim 1 or 2,
The image generation unit
A program for performing drawing processing of a foreground object placed and set nearer to a virtual camera than a distant object drawn in the distant image.
請求項3において、
記画像生成部は、
前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て近くにあるオブジェクトを、近景オブジェクトとして描画することを特徴とするプログラム。
In claim 3,
Before Symbol image generation unit,
A program for drawing an object closer to the virtual camera than the position of the primitive plane of the distant view map object as a foreground object.
請求項4において、
前記画像生成部は、
前記遠景マップオブジェクトのプリミティブ面の位置よりも所与の距離範囲だけ遠くにあるオブジェクトについても、近景オブジェクトとして描画することを特徴とするプログラム。
In claim 4,
The image generation unit
A program that draws an object that is far from a position of a primitive plane of the distant view map object by a given distance range as a foreground object.
画像生成のためのプログラムであって、
オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像を記憶する遠景画像記憶部と、
仮想カメラの制御を行う仮想カメラ制御部と、
前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置により特定される遠景画像を、仮想カメラから所与の距離だけ離れた位置に配置されるプリミティブ面により構成される遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成する画像生成部として、
コンピュータを機能させ、
前記遠景画像記憶部は、
遠景オブジェクトが配置されるオブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を生成する処理の際に、Zバッファ法の隠面消去処理により生成されたZ値を記憶し、
前記画像生成部は、
オブジェクトの描画の際に、オブジェクトのZ値のみならず、遠景画像の前記Z値を用いて、隠面消去処理を行うと共に、
前記遠景画像記憶部は、
オブジェクト空間の各位置において仮想カメラから見えるべき前記各遠景画像として、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て遠くにあるオブジェクトが、遠景オブジェクトとして描かれる遠景画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される前記複数の遠景画像の中から、仮想カメラが配置されるオブジェクト空間内の各位置に対応する遠景画像を、前記遠景マップオブジェクトに対してマッピングすることを特徴とするプログラム。
A program for image generation,
A distant view image storage unit for storing a plurality of distant view images including each distant view image to be seen from the virtual camera at each position in the object space;
A virtual camera control unit for controlling the virtual camera;
Of the plurality of distant view images stored in the distant view image storage unit, the distant view image specified by the position of the virtual camera is configured by a primitive surface arranged at a position away from the virtual camera by a given distance. As an image generation unit that maps to a distant view map object and generates an image that can be seen from a virtual camera in the object space,
Make the computer work,
The distant view image storage unit
Storing the Z value generated by the hidden surface removal process of the Z buffer method in the process of generating each distant view image that should be seen from the virtual camera at each position in the object space where the distant object is placed;
The image generation unit
When drawing the object, not only the Z value of the object but also the Z value of the distant image is used to perform hidden surface removal processing ,
The distant view image storage unit
As each far view image that should be seen from the virtual camera at each position in the object space, an object that is farther from the virtual camera than the position of the primitive plane of the far view map object is stored as a far view object.
The image generation unit
A far view image corresponding to each position in an object space where a virtual camera is arranged is mapped to the far view map object from the plurality of far view images stored in the far view image storage unit. Program to do.
請求項6において、
仮想カメラの視線方向と前記遠景マップオブジェクトとの位置関係に応じて、前記Z値の変換処理を行う変換処理部として、
コンピュータを機能させることを特徴とするプログラム。
In claim 6,
As a conversion processing unit that performs the conversion processing of the Z value according to the positional relationship between the visual line direction of the virtual camera and the distant view map object,
A program characterized by causing a computer to function.
請求項6又は7において、
前記遠景マップオブジェクトは、遠景キューブマップオブジェクトであり、
前記遠景画像記憶部は、
前記遠景キューブマップオブジェクトに対してマッピングされる遠景画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される遠景画像を、前記遠景キューブマップオブジェクトに対してマッピングすることを特徴とするプログラム。
In claim 6 or 7,
The distant view map object is a distant view cube map object,
The distant view image storage unit
Storing a distant view image to be mapped to the distant view cube map object;
The image generation unit
A program for mapping a distant view image stored in the distant view image storage unit to the distant view cube map object.
請求項1乃至8のいずれかにおいて、
前記画像生成部は、
前記遠景マップオブジェクトの遠景画像を、環境マッピング画像として、オブジェクト空間で移動する移動体に対して環境マッピングすることを特徴とするプログラム。
In any one of Claims 1 thru | or 8.
The image generation unit
A program for performing environment mapping of a distant view image of the distant view map object as an environment mapping image on a moving object moving in an object space.
請求項1乃至9のいずれかにおいて、
前記遠景画像記憶部は、
前記複数の遠景画像を圧縮画像として記憶し、
前記画像生成部は、
前記圧縮画像を伸長することにより得られた遠景画像を、前記遠景マップオブジェクトにマッピングすることを特徴とするプログラム。
In any one of Claims 1 thru | or 9,
The distant view image storage unit
Storing the plurality of distant view images as compressed images;
The image generation unit
A program for mapping a distant view image obtained by decompressing the compressed image to the distant view map object.
請求項10において、
前記遠景画像記憶部は、
複数の遠景画像を圧縮ムービーテクスチャとして記憶し、
前記画像生成部は、
前記圧縮ムービーテクスチャを伸長することにより得られた遠景画像を、前記遠景マップオブジェクトにマッピングすることを特徴とするプログラム。
In claim 10,
The distant view image storage unit
Store multiple distant view images as compressed movie textures,
The image generation unit
A program for mapping a distant view image obtained by decompressing the compressed movie texture to the distant view map object.
請求項10又は11において、
前記遠景画像記憶部は、
仮想カメラによる画像生成の際のオブジェクト空間での位置が互いに近い遠景画像ほど、そのフレーム番号が近い番号になるように圧縮された圧縮画像を記憶することを特徴とするプログラム。
In claim 10 or 11,
The distant view image storage unit
A program that stores a compressed image that is compressed so that a distant view image whose position in the object space is closer to each other in the object space when the image is generated by the virtual camera is closer to the frame number.
請求項12において、
前記画像生成部は、
前記圧縮画像を伸長することにより得られる複数の遠景画像の中から、仮想カメラの位置に対応する遠景画像を前記フレーム番号により特定し、特定された遠景画像を、前記遠景マップオブジェクトにマッピングすることを特徴とするプログラム。
In claim 12,
The image generation unit
A distant view image corresponding to the position of a virtual camera is specified by the frame number from a plurality of distant view images obtained by expanding the compressed image, and the specified distant view image is mapped to the distant view map object. A program characterized by
請求項10乃至13のいずれかにおいて、
前記複数の遠景画像のうち、仮想カメラの周囲の所与の範囲に対応する遠景画像の圧縮画像だけが伸長され、
前記画像生成部は、
伸長により得られた前記所与の範囲に対応する遠景画像の中から、仮想カメラの位置に対応する遠景画像を、前記遠景マップオブジェクトにマッピングすることを特徴とするプログラム。
In any of claims 10 to 13,
Of the plurality of distant view images, only the compressed image of the distant view image corresponding to a given range around the virtual camera is decompressed,
The image generation unit
A program for mapping a distant view image corresponding to a position of a virtual camera from the distant view image corresponding to the given range obtained by decompression to the distant view map object.
画像生成のためのプログラムであって、
オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像を記憶する遠景画像記憶部と、
仮想カメラの制御を行う仮想カメラ制御部と、
前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置により特定される遠景画像を、仮想カメラから所与の距離だけ離れた位置に配置されるプリミティブ面により構成される遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成する画像生成部として、
コンピュータを機能させ、
前記遠景画像記憶部は、
前記複数の遠景画像を圧縮画像として記憶し、
前記画像生成部は、
前記圧縮画像を伸長することにより得られた遠景画像を、前記遠景マップオブジェクトにマッピングし、
前記複数の遠景画像のうち、仮想カメラの周囲の所与の範囲に対応する遠景画像の圧縮画像だけが伸長され、
前記画像生成部は、
伸長により得られた前記所与の範囲に対応する遠景画像の中から、仮想カメラの位置に対応する遠景画像を、前記遠景マップオブジェクトにマッピングすると共に、
前記遠景画像記憶部は、
オブジェクト空間の各位置において仮想カメラから見えるべき前記各遠景画像の圧縮画像として、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て遠くにあるオブジェクトが、遠景オブジェクトとして描かれる遠景画像の圧縮画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される前記複数の遠景画像の中から、仮想カメラが配置されるオブジェクト空間内の各位置に対応する遠景画像を、前記遠景マップオブジェクトに対してマッピングすることを特徴とするプログラム。
A program for image generation,
A distant view image storage unit for storing a plurality of distant view images including each distant view image to be seen from the virtual camera at each position in the object space;
A virtual camera control unit for controlling the virtual camera;
Of the plurality of distant view images stored in the distant view image storage unit, the distant view image specified by the position of the virtual camera is configured by a primitive surface arranged at a position away from the virtual camera by a given distance. As an image generation unit that maps to a distant view map object and generates an image that can be seen from a virtual camera in the object space,
Make the computer work,
The distant view image storage unit
Storing the plurality of distant view images as compressed images;
The image generation unit
Mapping a distant view image obtained by decompressing the compressed image to the distant view map object;
Of the plurality of distant view images, only the compressed image of the distant view image corresponding to a given range around the virtual camera is decompressed,
The image generation unit
Mapping a distant view image corresponding to the position of the virtual camera from the distant view image corresponding to the given range obtained by the expansion to the distant view map object ;
The distant view image storage unit
As a compressed image of each distant view image that should be seen from the virtual camera at each position in the object space, an object farther from the virtual camera than the position of the primitive plane of the distant view map object is drawn as a distant view object. Store compressed images,
The image generation unit
A far view image corresponding to each position in an object space where a virtual camera is arranged is mapped to the far view map object from the plurality of far view images stored in the far view image storage unit. Program to do.
請求項1乃至15のいずれかにおいて、
各画像が複数の画面の各々に表示される複数の画像を生成する場合に、第1の仮想カメラから見える第1の画面用の第1の画像と、第2の仮想カメラから見える第2の画面用の第2の画像を、遠景画像記憶部に記憶される遠景画像を共用して生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
When generating a plurality of images in which each image is displayed on each of a plurality of screens, a first image for the first screen visible from the first virtual camera and a second image visible from the second virtual camera A program for generating a second image for a screen by sharing a distant view image stored in a distant view image storage unit.
請求項1乃至16のいずれかにおいて、
前記画像生成部は、
前記複数の遠景画像の中から、仮想カメラの位置に対応する遠景画像として、第1〜第N(Nは2以上の整数)の位置に対応付けられた第1〜第Nの遠景画像を読み出し、読み出された第1〜第Nの遠景画像を合成した画像を、前記遠景マップオブジェクトに対してマッピングすることを特徴とするプログラム。
In any one of Claims 1 thru | or 16.
The image generation unit
The first to Nth distant view images associated with the first to Nth (N is an integer of 2 or more) positions are read out as a distant view image corresponding to the position of the virtual camera from the plurality of distant view images. A program for mapping an image obtained by synthesizing the read first to Nth distant view images to the distant view map object.
請求項1乃至17のいずれかにおいて、
前記遠景画像記憶部は、
遠景オブジェクトが配置されるオブジェクト空間の各位置に配置された仮想カメラにより仮想カメラの周囲を見渡したときに見えるべき各遠景画像を、オブジェクト空間の各位置に対応付けて記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置に対応付けられた遠景画像を前記遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 17,
The distant view image storage unit
Each distant view image that should be seen when looking around the virtual camera with the virtual camera arranged at each position in the object space where the distant object is arranged is stored in association with each position in the object space,
The image generation unit
Of the plurality of distant view images stored in the distant view image storage unit, a distant view image associated with a virtual camera position is mapped to the distant view map object, and an image that can be viewed from the virtual camera in the object space is generated. The program characterized by doing.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至18のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 18 is stored. 画像を生成する画像生成システムであって、
オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像を記憶する遠景画像記憶部と、
仮想カメラの制御を行う仮想カメラ制御部と、
前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置により特定される遠景画像を、仮想カメラから所与の距離だけ離れた位置に配置されるプリミティブ面により構成される遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成する画像生成部と、
を含み、
前記遠景マップオブジェクトは、複数のプリミティブ面により構成される遠景キューブマップオブジェクトであり、
前記遠景画像記憶部は、
前記遠景キューブマップオブジェクトに対してマッピングされる遠景画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される遠景画像を、前記遠景キューブマップオブジェクトに対してマッピングすると共に、
前記遠景画像記憶部は、
オブジェクト空間の各位置において仮想カメラから見えるべき前記各遠景画像として、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て遠くにあるオブジェクトが、遠景オブジェクトとして描かれる遠景画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される前記複数の遠景画像の中から、仮想カメラが配置されるオブジェクト空間内の各位置に対応する遠景画像を、前記遠景マップオブジェクトに対してマッピングすることを特徴とする画像生成システム。
An image generation system for generating an image,
A distant view image storage unit for storing a plurality of distant view images including each distant view image to be seen from the virtual camera at each position in the object space;
A virtual camera control unit for controlling the virtual camera;
Of the plurality of distant view images stored in the distant view image storage unit, the distant view image specified by the position of the virtual camera is configured by a primitive surface arranged at a position away from the virtual camera by a given distance. An image generator that maps to a distant view map object and generates an image that can be viewed from a virtual camera in the object space;
Including
The distant view map object is a distant view cube map object composed of a plurality of primitive surfaces,
The distant view image storage unit
Storing a distant view image to be mapped to the distant view cube map object;
The image generation unit
Mapping the distant view image stored in the distant view image storage unit to the distant view cube map object ;
The distant view image storage unit
As each far view image that should be seen from the virtual camera at each position in the object space, an object that is farther from the virtual camera than the position of the primitive plane of the far view map object is stored as a far view object.
The image generation unit
A far view image corresponding to each position in an object space where a virtual camera is arranged is mapped to the far view map object from the plurality of far view images stored in the far view image storage unit. Image generation system.
画像を生成する画像生成システムであって、
オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像を記憶する遠景画像記憶部と、
仮想カメラの制御を行う仮想カメラ制御部と、
前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置により特定される遠景画像を、仮想カメラから所与の距離だけ離れた位置に配置されるプリミティブ面により構成される遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成する画像生成部と、
を含み、
前記遠景画像記憶部は、
遠景オブジェクトが配置されるオブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を生成する処理の際に、Zバッファ法の隠面消去処理により生成されたZ値を記憶し、
前記画像生成部は、
オブジェクトの描画の際に、オブジェクトのZ値のみならず、遠景画像の前記Z値を用いて、隠面消去処理を行うと共に、
前記遠景画像記憶部は、
オブジェクト空間の各位置において仮想カメラから見えるべき前記各遠景画像として、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て遠くにあるオブジェクトが、遠景オブジェクトとして描かれる遠景画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される前記複数の遠景画像の中から、仮想カメラが配置されるオブジェクト空間内の各位置に対応する遠景画像を、前記遠景マップオブジェクトに対してマッピングすることを特徴とする画像生成システム。
An image generation system for generating an image,
A distant view image storage unit for storing a plurality of distant view images including each distant view image to be seen from the virtual camera at each position in the object space;
A virtual camera control unit for controlling the virtual camera;
Of the plurality of distant view images stored in the distant view image storage unit, the distant view image specified by the position of the virtual camera is configured by a primitive surface arranged at a position away from the virtual camera by a given distance. An image generator that maps to a distant view map object and generates an image that can be viewed from a virtual camera in the object space;
Including
The distant view image storage unit
Storing the Z value generated by the hidden surface removal process of the Z buffer method in the process of generating each distant view image that should be seen from the virtual camera at each position in the object space where the distant object is placed;
The image generation unit
When drawing the object, not only the Z value of the object but also the Z value of the distant image is used to perform hidden surface removal processing ,
The distant view image storage unit
As each far view image that should be seen from the virtual camera at each position in the object space, an object that is farther from the virtual camera than the position of the primitive plane of the far view map object is stored as a far view object.
The image generation unit
A far view image corresponding to each position in an object space where a virtual camera is arranged is mapped to the far view map object from the plurality of far view images stored in the far view image storage unit. Image generation system.
画像を生成する画像生成システムであって、
オブジェクト空間の各位置において仮想カメラから見えるべき各遠景画像を含む複数の遠景画像を記憶する遠景画像記憶部と、
仮想カメラの制御を行う仮想カメラ制御部と、
前記遠景画像記憶部に記憶される前記複数の遠景画像のうち、仮想カメラの位置により特定される遠景画像を、仮想カメラから所与の距離だけ離れた位置に配置されるプリミティブ面により構成される遠景マップオブジェクトに対してマッピングして、オブジェクト空間において仮想カメラから見える画像を生成する画像生成部と、
を含み、
前記遠景画像記憶部は、
前記複数の遠景画像を圧縮画像として記憶し、
前記画像生成部は、
前記圧縮画像を伸長することにより得られた遠景画像を、前記遠景マップオブジェクトにマッピングし、
前記複数の遠景画像のうち、仮想カメラの周囲の所与の範囲に対応する遠景画像の圧縮画像だけが伸長され、
前記画像生成部は、
伸長により得られた前記所与の範囲に対応する遠景画像の中から、仮想カメラの位置に対応する遠景画像を、前記遠景マップオブジェクトにマッピングすると共に、
前記遠景画像記憶部は、
オブジェクト空間の各位置において仮想カメラから見えるべき前記各遠景画像の圧縮画像として、前記遠景マップオブジェクトのプリミティブ面の位置よりも仮想カメラから見て遠くにあるオブジェクトが、遠景オブジェクトとして描かれる遠景画像の圧縮画像を記憶し、
前記画像生成部は、
前記遠景画像記憶部に記憶される前記複数の遠景画像の中から、仮想カメラが配置されるオブジェクト空間内の各位置に対応する遠景画像を、前記遠景マップオブジェクトに対してマッピングすることを特徴とする画像生成システム。
An image generation system for generating an image,
A distant view image storage unit for storing a plurality of distant view images including each distant view image to be seen from the virtual camera at each position in the object space;
A virtual camera control unit for controlling the virtual camera;
Of the plurality of distant view images stored in the distant view image storage unit, the distant view image specified by the position of the virtual camera is configured by a primitive surface arranged at a position away from the virtual camera by a given distance. An image generator that maps to a distant view map object and generates an image that can be viewed from a virtual camera in the object space;
Including
The distant view image storage unit
Storing the plurality of distant view images as compressed images;
The image generation unit
Mapping a distant view image obtained by decompressing the compressed image to the distant view map object;
Of the plurality of distant view images, only the compressed image of the distant view image corresponding to a given range around the virtual camera is decompressed,
The image generation unit
Mapping a distant view image corresponding to the position of the virtual camera from the distant view image corresponding to the given range obtained by the expansion to the distant view map object ;
The distant view image storage unit
As a compressed image of each distant view image that should be seen from the virtual camera at each position in the object space, an object farther from the virtual camera than the position of the primitive plane of the distant view map object is drawn as a distant view object. Store compressed images,
The image generation unit
A far view image corresponding to each position in an object space where a virtual camera is arranged is mapped to the far view map object from the plurality of far view images stored in the far view image storage unit. Image generation system.
JP2006066194A 2006-03-10 2006-03-10 Program, information storage medium, and image generation system Active JP4806578B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006066194A JP4806578B2 (en) 2006-03-10 2006-03-10 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006066194A JP4806578B2 (en) 2006-03-10 2006-03-10 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2007241868A JP2007241868A (en) 2007-09-20
JP4806578B2 true JP4806578B2 (en) 2011-11-02

Family

ID=38587316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006066194A Active JP4806578B2 (en) 2006-03-10 2006-03-10 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4806578B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5087453B2 (en) * 2008-03-31 2012-12-05 株式会社カプコン Program, storage medium and computer apparatus
JP2012103746A (en) * 2010-11-05 2012-05-31 Avix Inc Method for display control for fascinating viewer, digital signage system, and computer program
JP6482283B2 (en) * 2015-01-13 2019-03-13 三菱プレシジョン株式会社 3D image generation apparatus and cube map generation method
JP7040080B2 (en) * 2018-02-07 2022-03-23 凸版印刷株式会社 Virtual space image presentation system, virtual space image presentation method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194833A (en) * 1995-01-17 1996-07-30 Sega Enterp Ltd Picture processor and its method
JP4165722B2 (en) * 1998-02-26 2008-10-15 株式会社バンダイナムコゲームス Image generating apparatus and information storage medium
JPH11259672A (en) * 1998-03-13 1999-09-24 Mitsubishi Electric Corp Three-dimensional virtual space display device
JP2000076488A (en) * 1998-08-26 2000-03-14 Mitsubishi Electric Corp Three-dimensional virtual space display device and texture object setting information generating device
JP2001184523A (en) * 1999-12-27 2001-07-06 Namco Ltd Image generating system and information storage medium
JP3449993B2 (en) * 2001-03-21 2003-09-22 株式会社ナムコ Image generation system, program, and information storage medium

Also Published As

Publication number Publication date
JP2007241868A (en) 2007-09-20

Similar Documents

Publication Publication Date Title
JP4982862B2 (en) Program, information storage medium, and image generation system
JP2006318389A (en) Program, information storage medium, and image generation system
JP4804120B2 (en) Program, information storage medium, and image generation system
JP4806578B2 (en) Program, information storage medium, and image generation system
JP4651527B2 (en) Program, information storage medium, and image generation system
JP2007141082A (en) Program, texture data structure, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2002279447A (en) Image generating system, program, and information storage medium
JP4073031B2 (en) Program, information storage medium, and image generation system
US20100177098A1 (en) Image generation system, image generation method, and computer program product
JP4743770B2 (en) Image generation system, program, and information storage medium
JP2006252426A (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP2002222431A (en) System, program, and information storage medium for image generation
JP2009064355A (en) Program, information storage medium, and image producing system
JP4861862B2 (en) Program, information storage medium, and image generation system
JP4754385B2 (en) Program, information recording medium, and image generation system
JP2004038639A (en) System for generating picture, program and medium for recording information
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium
JP4535855B2 (en) Program, information storage medium, and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2006277489A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110815

R150 Certificate of patent or registration of utility model

Ref document number: 4806578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250