JP2006011539A - Program, information storage medium, and image generating system - Google Patents

Program, information storage medium, and image generating system Download PDF

Info

Publication number
JP2006011539A
JP2006011539A JP2004183803A JP2004183803A JP2006011539A JP 2006011539 A JP2006011539 A JP 2006011539A JP 2004183803 A JP2004183803 A JP 2004183803A JP 2004183803 A JP2004183803 A JP 2004183803A JP 2006011539 A JP2006011539 A JP 2006011539A
Authority
JP
Japan
Prior art keywords
image
blurred
blurring
blur
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004183803A
Other languages
Japanese (ja)
Inventor
Kazumasa Koseki
一正 小関
Kentaro Yamaguchi
兼太郎 山口
Mimiko Ogawa
三美子 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2004183803A priority Critical patent/JP2006011539A/en
Publication of JP2006011539A publication Critical patent/JP2006011539A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium and an image generating system capable of carrying out efficient blurring treatment. <P>SOLUTION: The image generating system comprises an image reducing part that reduces an area to be blurred, and generates a reduced image, a blurring part that carries out blurring of the reduced image and generates a blurred reduced image, and an enlarging part that enlarges the area of the blurred reduced image. The image reducing part generates a first reduction image based on the information of the first sampling point group of the image to be blurred, generates a second reduction image based on the information of the second sampling point group of the image to be blurred, and generates a Jth reduction image based on the information of the Jth sampling point group of ..... the image to be blurred (J is an integer no less than 2). For the reduction image, the system increases luminance of a pixel of high luminance and decreases luminance of a pixel of low luminance using a given threshold value of luminance, and generates a soft focus image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。   Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which an object such as a character is set is known. It is popular as a place to experience so-called virtual reality.

このような画像生成システムでは、グレア効果や被写界深度やソフトフォーカス効果などの種々の画像表現のために、ぼかし画像を生成する場合がある。このようなぼかし画像を生成する技術としては例えば特開2001−160153号公報に開示される従来技術がある。   In such an image generation system, a blurred image may be generated for various image expressions such as a glare effect, a depth of field, and a soft focus effect. As a technique for generating such a blurred image, for example, there is a conventional technique disclosed in Japanese Patent Laid-Open No. 2001-160153.

しかしながら、画像生成システムのハードウェアの処理能力には限界があり、処理時間にも制約がある。従って、ぼかし効果の高い効率的なぼかし処理の実現が望まれている。   However, the processing capacity of the image generation system hardware is limited, and the processing time is also limited. Therefore, realization of an efficient blurring process with a high blurring effect is desired.

また例えば月明かりに照らされたゲームシーンの画像を生成する場合等には、写真撮影分野において用いられているソフトフォーカス効果をリアルに表現できれば、プレーヤの仮想現実感を更に高めることができる。
特開2001−160153号公報
For example, when generating an image of a game scene illuminated by the moonlight, if the soft focus effect used in the field of photography can be expressed realistically, the virtual reality of the player can be further enhanced.
JP 2001-160153 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、効率的なぼかし処理を実現できるプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide a program, an information storage medium, and an image generation system capable of realizing efficient blurring processing.

本発明は、画像を生成する画像生成システムであって、ぼかし対象画像に対してその面積を縮小させる処理を行って、縮小画像を生成する縮小処理部と、前記縮小画像に対してぼかし処理を行って、ぼかし縮小画像を生成するぼかし処理部と、前記ぼかし縮小画像に対してその面積を拡大させる処理を行う拡大処理部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention is an image generation system for generating an image, and performs a process for reducing the area of a blur target image to generate a reduced image, and a blur process for the reduced image. And an image generation system including a blur processing unit that generates a blurred reduced image and an enlargement processing unit that performs processing to enlarge the area of the blurred reduced image. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、ぼかし対象画像が縮小され、縮小画像に対してぼかし処理が施され、ぼかし処理が施された縮小画像が拡大される。このようにすれば、ぼかし処理は、面積の小さい縮小画像に対して行えば済むため、ぼかし処理の負荷を軽減できる。また本発明では、ぼかし処理が施された縮小画像を拡大しているため、ぼかし長さを大きくすることが可能となり、少ない処理負荷で効率的なぼかし処理を実現できる。   According to the present invention, the blurring target image is reduced, the reduced image is subjected to the blurring process, and the reduced image subjected to the blurring process is enlarged. In this way, since the blurring process only needs to be performed on a reduced image with a small area, the load of the blurring process can be reduced. In the present invention, since the reduced image subjected to the blurring process is enlarged, the blurring length can be increased, and an efficient blurring process can be realized with a small processing load.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記縮小処理部が、ぼかし対象画像の第1のサンプリング点グループでの情報に基づいて第1の縮小画像を生成し、ぼかし対象画像の第2のサンプリング点グループでの情報に基づいて第2の縮小画像を生成し、・・・・・ぼかし対象画像の第J(Jは2以上の整数)のサンプリング点グループでの情報に基づいて第Jの縮小画像を生成するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the reduction processing unit generates a first reduced image based on information in the first sampling point group of the blur target image, and the blur target image. A second reduced image is generated based on the information in the second sampling point group, and ... based on the information in the Jth sampling point group (J is an integer of 2 or more) of the blurring target image Thus, a Jth reduced image may be generated.

このようにすれば、ぼかし対象画像が有していた情報の喪失を最小限に抑えることが可能になり、生成されるぼかし画像の品質を高めることができる。   In this way, it is possible to minimize the loss of information that the blur target image has, and the quality of the generated blur image can be improved.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ぼかし処理部が、前記第1〜第Jの縮小画像を合成し、合成された縮小画像に対してぼかし処理を行って、ぼかし合成縮小画像を生成し、前記拡大処理部が、前記ぼかし合成縮小画像の拡大処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the blur processing unit combines the first to Jth reduced images, performs blur processing on the combined reduced image, and blurs the image. A composite reduced image may be generated, and the enlargement processing unit may perform an enlargement process of the blurred composite reduced image.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ぼかし処理部が、前記第1〜第Jの縮小画像に対してぼかし処理を行って、第1〜第Jのぼかし縮小画像を生成し、前記拡大処理部が、前記第1〜第Jのぼかし縮小画像の拡大処理と合成処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the blur processing unit performs blur processing on the first to Jth reduced images, and the first to Jth blurred reduced images are obtained. The enlargement processing unit may perform the enlargement process and the composition process of the first to Jth blurred reduced images.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記縮小処理部が、バイリニア補間方式のテクスチャマッピングにより縮小画像を生成するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the reduction processing unit may generate a reduced image by bilinear interpolation texture mapping.

但し、バイリニアサンプリング以外(例えばポイントサンプリング)のテクスチャマッピングで縮小処理を実現してもよい。   However, the reduction process may be realized by texture mapping other than bilinear sampling (for example, point sampling).

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記縮小画像に対して、その輝度が、所与の値を閾値として高いピクセルについては輝度をより高くし、低いピクセルについてはより低くするビデオフィルタ処理を行うビデオフィルタ処理部を含み(ビデオフィルタ処理部としてコンピュータを機能させ)、前記ぼかし処理部が、前記ビデオフィルタ処理が施された縮小画像に対してぼかし処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the brightness of the reduced image is higher for a high pixel and lower for a low pixel with a given value as a threshold. A video filter processing unit that performs video filter processing (the computer functions as a video filter processing unit), and the blur processing unit performs blur processing on the reduced image that has been subjected to the video filter processing. Also good.

このようにすれば、いわゆるソフトフォーカス効果が施されたリアルな画像を生成できる。   In this way, a real image with a so-called soft focus effect can be generated.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ビデオフィルタ処理部が、前記縮小画像の所与の色成分を強調するビデオフィルタ処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the video filter processing unit may perform video filter processing that emphasizes a given color component of the reduced image.

このようにすれば、特定の色が強調されたソフトフォーカス画像を生成でき、生成される画像の多様性を増すことができる。   In this way, it is possible to generate a soft focus image in which a specific color is emphasized, and increase the diversity of the generated image.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ぼかし処理部が、前記縮小画像に対して複数回のぼかし処理を行う場合に、前記複数回のぼかし処理のうちの第Kのぼかし処理で得られたぼかし画像のピクセル値を増加させる変換処理を行い、変換処理後のぼかし画像に対して次の第K+1のぼかし処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, when the blur processing unit performs the blur processing a plurality of times on the reduced image, the Kth of the plurality of blur processings. A conversion process for increasing the pixel value of the blurred image obtained by the blurring process may be performed, and the next K + 1th blurring process may be performed on the blurred image after the conversion process.

本発明によれば、縮小画像(第1〜第Jの縮小画像)に対して複数回のぼかし処理が行われる。そして、第Kのぼかし処理で得られたぼかし画像のピクセル値を増加させる変換処理が行われ、その変換処理が施されたぼかし画像に対して次の第K+1のぼかし処理が行われる。このようにすれば、ぼかし処理回数から期待されるぼかし長さよりも実際のぼかし長さの方が短くなってしまうなどの問題を解決でき、効率的なぼかし処理を実現できる。   According to the present invention, blurring processing is performed a plurality of times on a reduced image (first to Jth reduced images). Then, a conversion process for increasing the pixel value of the blurred image obtained by the Kth blurring process is performed, and the next K + 1th blurring process is performed on the blurred image subjected to the conversion process. In this way, it is possible to solve the problem that the actual blur length is shorter than the blur length expected from the number of blur processes, and to realize efficient blur processing.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記変換処理のための変換テーブルを記憶する変換テーブル記憶部を含み(変換テーブル記憶部としてコンピュータを機能させ)、前記ぼかし処理部が、前記変換テーブルを用いて、ぼかし画像のピクセル値を増加させる前記変換処理を行うようにしてもよい。   Further, the image generation system, the program, and the information storage medium according to the present invention include a conversion table storage unit that stores a conversion table for the conversion process (a computer functions as the conversion table storage unit), and the blur processing unit includes The conversion process for increasing the pixel value of the blurred image may be performed using the conversion table.

このようにすれば、ぼかし処理の回数や内容に応じた適正な変換テーブルを用いて、変換処理を実現できる。   In this way, the conversion process can be realized using an appropriate conversion table according to the number and contents of the blur processes.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記変換テーブルが、インデックスカラー・テクスチャマッピング用のルックアップテーブルであり、前記ぼかし処理部が、第Kのぼかし処理で得られたぼかし画像のピクセル値を、前記ルックアップテーブルのインデックス番号として設定し、前記ルックアップテーブルを用いたインデックスカラー・テクスチャマッピングを行うことで、ぼかし画像のピクセル値を増加させる前記変換処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the conversion table is a look-up table for index color / texture mapping, and the blur processing unit is the blur obtained by the Kth blur process. The pixel value of the image is set as the index number of the lookup table, and the conversion process for increasing the pixel value of the blurred image is performed by performing index color / texture mapping using the lookup table. Also good.

このようにすれば、例えば1回のテクスチャマッピングで、ぼかし画像の変換処理を実現できるため、処理を効率化できる。   In this way, for example, a blurred image conversion process can be realized by a single texture mapping, so that the process can be made more efficient.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ぼかし処理部が、テクスチャ座標をシフトさせてバイリニア補間方式で、前記インデックスカラー・テクスチャマッピングを行うことで、前記変換処理と前記第K+1のぼかし処理の両方を同時に行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the blurring processing unit shifts the texture coordinates and performs the index color / texture mapping by a bilinear interpolation method, so that the conversion processing and the first storage are performed. Both K + 1 blurring processes may be performed simultaneously.

このようにすれば、例えば1回のテクスチャマッピングで、ぼかし画像の変換処理とぼかし処理の両方を実現できるため、処理を更に効率化できる。   In this way, for example, both the blur image conversion process and the blur process can be realized by a single texture mapping, so that the process can be further improved in efficiency.

なお、本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ぼかし処理部が、ぼかし処理の回数に応じた変換特性を有する変換テーブルを用いて、前記変換処理を行うようにしてもよい。また、前記ぼかし処理部が、ぼかし対象画像の輪郭からぼかし境界に向かってぼかし画像のピクセル値をリニアに変化させる変換テーブルを用いて、前記変換処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the blur processing unit may perform the conversion process using a conversion table having a conversion characteristic corresponding to the number of blur processes. . The blur processing unit may perform the conversion process using a conversion table that linearly changes the pixel value of the blurred image from the contour of the blur target image toward the blur boundary.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、ハードディスク、メモリーカード、メモリーカセット、磁気ディスク、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), hard disk, memory card, memory cassette, magnetic disk, or memory ( ROM) or the like. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD(液晶表示装置)、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD (Liquid Crystal Display), touch panel display, HMD (Head Mount Display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、車、戦車、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (primitive surfaces such as polygons, free-form surfaces, and subdivision surfaces) representing display objects such as characters, cars, tanks, buildings, trees, columns, walls, and maps (terrain). (Object) is set in the object space. That is, the position and rotation angle (synonymous with direction and direction) of the object (model object) in the world coordinate system are determined, and the rotation angle (X, Y, Z axis around the position (X, Y, Z)) is determined. Arrange objects at (rotation angle).

移動・動作処理部112は、オブジェクト(キャラクタ、車、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(移動オブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a character, a car, or an airplane). That is, an object (moving object) is moved in the object space or an object is moved based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. Perform processing (motion, animation). Specifically, a simulation process for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) every frame (1/60 second). I do. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を描画バッファ172(フレームバッファ、ワークバッファなどのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and drawing data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Then, based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the perspective transformation (after the geometry processing) is stored in the drawing buffer 172 (frame buffer, work buffer, etc.) in pixel units. Can be drawn in a VRAM). Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

描画部120は、テクスチャマッピング処理や隠面消去処理を行うことができる。   The drawing unit 120 can perform texture mapping processing and hidden surface removal processing.

ここでテクスチャマッピング処理は、テクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理である。具体的には、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部174からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。   Here, the texture mapping process is a process of mapping a texture (texel value) stored in the texture storage unit 174 to an object. Specifically, the texture (surface properties such as color and α value) is read from the texture storage unit 174 using the texture coordinates set (given) at the vertices of the object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to the object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.

また隠面消去処理は、例えば、各ピクセルのZ値(奥行き情報)が格納されるZバッファ176(奥行きバッファ)を用いるZバッファ法(奥行き比較法、Zテスト)により実現される。即ちオブジェクトのプリミティブ面の各ピクセルを描画する際に、Zバッファ176に格納されるZ値を参照する。そして参照されたZバッファ176のZ値と、プリミティブ面の描画対象ピクセルでのZ値とを比較し、描画対象ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、そのピクセルの描画処理を行うと共にZバッファ176のZ値を新たなZ値に更新する。   The hidden surface removal process is realized, for example, by a Z buffer method (depth comparison method, Z test) using a Z buffer 176 (depth buffer) in which the Z value (depth information) of each pixel is stored. That is, when drawing each pixel of the primitive surface of the object, the Z value stored in the Z buffer 176 is referred to. Then, the Z value of the referenced Z buffer 176 is compared with the Z value at the drawing target pixel on the primitive surface, and the Z value at the drawing target pixel is the front side when viewed from the virtual camera (for example, a small value). Z value), the drawing process for the pixel is performed and the Z value in the Z buffer 176 is updated to a new Z value.

描画部120は、縮小処理部122、ぼかし処理部124、拡大処理部126、ビデオフィルタ処理部128、αブレンディング部129を含む。なおこれらの一部を省略する構成としてもよい。   The drawing unit 120 includes a reduction processing unit 122, a blur processing unit 124, an enlargement processing unit 126, a video filter processing unit 128, and an α blending unit 129. Note that some of these may be omitted.

縮小処理部122は画像の縮小処理を行う。具体的には、ぼかし処理の対象となるぼかし対象画像(元画像等)に対してその面積を縮小させる処理を行って、縮小画像を生成する。この場合の縮小処理は、バイリニア補間方式のテクスチャマッピングで実現してもよいし、ポイントサンプリング方式のテクスチャマッピングで実現してもよい。なお、ぼかし対象画像である元画像は、オブジェクトに対してジオメトリ処理(透視変換等の座標変換処理)を施して、ジオメトリ処理後のオブジェクト(ポリゴン)をフレームバッファ(広義には描画領域)に描画(レンダリング)することなどにより生成できる。   The reduction processing unit 122 performs image reduction processing. Specifically, a reduced image is generated by performing a process of reducing the area of a blurring target image (an original image or the like) that is a target of the blurring process. The reduction process in this case may be realized by bilinear interpolation texture mapping or may be realized by point sampling texture mapping. The original image, which is the image to be blurred, is subjected to geometry processing (coordinate transformation processing such as perspective transformation) on the object, and the object (polygon) after geometry processing is drawn in the frame buffer (drawing area in a broad sense) It can be generated by (rendering).

また縮小処理部122は、ぼかし対象画像の第1のサンプリング点グループでの情報に基づいて第1の縮小画像を生成し、ぼかし対象画像の第2のサンプリング点グループでの情報に基づいて第2の縮小画像を生成し、・・・・・ぼかし対象画像の第J(Jは2以上の整数)のサンプリング点グループでの情報に基づいて第Jの縮小画像を生成する。ここで第1〜第Jのサンプリング点グループの情報は、ぼかし対象画像のピクセル値により得られる情報であり、ピクセル値或いは複数のピクセル値の平均値などである。   Further, the reduction processing unit 122 generates a first reduced image based on the information in the first sampling point group of the blurring target image, and the second based on the information in the second sampling point group of the blurring target image. Are generated, and a Jth reduced image is generated based on information in the Jth sampling point group (J is an integer of 2 or more) of the blurring target image. Here, the information of the first to Jth sampling point groups is information obtained from the pixel values of the blurring target image, such as a pixel value or an average value of a plurality of pixel values.

ぼかし処理部124は、縮小処理部122で縮小された縮小画像に対してぼかし処理を行って、ぼかし縮小画像を生成する。具体的には、縮小画像に対して複数回(M回)のぼかし処理を行う。例えば縮小画像に対して第1のぼかし処理を行い、第1のぼかし処理で得られたぼかし画像に対して第2のぼかし処理を行い・・・第Kのぼかし処理で得られたぼかし画像に対して第K+1のぼかし処理を行い・・・・第M−1のぼかし処理で得られたぼかし画像に対して第Mのぼかし処理を行う(Kは正の整数。Mは2以上の整数)。   The blur processing unit 124 performs a blur process on the reduced image reduced by the reduction processing unit 122 to generate a reduced blur image. Specifically, blur processing is performed a plurality of times (M times) on the reduced image. For example, the first blurred process is performed on the reduced image, the second blurred process is performed on the blurred image obtained by the first blurred process, and the blurred image obtained by the Kth blurred process. The (K + 1) -th blurring process is performed on the blurred image obtained by the (M-1) -th blurring process (K is a positive integer, M is an integer of 2 or more). .

この場合に、ぼかし処理部124は、複数回のぼかし処理のうちの第Kのぼかし処理で得られたぼかし画像のピクセル値(α値、色情報等)を増加(かさ上げ)させる変換処理(補正処理)を行い、変換処理が施されたぼかし画像に対して第K+1のぼかし処理を行うこともできる。   In this case, the blur processing unit 124 increases (raises) the pixel value (α value, color information, etc.) of the blurred image obtained by the K-th blur processing among a plurality of blur processing ( It is also possible to perform (K + 1) th blur processing on the blurred image that has been subjected to the conversion processing.

具体的には、記憶部170は、変換処理のための変換テーブル(インデックスカラー・テクスチャマッピング用のルックアップテーブル等)を記憶する変換テーブル記憶部171(主記憶部)を含む。この変換テーブル記憶部171は、ぼかし処理の回数に応じた変換特性を有する変換テーブルを記憶することができる。   Specifically, the storage unit 170 includes a conversion table storage unit 171 (main storage unit) that stores a conversion table for conversion processing (such as a lookup table for index color / texture mapping). The conversion table storage unit 171 can store a conversion table having conversion characteristics corresponding to the number of blurring processes.

そしてぼかし処理部124は、変換テーブル記憶部171から変換テーブルを読み出し、この変換テーブルを用いて、ぼかし画像のピクセル値を増加させる変換処理を行う。具体的には、ぼかし処理部124は、第Kのぼかし処理で得られたぼかし画像のピクセル値(α値、色情報等)を、インデックスカラー・テクスチャマッピング用のルックアップテーブルのインデックス番号として設定する(インデックス番号とみなす)。そして、このルックアップテーブル(広義には変換テーブル)を用いたインデックスカラー・テクスチャマッピングを行うことで、第Kのぼかし処理で得られたぼかし画像のピクセル値を増加させる変換処理を行う。そしてこのインデックスカラー・テクスチャマッピングを、テクスチャ座標をシフト(0.5テクセルシフト)させてバイリニア補間方式(テクセル補間方式)で行うことで、変換処理と第K+1のぼかし処理の両方を行うことが可能になり、処理効率を高めることができる。   Then, the blur processing unit 124 reads the conversion table from the conversion table storage unit 171 and performs a conversion process for increasing the pixel value of the blurred image using the conversion table. Specifically, the blur processing unit 124 sets the pixel value (α value, color information, etc.) of the blurred image obtained by the Kth blur processing as the index number of the lookup table for index color / texture mapping. Yes (assumed to be an index number). Then, by performing index color / texture mapping using this look-up table (conversion table in a broad sense), a conversion process for increasing the pixel value of the blurred image obtained in the Kth blur process is performed. This index color / texture mapping is performed by shifting the texture coordinates (0.5 texel shift) using the bilinear interpolation method (texel interpolation method), so that both conversion processing and K + 1-th blur processing can be performed. Thus, the processing efficiency can be improved.

なお変換処理は、全てのピクセルに対して行うこともできるし、一部のピクセルに対して行うこともできる。また複数回のぼかし処理により得られたぼかし画像を、元画像のぼかし画像として出力してもよいし、得られたぼかし画像と元画像の合成処理を行って、例えばグレア効果や被写界深度やソフトフォーカス効果等の画像エフェクトが元画像に施された画像を出力してもよい。   Note that the conversion process can be performed on all pixels or a part of the pixels. In addition, a blurred image obtained by a plurality of blurring processes may be output as a blurred image of the original image, or the obtained blurred image and the original image are combined to produce, for example, a glare effect or a depth of field. Alternatively, an image in which an image effect such as a soft focus effect is applied to the original image may be output.

拡大処理部126は画像の拡大処理を行う。具体的には、ぼかし処理部124でのぼかし処理により得られたぼかし縮小画像に対してその面積を拡大させる処理を行う。   The enlargement processing unit 126 performs image enlargement processing. Specifically, a process for enlarging the area of the reduced blurred image obtained by the blurring process in the blurring processing unit 124 is performed.

例えば縮小処理部122が第1〜第Jのサンプリング点グループでの情報に基づいて第1〜第Jの縮小画像を生成した場合には、ぼかし処理部124が、これらの第1〜第Jの縮小画像を合成し、合成された縮小画像に対してぼかし処理を行って、ぼかし合成縮小画像を生成する。そして拡大処理部126は、このぼかし合成縮小画像の拡大処理を行う。或いは、ぼかし処理部124が、第1〜第Jの縮小画像に対してぼかし処理を行って、第1〜第Jのぼかし縮小画像を生成し、拡大処理部126が、これらの第1〜第Jのぼかし縮小画像の拡大処理と合成処理(拡大しながら合成する処理)を行うようにしてもよい。   For example, when the reduction processing unit 122 generates the first to Jth reduced images based on the information in the first to Jth sampling point groups, the blurring processing unit 124 uses the first to Jth reduction points. The reduced images are combined, and the combined reduced image is subjected to blurring processing to generate a blurred combined reduced image. Then, the enlargement processing unit 126 performs enlargement processing of the blurred combined reduced image. Alternatively, the blur processing unit 124 performs blur processing on the first to Jth reduced images to generate first to Jth blurred reduced images, and the enlargement processing unit 126 performs these first to first reduced images. You may make it perform the enlargement process and synthetic | combination process (process to synthesize | combine while expanding) of J blurring reduction image.

ビデオフィルタ処理部128は種々のビデオフィルタ処理を行う。例えばビデオフィルタ処理部128は、縮小処理部122で生成された縮小画像(第1〜第Jの縮小画像を合成した画像)に対して、輝度補正のビデオフィルタ処理を行う。具体的には、輝度が所与の値よりも高いピクセルの輝度をより高くするビデオフィルタ処理を行う。或いは、これに加えて色調補正のビデオフィルタ処理を行ってもよい。具体的には、縮小画像の所与の色成分(RGBの少なくとも1つの色成分)を強調するビデオフィルタ処理を行う。そしてぼかし処理部124は、ビデオフィルタ処理が施された縮小画像に対してぼかし処理を施す。   The video filter processing unit 128 performs various video filter processes. For example, the video filter processing unit 128 performs video filter processing for luminance correction on the reduced image generated by the reduction processing unit 122 (an image obtained by combining the first to Jth reduced images). Specifically, video filtering is performed to increase the luminance of pixels whose luminance is higher than a given value. Alternatively, in addition to this, video filter processing for color correction may be performed. Specifically, video filter processing for enhancing a given color component (at least one color component of RGB) of the reduced image is performed. Then, the blur processing unit 124 performs a blur process on the reduced image that has been subjected to the video filter process.

なお、ビデオフィルタ処理は、例えばインデックスカラー・テクスチャマッピングを利用して実現できる。具体的には縮小画像(第1〜第Jの縮小画像を合成した画像)の情報を、変換テーブル記憶部171に記憶されるインデックスカラー・テクスチャマッピング用ルックアップテーブルのインデックス番号として設定する(インデックス番号とみなす)。そして、このルックアップテーブル(広義には変換テーブル)を用いたインデックスカラー・テクスチャマッピングを行うことで、縮小画像の輝度や色調を補正する変換処理を実現する。   The video filter processing can be realized by using index color / texture mapping, for example. Specifically, the information of the reduced image (the image obtained by combining the first to Jth reduced images) is set as the index number of the index color / texture mapping lookup table stored in the conversion table storage unit 171 (index). Considered a number). Then, by performing index color / texture mapping using this lookup table (conversion table in a broad sense), a conversion process for correcting the luminance and tone of the reduced image is realized.

αブレンディング部129は、α値(A値)に基づくαブレンディング処理(通常αブレンディング、α加算ブレンディング又はα減算ブレンディング等)を行う。例えば通常αブレンディングの場合には下式の処理を行う。   The α blending unit 129 performs α blending processing (normal α blending, α addition blending, α subtraction blending, or the like) based on the α value (A value). For example, in the case of normal α blending, the following processing is performed.

Q=(1−α)×R1+α×R2
Q=(1−α)×G1+α×G2
Q=(1−α)×B1+α×B2
一方、加算αブレンディングの場合には下式の処理を行う。
R Q = (1−α) × R 1 + α × R 2
G Q = (1−α) × G 1 + α × G 2
B Q = (1−α) × B 1 + α × B 2
On the other hand, in the case of addition α blending, the following processing is performed.

Q=R1+α×R2
Q=G1+α×G2
Q=B1+α×B2
ここで、R1、G1、B1は、描画バッファ172に既に描画されている画像(元画像)のRGB成分であり、R2、G2、B2は、描画バッファ172に描画すべき画像のRGB成分である。また、RQ、GQ、BQは、αブレンディングにより得られる画像のRGB成分である。なおα値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、半透明度(透明度、不透明度と等価)情報、マスク情報、或いはバンプ情報などとして使用できる。
R Q = R 1 + α × R 2
G Q = G 1 + α × G 2
B Q = B 1 + α × B 2
Here, R 1 , G 1 , B 1 are RGB components of an image (original image) already drawn in the drawing buffer 172, and R 2 , G 2 , B 2 should be drawn in the drawing buffer 172. This is the RGB component of the image. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as translucency (equivalent to transparency and opacity) information, mask information, or bump information.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2.1 縮小画像へのぼかし処理
ぼかし画像を生成する場合に、そのぼかし長さを大きくするためには、ぼかし処理を行う回数を増やせばよい。即ち、ぼかし対象画像に対して第1のぼかし処理を行い、第1のぼかし処理で得られた画像に対して第2のぼかし処理を施し・・・・第N−1のぼかし処理で得られた画像に対して第Nのぼかし処理を施す。しかしながら、ぼかし処理の回数を増やすと、処理負荷が増加してしまう。
2.1 Blur Processing for Reduced Image When generating a blurred image, in order to increase the blur length, the number of times of performing blur processing may be increased. That is, the first blurring process is performed on the blurring target image, and the second blurring process is performed on the image obtained by the first blurring process .... obtained by the (N-1) th blurring process. The Nth blurring process is performed on the obtained image. However, increasing the number of blur processing increases the processing load.

そこで本実施形態では図2のA1に示すように、ぼかし対象画像に対してその面積を縮小させる処理(1/L×1/L倍の縮小)を行って、縮小画像を生成する。次に、A2に示すようにこの縮小画像に対して1又は複数回のぼかし処理を行って、ぼかし縮小画像を生成する。そしてA3に示すようにこの縮小画像に対してその面積を拡大させる処理(L×L倍の拡大)を行って、ぼかし対象画像のぼかし画像を得る。なおこのぼかし画像を最終的なゲーム画像として出力してもよいし、このぼかし画像と元画像を合成(αブレンディング等)した画像を最終的なゲーム画像として出力してもよい。なお、図2は縦横の縮小・拡大倍率が等しい場合(1/L×1/L倍、L×L倍)の例を示したものであるが、縦横の縮小・拡大倍率が異なる場合(1/M×1/N倍、M×N倍)でも同様の処理が可能である。   Therefore, in the present embodiment, as shown by A1 in FIG. 2, a process for reducing the area of the blurring target image (1 / L × 1 / L times reduction) is performed to generate a reduced image. Next, as shown in A2, this reduced image is subjected to blurring processing one or more times to generate a blurred reduced image. And as shown to A3, the process (LxL expansion) which expands the area with respect to this reduced image is performed, and the blurring image of the blurring target image is obtained. The blurred image may be output as a final game image, or an image obtained by combining the blurred image and the original image (such as α blending) may be output as the final game image. FIG. 2 shows an example in which the vertical and horizontal reduction / enlargement magnifications are equal (1 / L × 1 / L times, L × L times), but the vertical and horizontal reduction / enlargement magnifications are different (1). / M × 1 / N times, M × N times) is also possible.

例えばぼかし処理はテクスチャ座標をシフトさせて行うバイリニア補間(テクセル補間)方式のテクスチャマッピングで実現できる。そしてバイリニア補間方式のテクスチャマッピングの処理負荷は、基本的には処理面積(処理領域のサイズ)に比例する。従って図2のA1、A2に示すように、ぼかし対象画像を縮小し、得られた縮小画像をテクスチャとするバイリニア補間方式のテクスチャマッピングを行うことで、ぼかし処理を実現すれば、ぼかし処理の負荷を大幅に軽減できる。特にぼかし処理の回数が多い場合にこの処理負荷の軽減の度合いは大きくなる。更に図2のA3では、ぼかし縮小画像を、元のぼかし対象画像の大きさになるように拡大しているため、ぼかし処理の回数がそれほど多くなくても、ぼかし長さを十分に大きくできるという利点がある。   For example, the blurring process can be realized by texture mapping of a bilinear interpolation (texel interpolation) method performed by shifting texture coordinates. The processing load of bilinear interpolation texture mapping is basically proportional to the processing area (the size of the processing region). Therefore, as shown in A1 and A2 of FIG. 2, if the blurring process is realized by reducing the blurring target image and performing the texture mapping of the bilinear interpolation method using the obtained reduced image as the texture, the load of the blurring process Can be greatly reduced. In particular, when the number of blurring processes is large, the degree of reduction of the processing load increases. Further, in A3 of FIG. 2, the reduced blur image is enlarged so as to be the size of the original blur target image, so that the blur length can be sufficiently increased even if the number of blur processes is not so large. There are advantages.

例えばテクスチャ座標を0.5テクセルだけシフトさせるバイリニア補間方式のテクスチャマッピングを1往復(0.5テクセルシフトと−0.5テクセルシフト)だけ行うことで、理想的には1ピクセルのぼかし長さを得ることができる。そして縮小・拡大処理を行わずにぼかし対象画像に対してN往復のぼかし処理を行うと、ぼかし長さはNピクセルになる。   For example, by performing bilinear interpolation texture mapping that shifts texture coordinates by 0.5 texels only once (0.5 texel shift and -0.5 texel shift), the blur length of 1 pixel is ideally achieved. Obtainable. If N round-trip blurring is performed on the blurring target image without performing reduction / enlargement processing, the blurring length becomes N pixels.

これに対して図2のように、ぼかし対象画像を1/L×1/L倍に縮小し、得られた縮小画像に対してN往復のぼかし処理を行い、得られたぼかし縮小画像をL×L倍に拡大する処理を行ったとする。この場合には、ぼかし対象画像を1/L×1/L倍に縮小し、ぼかし処理の後にL×L倍に拡大することで、ぼかし効果が長さに対してL倍になる。更に縮小/拡大により数ピクセル(Kピクセル。例えばK=2)分のぼかし長さが加わる。従って本実施形態によれば、ぼかし長さを例えば(L×N+K)ピクセルにすることができる。なおバイリニアサンプリングではなくポイントサンプリングで縮小/拡大を行った場合には、ぼかし長さは例えばL×Nピクセルにすることができる。   On the other hand, as shown in FIG. 2, the blurring target image is reduced to 1 / L × 1 / L times, and the obtained reduced image is subjected to N round-trip blurring processing. It is assumed that a process of enlarging to × L times is performed. In this case, the blurring effect is L times larger than the length by reducing the blurring target image to 1 / L × 1 / L times and enlarging to L × L times after the blurring process. Further, the blur length of several pixels (K pixels, for example, K = 2) is added by reduction / enlargement. Therefore, according to the present embodiment, the blur length can be, for example, (L × N + K) pixels. When the reduction / enlargement is performed by point sampling instead of bilinear sampling, the blur length can be set to L × N pixels, for example.

以上のように本実施形態によれば、ぼかし処理の負荷を大幅に軽減しながら、ぼかし長さを十分に大きくすることができ、ソフトフォーカス効果、グレア効果、被写界深度などの画像表現に最適なぼかし処理を実現できる。   As described above, according to the present embodiment, it is possible to sufficiently increase the blur length while greatly reducing the load of blur processing, and to express images such as a soft focus effect, a glare effect, and a depth of field. Optimal blurring can be realized.

2.2 サンプリング点グループを異ならせた複数の縮小画像の生成
図2では、ぼかし対象画像のB1〜B4に示す丸印のサンプリング点グループの情報に基づいて、縮小画像のB5、B6、B7、B8に示すピクセルの値を得ている。ここで、図2ではバイリニアサンプリング(バイリニア補間方式のテクスチャマッピング)で縮小画像を生成しているため、B1に示すサンプリング点の情報は、これに隣接する周囲のB9、B10、B11、B12に示すピクセルの値の平均値になっている。B2、B3、B4に示すサンプリング点の情報も同様である。但し、バイリニアサンプリングではなくポイントサンプリングで縮小画像を生成してもよい。
2.2 Generation of a plurality of reduced images with different sampling point groups In FIG. 2, based on the information of the sampling point groups indicated by circles B1 to B4 of the blurring target image, B5, B6, B7, The pixel value shown in B8 is obtained. Here, since the reduced image is generated by bilinear sampling (bilinear interpolation texture mapping) in FIG. 2, the information of the sampling points shown in B1 is shown in the surrounding B9, B10, B11, and B12 adjacent thereto. It is the average value of the pixel values. The same applies to the information of the sampling points shown in B2, B3, and B4. However, the reduced image may be generated by point sampling instead of bilinear sampling.

さて図3に示すように、ぼかし対象画像は、丸印の第1のサンプリング点グループの情報と、四角印の第2のサンプリング点グループ情報と、三角印の第3のサンプリング点グループの情報と、黒丸印の第4のサンプリング点グループ情報を元々有している。従って、図2のように1つのサンプリング点グループ(丸印)だけに基づいて、縮小画像を生成すると、ぼかし対象画像が元々有していた情報が欠落する。従って、この縮小画像を拡大してぼかし画像を生成した場合に、このぼかし画像に基づき生成されるゲーム画像の品質が低下し、画面のチラツキ等の問題が発生する可能性がある。   As shown in FIG. 3, the blurring target image includes information on a first sampling point group indicated by a circle, second sampling point group information indicated by a square, and information on a third sampling point group indicated by a triangle. The fourth sampling point group information indicated by black circles is originally included. Therefore, when a reduced image is generated based on only one sampling point group (circle) as shown in FIG. 2, information originally included in the blurring target image is lost. Therefore, when this reduced image is enlarged and a blurred image is generated, the quality of the game image generated based on this blurred image is reduced, and problems such as flickering of the screen may occur.

この場合、図2のようにバイリニアサンプリングで縮小画像を生成すれば、ぼかし対象画像が含んでいた情報の欠落をある程度防止できるが、それにも限界がある。例えば静止画では画面のチラツキは目立たないが、仮想カメラの移動やモデルオブジェクトの移動に伴い、画面のチラツキが発生するおそれがある。そして、図2では縮小倍率は面積比で1/4倍(1/2×1/2倍)になっているが、縮小倍率を例えば面積比で1/16倍(1/4×1/4倍)にすると、たとえバイリニアサンプリングで縮小画像を生成したとしても、縮小画像にその情報が全く反映されないサンプリング点グループが生じてしまう。   In this case, if a reduced image is generated by bilinear sampling as shown in FIG. 2, the loss of information included in the blurring target image can be prevented to some extent, but there is a limit to this. For example, flickering of the screen is not conspicuous in a still image, but flickering of the screen may occur as the virtual camera moves or the model object moves. In FIG. 2, the reduction ratio is 1/4 (1/2 × 1/2) in area ratio, but the reduction ratio is, for example, 1/16 (1/4 × 1/4) in area ratio. (Times)), even if a reduced image is generated by bilinear sampling, a sampling point group is generated in which the information is not reflected at all in the reduced image.

そこで本実施形態ではサンプリング点グループを異ならせた複数の縮小画像を生成する手法を採用している。具体的には図4に示すように、ぼかし対象画像の第1のサンプリング点グループ(丸印)での情報(ピクセル値又はピクセル値の平均値)に基づいて第1の縮小画像を生成する。同様に、ぼかし対象画像の第2、第3、第4のサンプリング点グループ(四角印、三角印、黒丸印)での情報(ピクセル値又はピクセル値の平均値)に基づいて第2、第3、第4の縮小画像を生成する。   Therefore, this embodiment employs a method of generating a plurality of reduced images with different sampling point groups. Specifically, as shown in FIG. 4, a first reduced image is generated based on information (pixel value or average value of pixel values) in the first sampling point group (circle) of the blurring target image. Similarly, based on information (pixel value or average value of pixel values) in the second, third, and fourth sampling point groups (square mark, triangle mark, black circle mark) of the blurring target image, the second, third, A fourth reduced image is generated.

そして得られた第1〜第4の縮小画像(広義には第1〜第Jの縮小画像)に基づいて、図2で説明したぼかし処理や拡大処理を行って、ぼかし対象画像のぼかし画像を生成する。そして、生成されたぼかし画像や、ぼかし画像と元画像の合成画像などを、最終的なゲーム画像として出力する。   Then, based on the obtained first to fourth reduced images (first to Jth reduced images in a broad sense), the blurring process and the enlargement process described in FIG. Generate. Then, the generated blurred image, a combined image of the blurred image and the original image, and the like are output as a final game image.

なお図4ではぼかし対象画像からサンプリング点グループが異なる4つの縮小画像を生成しているが、サンプリング点グループが異なる複数の縮小画像を生成するようにしてもよい。また図4では縮小倍率が面積比で1/4倍(1/2×1/2倍)の例を示しているが、縮小倍率はこれに限定されず、例えば1/2倍(1/21/2×1/21/2倍)、1/16倍(1/4×1/4倍)等であってもよい。即ちぼかし対象画像を面積比で1/L×1/L倍に縮小して第1〜第Jの縮小画像を生成する場合に、J≦L×L(M×N)の関係が成り立てばよい。 In FIG. 4, four reduced images having different sampling point groups are generated from the blur target image, but a plurality of reduced images having different sampling point groups may be generated. FIG. 4 shows an example in which the reduction ratio is 1/4 (1/2 × 1/2) in terms of area ratio, but the reduction ratio is not limited to this, and is, for example, 1/2 (1/2) 1/2 × 1/2 1/2 times), 1/16 times (1/4 × 1/4 times), or the like. In other words, when the first to Jth reduced images are generated by reducing the blur target image by 1 / L × 1 / L times in area ratio, the relationship of J ≦ L × L (M × N) may be satisfied. .

例えば図21(A)に、縮小倍率が1/21/2×1/21/2倍(面積比で1/2倍)で、拡大倍率が21/2×21/2倍(面積比で2倍)の時の例を示す。この場合は図21(B)に示すようにサンプリング点グループは2種類になる。また図22(A)に、縮小倍率が1/51/2×1/51/2倍(面積比で1/5倍)で、拡大倍率が51/2×51/2倍(面積比で5倍)の時の例を示す。この場合には図22(B)に示すようにサンプリング点グループは5種類になる。 For example, in FIG. 21A, the reduction magnification is 1/2 1/2 × 1/2 1/2 times ( 1/2 times the area ratio) and the enlargement magnification is 2 1/2 × 2 1/2 times ( An example when the area ratio is 2) is shown. In this case, there are two types of sampling point groups as shown in FIG. Also in FIG. 22 (A), in 1/2 × 1/5 1/2 times the reduction ratio is 1/5 (1/5 in area ratio), the magnification is 5 1/2 × 5 1/2 times ( An example when the area ratio is 5) is shown. In this case, there are five types of sampling point groups as shown in FIG.

さて、サンプリング点グループの異なる第1〜第Jの縮小画像は、バイリニア補間方式でテクスチャマッピングを行う際にテクスチャ座標を互いにずらすことで生成できる。具体的には図4の第1〜第4の縮小画像は、例えば図5に示すようにテクスチャ座標を互いにずらして設定することで実現できる。   Now, the first to Jth reduced images having different sampling point groups can be generated by shifting texture coordinates with each other when texture mapping is performed by the bilinear interpolation method. Specifically, the first to fourth reduced images in FIG. 4 can be realized by setting the texture coordinates so as to be shifted from each other as shown in FIG. 5, for example.

図5において第1〜第4の縮小画像の縦、横の長さは2になっており、第1〜第4の縮小画像の頂点V1、V2、V3、V4の座標(X、Y)は(0、0)、(2、0)、(2、2)、(0、2)になっている。   In FIG. 5, the vertical and horizontal lengths of the first to fourth reduced images are 2, and the coordinates (X, Y) of the vertices V1, V2, V3, V4 of the first to fourth reduced images are as follows. (0, 0), (2, 0), (2, 2), (0, 2).

そして第1の縮小画像では、これらの頂点V1、V2、V3、V4のテクスチャ座標(U、V)を(0、0)、(4、0)、(4、4)、(0、4)に設定する。また第2の縮小画像では、頂点V1、V2、V3、V4のテクスチャ座標(U、V)を(−1、−1)、(3、−1)、(3、3)、(−1、3)に設定する。また第3の縮小画像では、頂点V1、V2、V3、V4のテクスチャ座標(U、V)を(0、−1)、(4、−1)、(4、3)、(0、3)に設定する。また第4の縮小画像では、頂点V1、V2、V3、V4のテクスチャ座標(U、V)を(−1、0)、(3、0)、(3、4)、(−1、4)に設定する。このように、ぼかし対象画像をテクスチャに設定し、テクスチャ座標を互いにずらして(シフトさせて)バイリニアサンプリング(或いはポイントサンプリング)でテクスチャマッピングを行って、縮小画像サイズのポリゴン(仮想ポリゴン)を描画すれば、図4のようにサンプリング点グループが異なる複数の縮小画像を生成できる。   In the first reduced image, the texture coordinates (U, V) of these vertices V1, V2, V3, V4 are set to (0, 0), (4, 0), (4, 4), (0, 4). Set to. In the second reduced image, the texture coordinates (U, V) of the vertices V1, V2, V3, V4 are set to (-1, -1), (3, -1), (3, 3), (-1, Set to 3). In the third reduced image, the texture coordinates (U, V) of the vertices V1, V2, V3, V4 are (0, -1), (4, -1), (4, 3), (0, 3). Set to. In the fourth reduced image, the texture coordinates (U, V) of the vertices V1, V2, V3, V4 are set to (-1, 0), (3, 0), (3, 4), (-1, 4). Set to. In this way, the image to be blurred is set as a texture, the texture coordinates are shifted (shifted) from each other, texture mapping is performed by bilinear sampling (or point sampling), and a reduced image size polygon (virtual polygon) is drawn. For example, a plurality of reduced images having different sampling point groups can be generated as shown in FIG.

なお、複数の縮小画像に基づくぼかし画像の生成手法としては種々の手法がある。   There are various methods for generating a blurred image based on a plurality of reduced images.

例えば図6(A)では、ぼかし対象画像IMに基づき生成された縮小画像DI1〜DI4(第1〜第Jの縮小画像)を合成(αブレンディング)し、合成された縮小画像SIに対して1又は複数回のぼかし処理を行って、ぼかし合成縮小画像SDIを生成する。そしてこのぼかし合成縮小画像SDIの拡大処理を行って、IMのぼかし画像DIMを生成する。そして、このぼかし画像DIMや、DIMと元画像との合成画像(αブレンディング画像)を、最終的なゲーム画像として出力する。   For example, in FIG. 6A, reduced images DI1 to DI4 (first to Jth reduced images) generated based on the blurring target image IM are combined (α blending), and 1 is applied to the combined reduced image SI. Alternatively, a blur combined reduced image SDI is generated by performing blur processing a plurality of times. The blur combined reduced image SDI is enlarged to generate an IM blurred image DIM. Then, the blurred image DIM or a composite image (α blending image) of the DIM and the original image is output as a final game image.

また図6(B)では、ぼかし対象画像に基づき生成されたDI1〜DI4(第1〜第Jの縮小画像)に対してぼかし処理を行って、ぼかし縮小画像DDI1〜DDI4(第1〜第Jのぼかし縮小画像)を生成する。そしてぼかし縮小画像DDI1〜DDI4の拡大処理と合成処理を行って、IMのぼかし画像DIMを生成する。そして、このぼかし画像DIMや、DIMと元画像との合成画像(αブレンディング画像)を、最終的なゲーム画像として出力する
このようにすることで、ぼかし対象画像の情報の欠落の最小限に抑えながらも、少ない処理負荷で、ぼかし長さの大きいぼかし画像を生成できるようになる。
Further, in FIG. 6B, blurring processing is performed on DI1 to DI4 (first to Jth reduced images) generated based on the blurring target image, and blurred reduced images DDI1 to DDI4 (first to Jth reduced images) are processed. Image). Then, enlargement processing and composition processing of the blurred reduced images DDI1 to DDI4 are performed to generate an IM blurred image DIM. Then, this blurred image DIM or a composite image (α blended image) of the DIM and the original image is output as the final game image. By doing so, the loss of information on the blurred image is minimized. However, a blurred image having a large blur length can be generated with a small processing load.

2.3 ソフトフォーカス
写真撮影の分野では、いわゆるソフトフォーカスと呼ばれる技術が知られている。ソフトフォーカスとは、ピントの合った部分や線や輪郭についてはシャープであり、且つ、その周辺に柔らかい光がにじみ出た、いわゆるフレア現象が出ているものである。このソフトフォーカス効果が施された画像は、ソフトであっても細部はしっかりとしている画像になっている。写真撮影の分野では、収差の大きいレンズで絞りを開放する手法や、ソフトフォーカス用のレンズなどを用いることで、ソフトフォーカス効果を実現している。
2.3 Soft Focus In the field of photography, a so-called soft focus technique is known. The soft focus is a so-called flare phenomenon in which a focused portion, line, or outline is sharp and soft light oozes out in the vicinity. An image to which this soft focus effect has been applied is an image with fine details even if it is software. In the field of photography, a soft focus effect is realized by using a method of opening the aperture with a lens having a large aberration, or a lens for soft focus.

本実施形態ではこのソフトフォーカス効果を擬似的に表現するために次のような手法を採用している。即ちビデオフィルタ処理により、画像をソフトフォーカスの色調に設定する。そしてバイリニアフィルタ(バイリニア補間のテクスチャマッピング)を用いて画像をぼかす。そしてぼかした画像と元画像を合成(αブレンディング)する。   In the present embodiment, the following technique is employed to simulate this soft focus effect. That is, the image is set to a soft focus color tone by video filter processing. Then, the image is blurred using a bilinear filter (bilinear interpolation texture mapping). Then, the blurred image and the original image are synthesized (α blending).

具体的には図7に示すように、ぼかし対象画像である元画像IMの複数のサンプリング点グループでの情報に基づいて複数の縮小画像DI1〜DI4(第1〜第Jの縮小画像)を生成する。   Specifically, as shown in FIG. 7, a plurality of reduced images DI1 to DI4 (first to Jth reduced images) are generated based on information at a plurality of sampling point groups of the original image IM that is the blurring target image. To do.

次に、これらの縮小画像DI1〜DI4を合成(αブレンディング)して、合成された縮小画像SIを得る。   Next, these reduced images DI1 to DI4 are synthesized (α blending) to obtain a synthesized reduced image SI.

次に、合成縮小画像SIに対してビデオフィルタ処理を施して、ビデオフィルタ処理が施された縮小画像VSIを得る。具体的には、輝度が高いピクセルの輝度をより高くするなどの輝度補正処理を施す。即ち輝度が所与の値よりも高いピクセルの輝度を強め、所与の値よりも小さいピクセルの輝度を弱める。また縮小画像の特定の色成分を強調するなどの色調補正処理を施す。即ち、月夜のシーンならば青成分を強調し、夕焼けのシーンならば赤成分を強調する。なおビデオフィルタ処理としては種々の変形実施が可能であり、輝度補正と色調補正の両方を行ってもよいし、いずれか一方を行ってもよい。或いは、他の補正処理を更に行ってもよい。   Next, the composite reduced image SI is subjected to video filter processing to obtain a reduced image VSI that has been subjected to video filter processing. Specifically, a luminance correction process such as increasing the luminance of a pixel with high luminance is performed. That is, it increases the brightness of pixels whose brightness is higher than a given value, and weakens the brightness of pixels whose brightness is lower than a given value. Further, a tone correction process such as emphasizing a specific color component of the reduced image is performed. That is, the blue component is emphasized for a moonlit night scene, and the red component is emphasized for a sunset scene. The video filter processing can be variously modified, and both luminance correction and color tone correction may be performed, or one of them may be performed. Alternatively, other correction processing may be further performed.

次に、ビデオフィルタ処理が施された縮小画像VSIに対して1又は複数回のぼかし処理を行って、ぼかし合成縮小画像DVSIを生成する。   Next, one or a plurality of blurring processes are performed on the reduced image VSI that has been subjected to the video filter process to generate a blurred combined reduced image DVSI.

次に、ぼかし合成縮小画像DVSIの拡大処理を行って元の面積に戻し、ぼかし画像DIMを得る。そしてこのぼかし画像DIMと元画像IMとを合成(αブレンディング)する。   Next, enlargement processing of the blurred composite reduced image DVSI is performed to return to the original area, and a blurred image DIM is obtained. Then, the blurred image DIM and the original image IM are synthesized (α blending).

以上のような処理を行うことで、ピントの合った部分や線や輪郭についてはシャープであり、且つ、その周辺がぼやけて見えるソフトフォーカス効果を、元画像に施すことができる。これにより、生成される画像のバラエティ度を増すことができ、プレーヤの仮想現実感を高めることができる。   By performing the processing as described above, it is possible to apply a soft focus effect in which an in-focus portion, a line, or an outline is sharp and the periphery thereof is blurred, to the original image. As a result, the variety of generated images can be increased, and the virtual reality of the player can be enhanced.

なお図8(A)(B)(C)に図7のビデオフィルタ処理で使用される変換テーブル(ルックアップテーブルLUT)の例を示す。この変換テーブルは変換テーブル記憶部に記憶される。図8(A)(B)(C)において、RIN,GIN、BINは、ビデオフィルタ処理による変換前の入力ピクセル値のR、G、B成分であり、ROUT,GOUT、BOUTはビデオフィルタ処理による変換後の出力ピクセル値のR、G、B成分である。   8A, 8B, and 8C show examples of conversion tables (look-up table LUT) used in the video filter processing of FIG. This conversion table is stored in the conversion table storage unit. 8A, 8B, and 8C, RIN, GIN, and BIN are R, G, and B components of input pixel values before conversion by video filter processing, and ROUT, GOUT, and BOUT are based on video filter processing. R, G, and B components of the output pixel value after conversion.

図8(A)(B)(C)の変換テーブルを用いれば、所与の値以上のピクセルの輝度を高めることができる。また青成分の色味を強調することができる。これにより、月明かりに照らされたゲームシーンなどに最適なソフトフォーカス効果を実現できる。   If the conversion tables of FIGS. 8A, 8B, and 8C are used, the luminance of pixels that are greater than or equal to a given value can be increased. In addition, the color of the blue component can be emphasized. This makes it possible to achieve a soft focus effect that is optimal for game scenes illuminated by the moonlight.

なお図7〜図8(C)のビデオフィルタ処理は、インデックスカラー・テクスチャマッピング用のルックアップテーブル(LUT)を用いたインデックスカラー・テクスチャマッピングを利用して実現できる。具体的には合成縮小画像の情報(ピクセル値)をルックアップテーブル(LUT。図8(A)(B)(C))のインデックス番号に設定する。そしてこのルックアップテーブルを用いて、縮小サイズのポリゴンにインデックスカラー・テクスチャマッピングを行うことで、ビデオフィルタ処理が施された合成縮小画像を得ることができる。   7 to 8C can be realized by using index color / texture mapping using a lookup table (LUT) for index color / texture mapping. Specifically, the information (pixel value) of the composite reduced image is set to the index number of the lookup table (LUT, FIGS. 8A, 8B, and 8C). Then, by using this look-up table, index-color / texture mapping is performed on the reduced-size polygon, so that a composite reduced image subjected to video filter processing can be obtained.

2.4 ぼかし処理におけるピクセル値の変換
本実施形態では、ぼかし画像のぼかし長さを大きくするために、複数回のぼかし処理を行う。具体的には、まず、ぼかし処理に使用されるワークバッファWBUF1、WBUF2をVRAM上に確保する。
2.4 Conversion of Pixel Value in Blur Process In this embodiment, a plurality of blur processes are performed in order to increase the blur length of a blurred image. Specifically, first, work buffers WBUF1 and WBUF2 used for the blurring process are secured on the VRAM.

次にWBUF1に、ぼかし処理の対象となる画像を描画する。そしてWBUF1に描画した画像をテクスチャとして扱い、このテクスチャをマッピングした、テクスチャと同サイズのポリゴン(スプライト)をWBUF2に描画する。この時、ピクセル中心を4テクセルの中間に対応させて、バイリニア補間を使う。即ち、テクスチャ座標をシフトさせてバイリニア補間方式でテクスチャマッピングを行う。これにより、ワークバッファWBUF2には、WBUF1の画像を0.5ピクセルだけぼかした画像が描画される。   Next, an image to be blurred is drawn on WBUF1. Then, the image drawn on WBUF1 is treated as a texture, and a polygon (sprite) having the same size as the texture, to which this texture is mapped, is drawn on WBUF2. At this time, bilinear interpolation is used with the pixel center corresponding to the middle of four texels. That is, texture mapping is performed by shifting texture coordinates and using a bilinear interpolation method. As a result, an image obtained by blurring the image of WBUF1 by 0.5 pixels is drawn in the work buffer WBUF2.

次に、WBUF2の画像をテクスチャとして扱い、このテクスチャをマッピングした、テクスチャと同サイズのポリゴン(スプライト)をWBUF1に描画する。この時、ピクセル中心を4テクセルの中間に対応させて、バイリニア補間を使う。即ち、テクスチャ座標をシフトさせてバイリニア補間方式でテクスチャマッピングを行う。この結果、ワークバッファWBUF1には、WBUF2の画像を0.5ピクセルだけぼかした画像が描画される。   Next, the WBUF2 image is treated as a texture, and a polygon (sprite) having the same size as the texture, to which the texture is mapped, is drawn on the WBUF1. At this time, bilinear interpolation is used with the pixel center corresponding to the middle of four texels. That is, texture mapping is performed by shifting texture coordinates and using a bilinear interpolation method. As a result, an image obtained by blurring the image of WBUF2 by 0.5 pixels is drawn in the work buffer WBUF1.

以上のようなWBUF1からWBUF2への描画処理とWBUF2からWBUF1への描画処理という1往復の処理を行うことで、WBUF1の画像は、ぼかし対象画像を1ピクセルぼかした画像になる。必要とするぼかし長さがNピクセルである場合には、ぼかし処理をN往復だけ繰り返せばよい。   By performing one round-trip processing of drawing processing from WBUF1 to WBUF2 and drawing processing from WBUF2 to WBUF1 as described above, the image of WBUF1 becomes an image obtained by blurring the blurring target image by one pixel. If the required blur length is N pixels, the blur process may be repeated N times.

さて、このようにバイリニア補間などを利用してぼかし画像を生成した場合、ぼかし処理の回数が多くなればなるほど(ぼかし長さが大きくなればなるほど)、ぼかし処理の効率が低下するという問題があることが判明した。   When a blurred image is generated using bilinear interpolation or the like in this way, there is a problem that as the number of blurring processes increases (the blurring length increases), the efficiency of the blurring process decreases. It has been found.

例えば図9(A)は、元の1ピクセルに対してバイリニア補間のぼかし処理を4往復行って、4ピクセルだけぼかした時に、元のピクセルの値が周囲のピクセルに対してどのように分布するかを示した図である。   For example, FIG. 9A shows how the original pixel values are distributed with respect to surrounding pixels when bilinear interpolation blurring is performed four times on the original pixel and only four pixels are blurred. FIG.

図9(A)において、ぼかし中心に位置する元のピクセルのぼかし処理前のピクセル値は1であり、ぼかし処理後は4900/65536となっている。一方、ぼかし境界に位置する例えばE1に示すピクセルのぼかし処理後のピクセル値は、70/65536となっている。   In FIG. 9A, the pixel value before blur processing of the original pixel located at the blur center is 1, and after blur processing is 4900/65536. On the other hand, the pixel value after blurring processing of the pixel indicated by E1, for example, located at the blurring boundary is 70/65536.

そして例えば元のピクセルのぼかし処理前のピクセル値(α値)を255として、1未満の端数を切り捨てた結果は図9(B)に示すようになる。なお実際には1回(0.5ピクセル)のぼかし処理毎に、端数の切り捨てが行われるので、4ピクセルぼかし後の値は、図9(B)に示す値よりも小さくなる。   Then, for example, the pixel value (α value) of the original pixel before the blurring process is set to 255, and the result of rounding off fractions less than 1 is as shown in FIG. In practice, the fraction is rounded down every time one (0.5 pixel) blurring process is performed, so the value after 4-pixel blurring is smaller than the value shown in FIG.

図9(B)において、ぼかし中心に位置する元のピクセルのぼかし処理後のピクセル値は、1未満の端数が切り捨てられることで、255×4900/65536=19.0658・・・=19になる。一方、ぼかし境界に位置する例えばE1に示すピクセルのぼかし処理後のピクセル値は、1未満の端数が切り捨てられることで、255×70/65536=0.2723・・・・=0になる。   In FIG. 9B, the pixel value after the blurring process of the original pixel located at the blurring center is 255 × 4900/65536 = 19.0658. . On the other hand, the pixel value after the blurring process of the pixel indicated by E1, for example, located at the blurring boundary becomes 255 × 70/65536 = 0.723.

図9(B)の例では、元の1ピクセルが周囲に4ピクセルぼけることを期待しているにもかかわらず、ぼかし境界である最外周のピクセルの値が0になっているため、実質的なぼかし長さは3ピクセルになっている。このように、ぼかし処理を繰り返した場合に、ぼかし処理の回数よりも実際のぼかし長さの方が短くなり、ぼかし効率が悪化する。そしてぼかし処理の回数が多くなればなるほど、ぼかし効率は更に悪化する。   In the example of FIG. 9B, the value of the outermost peripheral pixel which is a blur boundary is 0 even though the original 1 pixel is expected to be blurred by 4 pixels in the surrounding area. The blur length is 3 pixels. Thus, when the blurring process is repeated, the actual blurring length is shorter than the number of blurring processes, and the blurring efficiency is deteriorated. As the number of blurring processes increases, the blurring efficiency further deteriorates.

このような問題を解決するために、本実施形態では、ぼかし処理の途中に例えばテーブル変換を介在させて、ぼかしの結果が小さくなりすぎないように変換処理を行っている。   In order to solve such a problem, in this embodiment, for example, table conversion is interposed in the middle of the blurring process, and the conversion process is performed so that the blurring result does not become too small.

例えば図10(A)の元の1ピクセルに対して1回目の第1のぼかし処理(広義には第Kのぼかし処理)を施すと、元の1ピクセルのピクセル値がその周囲にしみ出して、図10(B)に示すようになる。   For example, when the first first blurring process (Kth blurring process in a broad sense) is performed on the original pixel in FIG. 10A, the pixel value of the original one pixel oozes out around it. As shown in FIG.

この時に本実施形態では、図10(C)に示すように、第1のぼかし処理で得られたぼかし画像のピクセル値を増加させる変換処理を行う。例えば図10(C)では、ピクセル値が0よりも大きいピクセルに対して、そのピクセル値を増加させる変換処理を行っている。そして図10(D)に示すように、変換処理が施されたぼかし画像に対して、次の第2のぼかし処理(広義にはK+1のぼかし処理)を施す。なお、図10(C)の変換処理と図10(D)のぼかし処理を同時に行うようにしてもよい。   At this time, in the present embodiment, as shown in FIG. 10C, conversion processing for increasing the pixel value of the blurred image obtained by the first blur processing is performed. For example, in FIG. 10C, a conversion process for increasing a pixel value of a pixel having a pixel value greater than 0 is performed. Then, as shown in FIG. 10D, the next second blurring process (K + 1 blurring process in a broad sense) is performed on the blurred image that has been subjected to the conversion process. Note that the conversion process in FIG. 10C and the blurring process in FIG. 10D may be performed simultaneously.

次に本実施形態では図11(A)に示すように、第2のぼかし処理で得られたぼかし画像のピクセル値を増加させる変換処理を行う。そして図11(B)に示すように、変換処理が施されたぼかし画像に対して次の第3のぼかし処理を施す。   Next, in the present embodiment, as shown in FIG. 11A, conversion processing is performed to increase the pixel value of the blurred image obtained by the second blur processing. Then, as shown in FIG. 11B, the next third blurring process is performed on the blurred image that has been subjected to the conversion process.

以上のようにすれば、ぼかし処理後のぼかし画像のピクセル値がかさ上げされるため、図9(B)のようにぼかし画像の境界のピクセル値が小さくなって0になってしまう事態を防止できる。この結果、例えばN往復のぼかし処理で、Nピクセルの大きさのぼかし長さを得ることが可能になり、効率的なぼかし処理を実現できる。特に本実施形態の手法は、ぼかし処理の回数が多くなればなるほど、従来の手法に比べて有利になる。   In this way, since the pixel value of the blurred image after the blurring process is raised, the situation where the pixel value at the boundary of the blurred image becomes small as shown in FIG. 9B is prevented. it can. As a result, it is possible to obtain a blur length of the size of N pixels by, for example, N round-trip blur processing, and an efficient blur processing can be realized. In particular, the technique of this embodiment is more advantageous than the conventional technique as the number of blurring processes increases.

2.5 ぼかし処理の具体例
次に本実施形態のぼかし処理の具体例について説明する。
2.5 Specific Example of Blur Processing Next, a specific example of the blur processing according to the present embodiment will be described.

図12(A)に示すように、ワークバッファWBUF1に描画された画像(縮小画像、合成縮小画像)をテクスチャとして扱い、バイリニア補間方式のテクスチャマッピングを行うことで、第1のぼかし処理が施されたぼかし画像をワークバッファWBUF2に描画する。   As shown in FIG. 12A, the first blurring process is performed by treating the image (reduced image, synthesized reduced image) drawn in the work buffer WBUF1 as a texture and performing bilinear interpolation texture mapping. The blurred image is drawn in the work buffer WBUF2.

次に図12(B)に示すように、ワークバッファWBUF2に描画された画像をテクスチャとして扱い、インデックスカラー&バイリニア補間方式のテクスチャマッピングを行うことで、ピクセル値を増加させる変換処理と第2のぼかし処理とが施されたぼかし画像をワークバッファWBUF1に描画する。   Next, as shown in FIG. 12B, the image drawn in the work buffer WBUF2 is treated as a texture, and texture mapping using the index color & bilinear interpolation method is performed to increase the pixel value. The blurred image that has been subjected to the blurring process is drawn in the work buffer WBUF1.

次に図12(C)に示すように、ワークバッファWBUF1に描画された画像をテクスチャとして扱い、バイリニア補間方式のテクスチャマッピングを行うことで、第3のぼかし処理が施されたぼかし画像をワークバッファWBUF2に描画する。   Next, as shown in FIG. 12C, an image drawn in the work buffer WBUF1 is treated as a texture, and texture mapping by the bilinear interpolation method is performed, so that the blurred image subjected to the third blurring process is converted into the work buffer. Draw on WBUF2.

次に図12(D)に示すように、ワークバッファWBUF2に描画された画像をテクスチャとして扱い、インデックスカラー&バイリニア補間方式のテクスチャマッピングを行うことで、ピクセル値を増加させる変換処理と第4のぼかし処理とが施されたぼかし画像をワークバッファWBUF1に描画する。   Next, as shown in FIG. 12D, the image drawn in the work buffer WBUF2 is treated as a texture, and texture mapping of the index color & bilinear interpolation method is performed. The blurred image that has been subjected to the blurring process is drawn in the work buffer WBUF1.

以上のぼかし処理を所定回数だけ繰り返すことで、所望のぼかし長さのぼかし画像を得ることができる。   By repeating the above blurring process a predetermined number of times, a blurred image having a desired blur length can be obtained.

次に、バイリニア補間方式のテクスチャマッピングを利用したぼかし画像の生成手法について図13を用いて説明する。   Next, a blur image generation method using bilinear interpolation texture mapping will be described with reference to FIG.

まず、ワークバッファWBUF1の画像(ピクセル値)をテクスチャとして設定する。そして図13のF1に示すように、このテクスチャを仮想ポリゴン(仮想オブジェクト)にバイリニア補間方式でマッピングする際に、仮想ポリゴンの頂点に与えるテクスチャ座標を、例えば(0.5、0.5)だけ右下方向にシフト(ずらす、移動)させて、ワークバッファWBUF2に描画する。すると、バイリニア補間により自動的にWBUF1の画像の各ピクセルの色が、そのピクセルの周囲のピクセルにしみ出すようになる。これにより、WBUF1の画像を0.5ピクセルだけぼかした画像がWBUF2に描画される。   First, an image (pixel value) in the work buffer WBUF1 is set as a texture. Then, as shown in F1 of FIG. 13, when this texture is mapped to the virtual polygon (virtual object) by the bilinear interpolation method, the texture coordinates given to the vertex of the virtual polygon are, for example, (0.5, 0.5) only. Shift (shift, move) in the lower right direction and draw in the work buffer WBUF2. Then, the color of each pixel of the image of WBUF1 automatically oozes out to the surrounding pixels by bilinear interpolation. As a result, an image obtained by blurring the image of WBUF1 by 0.5 pixels is rendered on WBUF2.

例えばWBUF1の画像の描画領域の頂点VX1、VX2、VX3、VX4の座標が(X、Y)=(X0、Y0)、(X0、Y1)、(X1、Y1)、(X1、Y0)であったとする。この場合に、仮想ポリゴンの頂点VVX1、VVX2、VVX3、VVX4に与えるテクスチャ座標(U、V)を、各々、(X0、Y0)、(X0、Y1)、(X1、Y1)、(X1、Y0)に設定すれば、ピクセル位置とテクセル位置とがずれずに一致する。従って画像はぼけない。これに対して、仮想ポリゴンの頂点VVX1、VVX2、VVX3、VVX4に与えるテクスチャ座標(U、V)を、各々、(X0+0.5、Y0+0.5)、(X0+0.5、Y1+0.5)、(X1+0.5、Y1+0.5)、(X1+0.5、Y0+0.5)に設定すれば、ピクセル位置とテクセル位置とがずれるようになる。従って、バイリニア補間により、色の補間が行われ、WBUF1の画像を0.5ピクセルだけぼかした画像がWBUF2に描画される。   For example, the coordinates of the vertices VX1, VX2, VX3, and VX4 of the drawing area of the WBUF1 image are (X, Y) = (X0, Y0), (X0, Y1), (X1, Y1), (X1, Y0). Suppose. In this case, the texture coordinates (U, V) given to the vertices VVX1, VVX2, VVX3, VVX4 of the virtual polygon are (X0, Y0), (X0, Y1), (X1, Y1), (X1, Y0), respectively. ), The pixel position matches the texel position without any deviation. Therefore, the image is not blurred. On the other hand, the texture coordinates (U, V) given to the vertices VVX1, VVX2, VVX3, VVX4 of the virtual polygon are (X0 + 0.5, Y0 + 0.5), (X0 + 0.5, Y1 + 0.5), ( If it is set to (X1 + 0.5, Y1 + 0.5), (X1 + 0.5, Y0 + 0.5), the pixel position and the texel position will be shifted. Accordingly, color interpolation is performed by bilinear interpolation, and an image obtained by blurring the image of WBUF1 by 0.5 pixels is rendered on WBUF2.

次に、WBUF2の画像をテクスチャとして設定する。そして図13のF2に示すように、このテクスチャを仮想ポリゴンにバイリニア補間方式でマッピングする際に、仮想ポリゴンの頂点に与えるテクスチャ座標を例えば(−0.5、−0.5)だけ左上方向にシフトさせて、WBUF1に描画する。これにより、WBUF2の画像を0.5ピクセルだけぼかした画像がWBUF1に描画される。これにより、結局、WBUF1に描画されていた画像を1ピクセルだけぼかした画像が、WBUF1に上書きされるようになる。   Next, an image of WBUF2 is set as a texture. Then, as shown in F2 of FIG. 13, when this texture is mapped to the virtual polygon by the bilinear interpolation method, the texture coordinates given to the vertex of the virtual polygon are, for example, (−0.5, −0.5) in the upper left direction. Shift and draw on WBUF1. As a result, an image obtained by blurring the image of WBUF2 by 0.5 pixels is drawn on WBUF1. As a result, an image obtained by blurring the image drawn on WBUF1 by 1 pixel is overwritten on WBUF1.

次に、インデックスカラー・テクスチャマッピングを利用した変換処理の実現手法について説明する。   Next, a method for realizing conversion processing using index color / texture mapping will be described.

インデックスカラー・テクスチャマッピングでは、テクスチャ記憶部の使用記憶容量を節約するために、実際の色情報(RGB)ではなく、インデックス番号がテクスチャの各テクセルに関連づけて記憶される。またインデックスカラー・テクスチャマッピング用のルックアップテーブルLUTには、インデックス番号により指定される色情報(ROUT、GOUT、BOUT)やα値(αOUT)が記憶される。本実施形態では、このインデックスカラー・テクスチャマッピングを、通常とは異なる形態で利用している。   In the index color / texture mapping, in order to save the use storage capacity of the texture storage unit, an index number is stored in association with each texel of the texture instead of actual color information (RGB). The index color / texture mapping look-up table LUT stores color information (ROUT, GOUT, BOUT) and α value (αOUT) specified by the index number. In the present embodiment, the index color / texture mapping is used in a form different from the normal one.

具体的には図14のD1に示すように、ワークバッファWBUF2の画像のピクセル値(色情報、α値等)をルックアップテーブルLUTのインデックス番号として設定する(インデックス番号とみなす)。そしてD2に示すように、WBUF2の画像のピクセル値がインデックス番号として設定されたルックアップテーブルLUTを用いて、仮想ポリゴン(スプライト)に対してインデックスカラー・テクスチャマッピングを行い、仮想ポリゴンをワークバッファWBUF1に描画する。   Specifically, as indicated by D1 in FIG. 14, the pixel value (color information, α value, etc.) of the image in the work buffer WBUF2 is set as an index number of the lookup table LUT (it is regarded as an index number). Then, as shown in D2, index color / texture mapping is performed on the virtual polygon (sprite) using the lookup table LUT in which the pixel value of the image of WBUF2 is set as the index number, and the virtual polygon is set to the work buffer WBUF1. To draw.

このようにすれば、例えばWBUF2の画像のピクセル値を、ルックアップテーブルLUTにより変換して、WBUF1に描画できるようになる。しかも、WBUF2の全てのピクセルの値を、1回のテクスチャマッピングで変換してWBUF1に描画できるため、処理効率が高いという利点がある。   In this way, for example, the pixel value of the image of WBUF2 can be converted by the lookup table LUT and rendered on WBUF1. In addition, since the values of all the pixels in WBUF2 can be converted into a single texture mapping and rendered in WBUF1, there is an advantage that the processing efficiency is high.

本実施形態では、図13で説明したバイリニア補間方式で、図14で説明したインデックスカラー・テクスチャマッピングを行うことで、図12(B)のようにピクセル値の変換処理とぼかし処理の両方を同時に行うことに成功している。具体的には、WBUF2の画像のピクセル値をルックアップテーブルLUTのインデックス番号として設定する。そしてルックアップテーブルLUTを用いて、テクスチャ座標をシフトさせてバイリニア補間方式で、仮想ポリゴンに対してインデックスカラー・テクスチャマッピングを行い、仮想ポリゴンをワークバッファWBUF1に描画する。このようにすれば、1回のテクスチャマッピングで、ピクセル値の変換処理とぼかし処理の両方を同時に行うことが可能になり、処理を更に効率化できる。   In the present embodiment, by performing the index color / texture mapping described with reference to FIG. 14 using the bilinear interpolation method described with reference to FIG. 13, both pixel value conversion processing and blurring processing are performed simultaneously as shown in FIG. Has succeeded in doing. Specifically, the pixel value of the WBUF2 image is set as the index number of the lookup table LUT. Then, using the look-up table LUT, the texture coordinates are shifted to perform index color / texture mapping on the virtual polygon by the bilinear interpolation method, and the virtual polygon is drawn in the work buffer WBUF1. In this way, both pixel value conversion processing and blurring processing can be performed simultaneously with one texture mapping, and the processing can be made more efficient.

3.本実施形態の処理
次に、本実施形態の詳細な処理例について図15〜図18のフローチャートを用いて説明する。
3. Processing of this embodiment Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS.

図15は初期設定処理のフローチャートである。まず、VRAMにワークバッファWBUF1、WBUF2、WBUF3を確保する(ステップS1)。次に各種パラメータの初期化を行う(ステップS2)。そしてビデオフィルタ処理(輝度・色調補正)用のルックアップテーブル(LUT。図8(A)(B)(C))の設定処理を行う(ステップS3)。   FIG. 15 is a flowchart of the initial setting process. First, work buffers WBUF1, WBUF2, and WBUF3 are secured in the VRAM (step S1). Next, various parameters are initialized (step S2). Then, setting processing of a look-up table (LUT for FIGS. 8A, 8B, and 8C) for video filter processing (luminance / color tone correction) is performed (step S3).

図16はフレーム毎に行われる処理のフローチャートである。まずフレーム(1/60秒)更新のタイミングか否かを判断する(ステップS11)。そしてフレーム更新である場合には、ジオメトリ処理後(透視変換後)のオブジェクト(ポリゴン)をフレームバッファに描画して、元画像(画面サイズのゲーム画像)を生成する(ステップS12)。   FIG. 16 is a flowchart of processing performed for each frame. First, it is determined whether or not it is a frame (1/60 second) update timing (step S11). If the frame is to be updated, the object (polygon) after geometry processing (after perspective transformation) is drawn in the frame buffer to generate an original image (screen-sized game image) (step S12).

次に、フレームバッファの元画像をテクスチャとして、ワークバッファWBUF2に、面積比1/16(1/4×1/4)でポリゴンを縮小描画する(ステップS13)。これにより図2のA1で説明したように、ぼかし対象画像である元画像の縮小処理が実現される。   Next, the original image in the frame buffer is used as a texture, and the polygon is reduced and drawn in the work buffer WBUF2 at an area ratio of 1/16 (1/4 × 1/4) (step S13). As a result, as described in A1 of FIG. 2, the reduction process of the original image that is the blurring target image is realized.

次に、ワークバッファWBUF3にビデオフィルタ処理用のルックアップテーブル(LUT)をコピーする(ステップS21)。そしてワークバッファWBUF2の画像をテクスチャとして、ルックアップテーブル(LUT)を用いたインデックスカラー・テクスチャマッピングを行って、ワークバッファWBUF1にそのテクスチャがマッピングされたポリゴンを描画する(ステップS22)。これにより図7〜図8(C)で説明したビデオフィルタ処理が実現される。   Next, a look-up table (LUT) for video filter processing is copied to the work buffer WBUF3 (step S21). Then, using the image in the work buffer WBUF2 as a texture, index color / texture mapping using a look-up table (LUT) is performed, and a polygon with the texture mapped in the work buffer WBUF1 is drawn (step S22). Thereby, the video filter processing described in FIGS. 7 to 8C is realized.

次に、ぼかし処理(1〜8回)を行う(ステップS24)。具体的には図12(A)〜図13で説明したように、WBUF1の画像を、テクスチャ座標をシフトさせてテクスチャマッピングを行いWBUF2にポリゴンを描画し、WBUF2の画像を、テクスチャ座標をシフトさせてテクスチャマッピングを行いWBUF1にポリゴンを描画する。そしてこの1往復の処理を1〜8回繰り返す。   Next, blurring processing (1 to 8 times) is performed (step S24). Specifically, as described with reference to FIGS. 12A to 13, texture mapping is performed on the WBUF1 image by shifting texture coordinates, polygons are drawn on the WBUF2, and texture coordinates are shifted on the WBUF2 image. Then, texture mapping is performed to draw a polygon on WBUF1. Then, this one-way process is repeated 1 to 8 times.

次に、WBUF1の画像を、フレームバッファ画像の所定の位置に拡大しながらαブレンディング(40%程度)描画する(ステップS25)。即ち図2のA3で説明した拡大処理を行うと共に図7で説明したαブレンディング処理を行う。これにより、元画像にソフトフォーカス効果が施された画像を生成できる。なお、ステップS25の処理の際には、図15のステップS2で設定されたパラメータに応じて、描画位置を上下左右にずらすこともできる。このようにすれば、月明かりのぼかし画像を例えば月の上側にずらして表示することなどが可能になり、よりリアルなソフトフォーカス画像を生成できる。   Next, α blending (about 40%) is drawn while enlarging the image of WBUF1 to a predetermined position of the frame buffer image (step S25). That is, the enlargement process described in A3 in FIG. 2 is performed and the α blending process described in FIG. 7 is performed. Thereby, an image in which the soft focus effect is applied to the original image can be generated. In the process of step S25, the drawing position can be shifted up, down, left, and right according to the parameters set in step S2 of FIG. In this way, it becomes possible to display a blurred image of the moonlight by shifting it to the upper side of the moon, for example, and a more realistic soft focus image can be generated.

図19(A)(B)は、各々、1/4倍、1/16倍(面積比)の縮小倍率で元画像を縮小した場合のバイリニアサンプリングの様子を示した図である。図19(A)のように縮小倍率が1/4倍である場合には、バイリニアサンプリングにより、全てのテクセルの値を考慮して縮小画像が生成されるため、縮小時における元画像の情報の喪失をある程度防止できる。しかしながら、図19(B)のように縮小倍率が1/16倍である場合には、サンプリング点の周囲の4テクセルからしかサンプリングが行われないため、情報が反映されないテクセルが存在するようになってしまう。従って、情報が反映されないテクセルの値に変化があった時にも、縮小画像にはその変化が反映されないようになってしまう。   FIGS. 19A and 19B are diagrams showing the state of bilinear sampling when the original image is reduced at a reduction ratio of 1/4 times and 1/16 times (area ratio), respectively. When the reduction ratio is ¼ as shown in FIG. 19A, a reduced image is generated in consideration of the values of all texels by bilinear sampling. Loss can be prevented to some extent. However, when the reduction ratio is 1/16 as shown in FIG. 19B, sampling is performed only from four texels around the sampling point, so that there is a texel that does not reflect information. End up. Therefore, even when there is a change in the value of the texel where the information is not reflected, the change is not reflected in the reduced image.

図17はこのような問題点を解決できる本実施形態の他の処理例のフローチャートである。図17は、図16と、ステップS14、S15、S16の処理が異なっている。   FIG. 17 is a flowchart of another processing example of the present embodiment that can solve such problems. FIG. 17 differs from FIG. 16 in the processing of steps S14, S15, and S16.

即ち図17のステップS14では、フレームバッファの元画像をテクスチャとして、ワークバッファWBUF2に、面積比1/16でポリゴンを縮小描画する。これにより、図19(C)の第1のサンプリング点グループでの情報に基づく第1の縮小画像を生成できる。   That is, in step S14 of FIG. 17, the original image of the frame buffer is used as a texture, and the polygon is reduced and drawn in the work buffer WBUF2 with an area ratio of 1/16. Thereby, the 1st reduction image based on the information in the 1st sampling point group of Drawing 19 (C) can be generated.

次にステップS15で、フレームバッファの元画像をテクスチャとして、ワークバッファWBUF1に、面積比1/16でポリゴンを縮小描画する。この時、図5で説明したようにテクスチャ座標(U、V)をずらして縮小画像を生成する。これにより、図19(C)の第2のサンプリング点グループでの情報に基づく第2の縮小画像を生成できる。   In step S15, the original image in the frame buffer is used as a texture, and the polygon is reduced and drawn in the work buffer WBUF1 with an area ratio of 1/16. At this time, as described with reference to FIG. 5, the texture coordinates (U, V) are shifted to generate a reduced image. Thereby, the 2nd reduction image based on the information in the 2nd sampling point group of Drawing 19 (C) can be generated.

次にステップS16で、WBUF1の画像(第2の縮小画像)をテクスチャとして、WBUF2(第1の縮小画像)に、αブレンディング(50%)で、そのテクスチャがマッピングされたポリゴンを描画する。これにより図6(A)で説明したように、ステップS14、S15で生成された第1、第2の縮小画像の合成縮小画像(SI)を生成できる。そしてステップS21以降の処理により、この合成縮小画像にビデオフィルタ処理やぼかし処理等を施すことで、元画像のソフトフォーカス画像を生成できる。   In step S16, the WBUF1 image (second reduced image) is used as a texture, and a polygon on which the texture is mapped is drawn on WBUF2 (first reduced image) by α blending (50%). As a result, as described with reference to FIG. 6A, a combined reduced image (SI) of the first and second reduced images generated in steps S14 and S15 can be generated. Then, by performing a video filter process, a blurring process, and the like on the combined reduced image by the process after step S21, a soft focus image of the original image can be generated.

図18も、本実施形態の他の処理例のフローチャートである。図18は、図16と、ステップS17、S18の処理が異なっている。   FIG. 18 is also a flowchart of another processing example of this embodiment. FIG. 18 differs from FIG. 16 in the processing of steps S17 and S18.

即ち図18のステップS17では、フレームバッファの元画像をテクスチャとして、ワークバッファWBUF1に、面積比1/4でポリゴンを縮小描画する。そしてステップS18で、ワークバッファWBUF1の画像をテクスチャとして、ワークバッファWBUF2に、面積比1/4でポリゴンを縮小描画する。即ち1/4倍の縮小処理を2回繰り返す。このようにすれば、バイリニアサンプリングを利用して全テクセルの情報から1/16倍の縮小画像を生成できる。但し図18の手法は、処理負荷が比較的重く、必要とするワークバッファのサイズも大きいという不利点がある。しかしながら、仮想カメラやモデルオブジェクトが移動した時に、図16の手法に比べて画面のチラツキ等が改善されるという利点がある。   That is, in step S17 of FIG. 18, the original image in the frame buffer is used as a texture, and the polygon is reduced and drawn in the work buffer WBUF1 with an area ratio of 1/4. In step S18, a polygon is reduced and drawn in the work buffer WBUF2 with an area ratio of 1/4 using the image in the work buffer WBUF1 as a texture. That is, the 1/4 reduction process is repeated twice. In this way, a 1 / 16-fold reduced image can be generated from the information of all texels using bilinear sampling. However, the method of FIG. 18 has the disadvantages that the processing load is relatively heavy and the required work buffer size is large. However, when the virtual camera or the model object moves, there is an advantage that flickering of the screen is improved as compared with the method of FIG.

4.ハードウェア構成
図20に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
4). Hardware Configuration FIG. 20 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and performs matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The CD drive 980 accesses a CD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(描画領域、第1〜第Jの縮小画像、変換テーブル等)として引用された用語(フレームバッファ・ワークバッファ、第1〜第4の縮小画像、ルックアップテーブル等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms (frame buffer / work buffer, first to fourth) cited as broad or synonymous terms (drawing area, first to Jth reduced images, conversion table, etc.) in the description or drawings. (Reduced image, lookup table, etc.) can be replaced with terms having a broad meaning or the same meaning in other descriptions in the specification or the drawings.

また、ぼかし対象画像の縮小処理、ぼかし処理、拡大処理、ぼかし処理やピクセル値の変換処理も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Further, the reduction process, the blur process, the enlargement process, the blur process, and the pixel value conversion process of the blur target image are not limited to those described in the present embodiment, and techniques equivalent to these are also included in the scope of the present invention. .

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. ぼかし対象画像を縮小した後にぼかし処理を行う手法の説明図。Explanatory drawing of the method of performing a blurring process after reducing the blurring target image. サンプリング点グループの説明図。Explanatory drawing of a sampling point group. サンプリング点グループが異なる複数の縮小画像を生成する手法の説明図。Explanatory drawing of the method of producing | generating the some reduced image from which a sampling point group differs. サンプリング点グループが異なる複数の縮小画像を生成する手法の説明図。Explanatory drawing of the method of producing | generating the some reduced image from which a sampling point group differs. 図6(A)(B)は複数の縮小画像に基づくぼかし画像の生成手法の説明図。6A and 6B are explanatory diagrams of a blurred image generation method based on a plurality of reduced images. ソフトフォーカス効果画像の生成手法の説明図。Explanatory drawing of the production | generation method of a soft focus effect image. 図8(A)(B)(C)はビデオフィルタ処理の変換テーブルの例。8A, 8B, and 8C are examples of conversion tables for video filter processing. 図9(A)(B)は複数回のぼかし処理を行った場合の問題点の説明図。FIGS. 9A and 9B are explanatory diagrams of problems when a plurality of blurring processes are performed. 図10(A)〜(D)はぼかし処理時のピクセル値の変換処理の説明図。10A to 10D are explanatory diagrams of pixel value conversion processing at the time of blurring processing. 図11(A)(B)はぼかし処理時のピクセル値の変換処理の説明図。11A and 11B are explanatory diagrams of pixel value conversion processing during blurring processing. 図12(A)〜(D)はぼかし処理の具体例の説明図。12A to 12D are explanatory diagrams of specific examples of the blurring process. バイリニア補間を用いたぼかし処理の説明図。Explanatory drawing of the blurring process using bilinear interpolation. インデックスカラー・テクスチャマッピングを用いた変換処理の説明図。Explanatory drawing of the conversion process using index color and texture mapping. 本実施形態の具体的な処理のフローチャート。The flowchart of the specific process of this embodiment. 本実施形態の具体的な処理のフローチャート。The flowchart of the specific process of this embodiment. 本実施形態の具体的な処理のフローチャート。The flowchart of the specific process of this embodiment. 本実施形態の具体的な処理のフローチャート。The flowchart of the specific process of this embodiment. 図19(A)(B)(C)は本実施形態の具体的な処理の説明図。19A, 19B, and 19C are explanatory diagrams of specific processing of the present embodiment. ハードウェア構成例。Hardware configuration example. 図21(A)(B)は図4とは縮小・拡大倍率が異なる他の例。21A and 21B are other examples in which the reduction / enlargement magnification is different from that in FIG. 図22(A)(B)は図4とは縮小・拡大倍率が異なる他の例。22A and 22B show another example in which the reduction / enlargement magnification is different from that in FIG.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、120 描画部、122、縮小処理部、
124 ぼかし処理部、126 拡大処理部、128 ビデオフィルタ処理部、
129 αブレンディング部、130 音生成部、160 操作部、170 記憶部、
171 変換テーブル記憶部、172 描画バッファ、174 テクスチャ記憶部、
176 Zバッファ、180 情報記憶媒体、190 表示部、
192 音出力部、194 携帯型情報記憶装置、196 通信部
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 120 drawing unit, 122, reduction processing unit,
124 blur processing unit, 126 enlargement processing unit, 128 video filter processing unit,
129 α blending unit, 130 sound generation unit, 160 operation unit, 170 storage unit,
171 conversion table storage unit, 172 drawing buffer, 174 texture storage unit,
176 Z buffer, 180 information storage medium, 190 display unit,
192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (14)

画像を生成するためのプログラムであって、
ぼかし対象画像に対してその面積を縮小させる処理を行って、縮小画像を生成する縮小処理部と、
前記縮小画像に対してぼかし処理を行って、ぼかし縮小画像を生成するぼかし処理部と、
前記ぼかし縮小画像に対してその面積を拡大させる処理を行う拡大処理部として、
コンピュータを機能させることを特徴とするプログラム。
A program for generating an image,
A reduction processing unit that reduces the area of the image to be blurred and generates a reduced image;
A blur processing unit that performs blur processing on the reduced image to generate a blurred reduced image;
As an enlargement processing unit that performs processing for enlarging the area of the blurred reduced image,
A program characterized by causing a computer to function.
請求項1において、
前記縮小処理部が、
ぼかし対象画像の第1のサンプリング点グループでの情報に基づいて第1の縮小画像を生成し、ぼかし対象画像の第2のサンプリング点グループでの情報に基づいて第2の縮小画像を生成し、・・・・・ぼかし対象画像の第J(Jは2以上の整数)のサンプリング点グループでの情報に基づいて第Jの縮小画像を生成することを特徴とするプログラム。
In claim 1,
The reduction processing unit
Generating a first reduced image based on information in the first sampling point group of the blur target image, generating a second reduced image based on information in the second sampling point group of the blur target image; ... A program that generates a Jth reduced image based on information in a Jth sampling point group (J is an integer equal to or greater than 2) of a blurring target image.
請求項2において、
前記ぼかし処理部が、
前記第1〜第Jの縮小画像を合成し、合成された縮小画像に対してぼかし処理を行って、ぼかし合成縮小画像を生成し、
前記拡大処理部が、
前記ぼかし合成縮小画像の拡大処理を行うことを特徴とするプログラム。
In claim 2,
The blur processing unit is
Combining the first to Jth reduced images, performing a blurring process on the combined reduced image to generate a blurred combined reduced image,
The enlargement processing unit
A program for performing enlargement processing of the blur combined reduced image.
請求項2において、
前記ぼかし処理部が、
前記第1〜第Jの縮小画像に対してぼかし処理を行って、第1〜第Jのぼかし縮小画像を生成し、
前記拡大処理部が、
前記第1〜第Jのぼかし縮小画像の拡大処理と合成処理を行うことを特徴とするプログラム。
In claim 2,
The blur processing unit is
Blurring the first to Jth reduced images to generate first to Jth reduced images,
The enlargement processing unit
A program for performing enlargement processing and composition processing of the first to Jth blurred reduced images.
請求項1乃至4のいずれかにおいて、
前記縮小処理部が、
バイリニア補間方式のテクスチャマッピングにより縮小画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The reduction processing unit
A program for generating a reduced image by bilinear interpolation texture mapping.
請求項1乃至5のいずれかにおいて、
前記縮小画像に対して、その輝度が、所与の値を閾値として高いピクセルについては輝度をより高くし、低いピクセルについては輝度をより低くするビデオフィルタ処理を行うビデオフィルタ処理部としてコンピュータを機能させ、
前記ぼかし処理部が、
前記ビデオフィルタ処理が施された縮小画像に対してぼかし処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
For the reduced image, the computer functions as a video filter processing unit that performs a video filter process in which the luminance is higher for a pixel having a given value as a threshold and the luminance is lower for a lower pixel. Let
The blur processing unit is
A program for performing blurring processing on a reduced image subjected to the video filter processing.
請求項6において、
前記ビデオフィルタ処理部が、
前記縮小画像の所与の色成分を強調するビデオフィルタ処理を行うことを特徴とするプログラム。
In claim 6,
The video filter processing unit
A program for performing video filter processing for enhancing a given color component of the reduced image.
請求項1乃至7のいずれかにおいて、
前記ぼかし処理部が、
前記縮小画像に対して複数回のぼかし処理を行う場合に、前記複数回のぼかし処理のうちの第Kのぼかし処理で得られたぼかし画像のピクセル値を増加させる変換処理を行い、変換処理後のぼかし画像に対して次の第K+1のぼかし処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The blur processing unit is
When the reduced image is subjected to the blurring process a plurality of times, a conversion process for increasing the pixel value of the blurred image obtained in the Kth blurring process among the plurality of the blurring processes is performed. A program characterized by performing the next (K + 1) th blurring process on the blurred image.
請求項8において、
前記変換処理のための変換テーブルを記憶する変換テーブル記憶部としてコンピュータを機能させ、
前記ぼかし処理部が、
前記変換テーブルを用いて、ぼかし画像のピクセル値を増加させる前記変換処理を行うことを特徴とするプログラム。
In claim 8,
Causing a computer to function as a conversion table storage unit that stores a conversion table for the conversion process;
The blur processing unit is
A program for performing the conversion process for increasing a pixel value of a blurred image using the conversion table.
請求項9において、
前記変換テーブルが、インデックスカラー・テクスチャマッピング用のルックアップテーブルであり、
前記ぼかし処理部が、
第Kのぼかし処理で得られたぼかし画像のピクセル値を、前記ルックアップテーブルのインデックス番号として設定し、前記ルックアップテーブルを用いたインデックスカラー・テクスチャマッピングを行うことで、ぼかし画像のピクセル値を増加させる前記変換処理を行うことを特徴とするプログラム。
In claim 9,
The conversion table is a lookup table for index color / texture mapping,
The blur processing unit is
The pixel value of the blurred image obtained by the Kth blurring process is set as the index number of the lookup table, and index color / texture mapping using the lookup table is performed, so that the pixel value of the blurred image is obtained. A program for performing the conversion process to be increased.
請求項10において、
前記ぼかし処理部が、
テクスチャ座標をシフトさせてバイリニア補間方式で、前記インデックスカラー・テクスチャマッピングを行うことで、前記変換処理と前記第K+1のぼかし処理の両方を同時に行うことを特徴とするプログラム。
In claim 10,
The blur processing unit is
A program characterized by simultaneously performing both the conversion process and the (K + 1) th blurring process by shifting the texture coordinates and performing the index color / texture mapping by a bilinear interpolation method.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至11のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 11 is stored. 画像を生成する画像生成システムであって、
ぼかし対象画像に対してその面積を縮小させる処理を行って、縮小画像を生成する縮小処理部と、
前記縮小画像に対してぼかし処理を行って、ぼかし縮小画像を生成するぼかし処理部と、
前記ぼかし縮小画像に対してその面積を拡大させる処理を行う拡大処理部とを含むことを特徴とする画像生成システム。
An image generation system for generating an image,
A reduction processing unit that reduces the area of the image to be blurred and generates a reduced image;
A blur processing unit that performs blur processing on the reduced image to generate a blurred reduced image;
An image generation system comprising: an enlargement processing unit that performs processing for enlarging the area of the blurred reduced image.
請求項13において、
前記縮小処理部が、
ぼかし対象画像の第1のサンプリング点グループでの情報に基づいて第1の縮小画像を生成し、ぼかし対象画像の第2のサンプリング点グループでの情報に基づいて第2の縮小画像を生成し、・・・・・ぼかし対象画像の第J(Jは2以上の整数)のサンプリング点グループでの情報に基づいて第Jの縮小画像を生成することを特徴とする画像生成システム。
In claim 13,
The reduction processing unit
Generating a first reduced image based on information in the first sampling point group of the blur target image, generating a second reduced image based on information in the second sampling point group of the blur target image; An image generation system that generates a Jth reduced image based on information in a Jth sampling point group (J is an integer of 2 or more) of a blurring target image.
JP2004183803A 2004-06-22 2004-06-22 Program, information storage medium, and image generating system Pending JP2006011539A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004183803A JP2006011539A (en) 2004-06-22 2004-06-22 Program, information storage medium, and image generating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004183803A JP2006011539A (en) 2004-06-22 2004-06-22 Program, information storage medium, and image generating system

Publications (1)

Publication Number Publication Date
JP2006011539A true JP2006011539A (en) 2006-01-12

Family

ID=35778775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004183803A Pending JP2006011539A (en) 2004-06-22 2004-06-22 Program, information storage medium, and image generating system

Country Status (1)

Country Link
JP (1) JP2006011539A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272356A (en) * 2006-03-30 2007-10-18 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2008225767A (en) * 2007-03-12 2008-09-25 Nintendo Co Ltd Image processing program and image processor
WO2009017138A1 (en) * 2007-07-27 2009-02-05 Ricoh Company, Ltd. Image processor, image processing method, digital camera, and imaging apparatus
JP2010079780A (en) * 2008-09-29 2010-04-08 Keyence Corp Image processing apparatus, image processing method and computer program
JP2012060540A (en) * 2010-09-10 2012-03-22 Fujitsu Ltd Image processing apparatus, image processing method, and program for image processing
CN102930502A (en) * 2012-11-16 2013-02-13 深圳大学 Consistency image transformation method and system capable of keeping control point correspondence
KR20170030602A (en) * 2014-07-30 2017-03-17 후아웨이 테크놀러지 컴퍼니 리미티드 Method and device for setting background of ui control and terminal
JP2017184812A (en) * 2016-04-01 2017-10-12 株式会社三洋物産 Game machine
CN111861963A (en) * 2020-07-28 2020-10-30 平安科技(深圳)有限公司 Image synthesis method and related equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59124370A (en) * 1982-12-29 1984-07-18 株式会社 写研 Method of varying multiplier
JPH03167598A (en) * 1989-11-28 1991-07-19 Hitachi Medical Corp Method for reducing image
JPH08107512A (en) * 1993-05-07 1996-04-23 Sharp Corp Method for adjusting sharpness of image
JP2002092631A (en) * 2000-01-28 2002-03-29 Namco Ltd Game system, program, and information storage medium
JP2002269582A (en) * 2001-03-07 2002-09-20 Namco Ltd Game information, information storage medium, and game device
JP2003085578A (en) * 2001-09-14 2003-03-20 Namco Ltd Game information, information storage medium and game device
JP2004102904A (en) * 2002-09-12 2004-04-02 Pentax Corp Filtering device and filtering method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59124370A (en) * 1982-12-29 1984-07-18 株式会社 写研 Method of varying multiplier
JPH03167598A (en) * 1989-11-28 1991-07-19 Hitachi Medical Corp Method for reducing image
JPH08107512A (en) * 1993-05-07 1996-04-23 Sharp Corp Method for adjusting sharpness of image
JP2002092631A (en) * 2000-01-28 2002-03-29 Namco Ltd Game system, program, and information storage medium
JP2002269582A (en) * 2001-03-07 2002-09-20 Namco Ltd Game information, information storage medium, and game device
JP2003085578A (en) * 2001-09-14 2003-03-20 Namco Ltd Game information, information storage medium and game device
JP2004102904A (en) * 2002-09-12 2004-04-02 Pentax Corp Filtering device and filtering method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272356A (en) * 2006-03-30 2007-10-18 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2008225767A (en) * 2007-03-12 2008-09-25 Nintendo Co Ltd Image processing program and image processor
WO2009017138A1 (en) * 2007-07-27 2009-02-05 Ricoh Company, Ltd. Image processor, image processing method, digital camera, and imaging apparatus
US8194158B2 (en) 2007-07-27 2012-06-05 Ricoh Company, Ltd. Image processor, image processing method, digital camera, and imaging apparatus
JP2010079780A (en) * 2008-09-29 2010-04-08 Keyence Corp Image processing apparatus, image processing method and computer program
JP2012060540A (en) * 2010-09-10 2012-03-22 Fujitsu Ltd Image processing apparatus, image processing method, and program for image processing
CN102930502A (en) * 2012-11-16 2013-02-13 深圳大学 Consistency image transformation method and system capable of keeping control point correspondence
KR20170030602A (en) * 2014-07-30 2017-03-17 후아웨이 테크놀러지 컴퍼니 리미티드 Method and device for setting background of ui control and terminal
JP2017524193A (en) * 2014-07-30 2017-08-24 華為技術有限公司Huawei Technologies Co.,Ltd. Method and apparatus for setting background of UI control, and terminal
KR101975049B1 (en) * 2014-07-30 2019-05-03 후아웨이 테크놀러지 컴퍼니 리미티드 Method and apparatus for setting background of ui control, and terminal
JP2017184812A (en) * 2016-04-01 2017-10-12 株式会社三洋物産 Game machine
JP2021102144A (en) * 2016-04-01 2021-07-15 株式会社三洋物産 Game machine
JP2022186868A (en) * 2016-04-01 2022-12-15 株式会社三洋物産 game machine
CN111861963A (en) * 2020-07-28 2020-10-30 平安科技(深圳)有限公司 Image synthesis method and related equipment
CN111861963B (en) * 2020-07-28 2023-08-01 平安科技(深圳)有限公司 Image synthesis method and related equipment

Similar Documents

Publication Publication Date Title
US20100156918A1 (en) Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device
WO2001055969A1 (en) Game system and image creating method
JP2006318389A (en) Program, information storage medium, and image generation system
US7479961B2 (en) Program, information storage medium, and image generation system
JP2007140842A (en) Program, information storage medium, and image generation system
WO2001055970A1 (en) Game system and image creating method
JP2006318388A (en) Program, information storage medium, and image forming system
JP2006011539A (en) Program, information storage medium, and image generating system
JP2004334661A (en) Image generating system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP2004159922A (en) Image generation system, program and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP4656616B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4632855B2 (en) Program, information storage medium, and image generation system
JP4656617B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4913898B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2002032780A (en) Game system, program and information storage medium
JP2009064355A (en) Program, information storage medium, and image producing system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium
JP2010033302A (en) Image generation system, program and information storage medium
JP4680670B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100330