JP2007026326A - Program, information storing medium and image producing system - Google Patents

Program, information storing medium and image producing system Download PDF

Info

Publication number
JP2007026326A
JP2007026326A JP2005210540A JP2005210540A JP2007026326A JP 2007026326 A JP2007026326 A JP 2007026326A JP 2005210540 A JP2005210540 A JP 2005210540A JP 2005210540 A JP2005210540 A JP 2005210540A JP 2007026326 A JP2007026326 A JP 2007026326A
Authority
JP
Japan
Prior art keywords
image data
effect processing
overdrive effect
overdrive
imk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005210540A
Other languages
Japanese (ja)
Other versions
JP4229332B2 (en
Inventor
Yoshihito Iwanaga
欣仁 岩永
Takehiro Imai
剛洋 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2005210540A priority Critical patent/JP4229332B2/en
Publication of JP2007026326A publication Critical patent/JP2007026326A/en
Application granted granted Critical
Publication of JP4229332B2 publication Critical patent/JP4229332B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image producing system and program for producing an image with a less sense of afterimage. <P>SOLUTION: The image producing system comprises a drawing part for producing the image data by drawing an object, and an overdrive effect processing part for producing the image data to output to a display part by overdrive effect processing to the produced image data. The overdrive effect processing part produces the image data which is overdrive effect processed by carrying out α blending in such a manner as IMK+(IMK-IMODJ)×α based on the image data IMK produced in the Kth frame, the overdrive effect processed image data IMODJ produced in the Jth (K>J) frame, and α value α. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

近年、高画質の液晶表示装置を備える携帯型ゲーム装置が人気を集めている。この携帯型ゲーム装置では、液晶表示装置の画素数も多く、リアルで高精細な画像を表示できるため、これまでの携帯型ゲーム装置では楽しむことができなかった3D(3次元)ゲーム等もプレーヤは楽しむことができる。   In recent years, portable game devices equipped with high-quality liquid crystal display devices have gained popularity. In this portable game device, the number of pixels of the liquid crystal display device is large, and a real high-definition image can be displayed. Can enjoy.

ところで、液晶表示装置においては、液晶の応答速度が遅いことから、動きのある映像を表示した場合に残像感が出たり動画がぼやけて見えるなどの現象が発生する。このような現象を改善する従来技術として、オーバードライブ回路を備える液晶表示装置が提案されている。このオーバードライブ回路では、入力変化の最初のフレームにおいて目的電圧よりも高い電圧を印加することで、液晶のステップ入力に対する応答特性の改善を図っている。   By the way, in the liquid crystal display device, since the response speed of the liquid crystal is slow, when a moving image is displayed, a phenomenon such as an afterimage or a moving image appears blurred. As a conventional technique for improving such a phenomenon, a liquid crystal display device including an overdrive circuit has been proposed. In this overdrive circuit, the response characteristic to the step input of the liquid crystal is improved by applying a voltage higher than the target voltage in the first frame of the input change.

しかしながら、この従来技術では、画像信号の電圧に対して補償処理を行うことで、液晶の応答速度を向上させている。従って、携帯型ゲーム装置が、このような電圧レベルで補償処理を行うオーバードライブ回路を備えていない場合には、残像感の改善が難しいという問題がある。
特開平7−20828号公報
However, in this prior art, the response speed of the liquid crystal is improved by performing compensation processing on the voltage of the image signal. Therefore, if the portable game device does not include an overdrive circuit that performs compensation processing at such a voltage level, there is a problem that it is difficult to improve the afterimage feeling.
Japanese Patent Laid-Open No. 7-20828

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、残像感の少ない画像を生成できる画像生成システム、プログラム及び情報記憶媒体を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation system, a program, and an information storage medium capable of generating an image with little afterimage.

本発明は、画像を生成する画像生成システムであって、オブジェクトを描画して画像データを生成する描画部と、生成された画像データに対してオーバードライブエフェクト処理を行い、表示部に出力するための画像データを生成するオーバードライブエフェクト処理部とを含み、前記オーバードライブエフェクト処理部は、第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいて生成されたオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行うことで、前記オーバードライブエフェクト処理が行われた画像データを生成する画像生成システムに関係する。   The present invention is an image generation system for generating an image, for drawing an object to generate image data, performing overdrive effect processing on the generated image data, and outputting the result to a display unit An overdrive effect processing unit that generates image data of the image data IMK generated in the Kth frame and an overdrive generated in the Jth (K> J) frame. Based on the image data IMODJ after the drive effect process and the α value α, an image blending process of IMK + (IMK−IMODJ) × α is performed to generate image data on which the overdrive effect process has been performed. Related to the generation system.

本発明では、オブジェクトを描画することで画像データが生成される。そして、生成された画像データに対してオーバードライブエフェクト処理が行われ、表示部(表示装置)に出力するための画像データが生成される。具体的には、オブジェクトを描画することで生成される画像データ(元画像データ)に対するエフェクト処理(ポストエフェクト処理、フィルタ処理)としてオーバードライブを実現するオーバードライブエフェクト処理が行われ、オーバードライブエフェクト処理後の画像データが、表示部に出力される。このようにすれば、表示部がハードウェアのオーバードライブ回路を備えていない場合にも、オーバードライブと同様の効果を、オーバードライブエフェクト処理により実現できるようになり、残像感の少ない画像を生成できる。   In the present invention, image data is generated by drawing an object. Then, overdrive effect processing is performed on the generated image data, and image data to be output to the display unit (display device) is generated. Specifically, an overdrive effect process that realizes overdrive is performed as an effect process (post-effect process, filter process) for image data (original image data) generated by drawing an object. The subsequent image data is output to the display unit. In this way, even when the display unit does not include a hardware overdrive circuit, the same effect as overdrive can be realized by overdrive effect processing, and an image with less afterimage can be generated. .

そして本発明では、第Kのフレームで生成された画像データIMKと、第Jのフレームで生成されたオーバードライブエフェクト処理後の画像データIMODJと、αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行うことで、オーバードライブエフェクト処理後の画像データが生成される。このようにすれば、オブジェクトの描画により生成された画像データに対してαブレンディング処理を行うだけで、オーバードライブエフェクト処理後の画像データを生成できる。従って、残像感の少ない画像を少ない処理負荷で生成できるようになる。   In the present invention, based on the image data IMK generated in the Kth frame, the image data IMODJ after overdrive effect processing generated in the Jth frame, and α, IMK + (IMK−IMODJ) × By performing α blending processing of α, image data after the overdrive effect processing is generated. In this way, the image data after the overdrive effect process can be generated only by performing the α blending process on the image data generated by drawing the object. Therefore, an image with little afterimage feeling can be generated with a small processing load.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、α値が設定された画面サイズ又は分割画面サイズのプリミティブ面に、前記画像データIMKのテクスチャをマッピングし、テクスチャがマッピングされた前記プリミティブ面を、前記画像データIMODJが描画されているバッファに対してαブレンディング描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit maps the texture of the image data IMK onto a primitive surface having a screen size or a divided screen size in which an α value is set. The primitive surface to which the texture is mapped may be α blended with respect to a buffer in which the image data IMODJ is drawn.

このようにすれば、例えば1回のテクスチャマッピングでオーバードライブエフェクト処理を実現でき、処理負荷を軽減できる。また画像生成システム等が有しているテクスチャマッピング機能を有効活用してオーバードライブエフェクト処理を実現することが可能になる。   In this way, for example, overdrive effect processing can be realized by one texture mapping, and the processing load can be reduced. In addition, it is possible to realize overdrive effect processing by effectively utilizing the texture mapping function of the image generation system or the like.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、オブジェクトを描画バッファに描画して画像データIMKを生成し、生成された画像データIMKと、表示バッファに書き込まれている第Jのフレームでのオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを表示バッファに書き込むようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit generates the image data IMK by drawing the object in the drawing buffer, and generates the image data IMK and the display buffer. Based on the image data IMODJ after the overdrive effect processing in the written Jth frame and the α value α, the α blending processing of IMK + (IMK−IMODJ) × α is performed, and the overdrive effect processing is performed. The broken image data may be written into the display buffer.

このようにすれば、描画バッファと表示バッファのダブルバッファ構成でオーバードライブエフェクト処理を実現できるため、無駄な処理や処理回数が減らすことができ、処理負荷を軽減できる。   In this way, since the overdrive effect processing can be realized by the double buffer configuration of the drawing buffer and the display buffer, wasteful processing and the number of processing times can be reduced, and the processing load can be reduced.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、表示部の表示領域のうちの特定の領域の画像データに対してのみ、前記オーバードライブエフェクト処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit performs the overdrive effect processing only on the image data in a specific area of the display area of the display unit. You may do it.

このようにすれば、表示領域の全てに対してオーバードライブエフェクト処理を行わなくて済むため、処理負荷を軽減できる。   In this way, since it is not necessary to perform overdrive effect processing for the entire display area, the processing load can be reduced.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画部は、複数のオブジェクトを描画することで画像データを生成し、前記オーバードライブエフェクト処理部は、複数のオブジェクトのうちの特定のオブジェクトを内包する領域に対して、前記オーバードライブエフェクト処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit generates image data by drawing a plurality of objects, and the overdrive effect processing unit specifies the plurality of objects. The overdrive effect process may be performed on a region containing the object.

このようにすれば、特定のオブジェクトに対してオーバードライブエフェクト処理を行って、そのオブジェクトの画像の残像感を軽減できるようになる。   In this way, it is possible to reduce the afterimage feeling of an image of a specific object by performing overdrive effect processing on the specific object.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、オブジェクトの頂点座標、或いはオブジェクトに対して簡易オブジェクトが設定される場合には簡易オブジェクトの頂点座標に基づいて、前記オーバードライブエフェクト処理を行う前記領域を設定するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit is based on the vertex coordinates of the object, or the vertex coordinates of the simple object when a simple object is set for the object. Thus, the area for performing the overdrive effect process may be set.

このようにすれば、領域の設定処理を簡素化できる。   In this way, the area setting process can be simplified.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理のα値を調整するための調整画面の表示制御を行う表示制御部を含み(或いは表示制御部としてコンピュータを機能させ)、前記オーバードライブエフェクト処理部は、前記調整画面においてα値の調整が行われた場合に、調整後のα値に基づいて前記オーバードライブエフェクト処理を行うようにしてもよい。   The image generation system, program, and information storage medium according to the present invention include a display control unit that performs display control of an adjustment screen for adjusting the α value of the overdrive effect processing (or functions as a display control unit). The overdrive effect processing unit may perform the overdrive effect processing based on the adjusted α value when the α value is adjusted on the adjustment screen.

このようにすれば、様々なタイプの表示部に対応したオーバードライブエフェクト処理を実現できる。   In this way, overdrive effect processing corresponding to various types of display units can be realized.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記表示制御部は、第1の中間色に設定された調整画面の背景領域上で、第2の中間色に設定されたオブジェクトを移動させる表示制御を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the display control unit moves the object set to the second intermediate color on the background area of the adjustment screen set to the first intermediate color. Display control may be performed.

例えば背景領域やオブジェクトの色が原色であると、オブジェクトの移動により発生する残像が見えにくくなり、オーバードライブエフェクト処理のエフェクト強度の調整が難しくなる。これに対して本発明のように異なる中間色に設定された背景領域とオブジェクトを用いれば、調整画面においてオブジェクトの残像感を強調でき、調整画面の調整精度を向上できる。   For example, if the background area or the color of the object is the primary color, it is difficult to see an afterimage generated by the movement of the object, and it is difficult to adjust the effect intensity of the overdrive effect process. On the other hand, if the background region and the object set to different intermediate colors are used as in the present invention, the afterimage feeling of the object can be enhanced on the adjustment screen, and the adjustment accuracy of the adjustment screen can be improved.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面の表示制御を行う表示制御部を含み(或いは表示制御部としてコンピュータを機能させ)、前記オーバードライブエフェクト処理部は、前記モード設定画面において前記オーバードライブエフェクト処理を有効にする設定が行われた場合に、前記オーバードライブエフェクト処理を行うようにしてもよい。   The image generation system, program, and information storage medium according to the present invention include a display control unit that performs display control of a mode setting screen for setting whether to enable the overdrive effect processing (or display control). The overdrive effect processing unit may perform the overdrive effect processing when the setting for enabling the overdrive effect processing is performed on the mode setting screen. .

このようにすれば、例えばオーバードライブエフェクト処理が不要な表示部を使用した場合に、不必要なオーバードライブエフェクト処理が行われてしまう事態を防止できる。   In this way, for example, when a display unit that does not require overdrive effect processing is used, a situation in which unnecessary overdrive effect processing is performed can be prevented.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲーム装置、携帯型ゲーム装置)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game device, portable game device) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレイヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域やメインメモリとなるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, or a housing. The storage unit 170 serves as a work area or main memory such as the processing unit 100 or the communication unit 196, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、ハードディスク、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されているプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理手順をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (CD, DVD), hard disk, memory (ROM), or the like. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute the processing procedure of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD(液晶表示装置)、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD (Liquid Crystal Display), touch panel display, HMD (Head Mount Display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレイヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリーカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバ)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバ)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、表示制御部116、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a display control unit 116, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、車、戦車、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (primitive surfaces such as polygons, free-form surfaces, and subdivision surfaces) representing display objects such as characters, cars, tanks, buildings, trees, columns, walls, and maps (terrain). (Object) is set in the object space. That is, the position and rotation angle (synonymous with direction and direction) of the object (model object) in the world coordinate system are determined, and the rotation angle (X, Y, Z axis around the position (X, Y, Z)) is determined. Arrange objects at (rotation angle).

移動・動作処理部112は、オブジェクト(キャラクタ、車、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレイヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(移動オブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム毎(1/60秒)に順次求めるシミュレーション処理を行う。なおフレーム(フレームレート)は、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a character, a car, or an airplane). That is, an object (moving object) is moved in the object space or an object is moved based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. Perform processing (motion, animation). Specifically, simulation processing for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) every frame (1/60 seconds) I do. The frame (frame rate) is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114(視点制御部)は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 (viewpoint control unit) performs control processing of the virtual camera (viewpoint) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

表示制御部116は、調整画面やモード設定画面などの各種画面の表示制御を行う。具体的には表示制御部116は、オーバードライブエフェクト処理のα値(エフェクト強度)を調整するための調整画面の表示制御を行う。具体的には、第1の中間色(原色ではない色)に設定された背景領域(調整画面の領域、調整ウィンドウ)上で、第1の中間色とは異なる第2の中間色に設定されたオブジェクトを移動させる表示制御を行う。また表示制御部116は、オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面の表示制御も行う。このモード設定画面においてオーバードライブエフェクト処理を有効にする設定が行われた場合に、オーバードライブエフェクト処理が行われるようになる。なお同一画面を、調整画面とモード設定画面として共用してもよい。   The display control unit 116 performs display control of various screens such as an adjustment screen and a mode setting screen. Specifically, the display control unit 116 performs display control of an adjustment screen for adjusting the α value (effect intensity) of the overdrive effect process. Specifically, the object set to the second intermediate color different from the first intermediate color on the background area (adjustment screen area, adjustment window) set to the first intermediate color (non-primary color) is displayed. Display control to move. The display control unit 116 also performs display control of a mode setting screen for setting whether to enable overdrive effect processing. When the setting for enabling the overdrive effect processing is performed on the mode setting screen, the overdrive effect processing is performed. The same screen may be shared as the adjustment screen and the mode setting screen.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を描画バッファ172に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。そして生成された画像は表示バッファ173を介して表示部190に出力される。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and drawing data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the perspective transformation (after the geometry processing) is drawn in the drawing buffer 172. As a result, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. The generated image is output to the display unit 190 via the display buffer 173.

なお描画バッファ172、表示バッファ173は、フレームバッファ、ワークバッファなどのピクセル単位で画像情報を記憶できるバッファ(画像バッファ)であり、例えば画像生成システムのVRAM上に確保される。また本実施形態では、描画バッファ172(バックバッファ)、表示バッファ173(フロントバッファ)のダブルバッファ構成にしてもよいし、シングルバッファ構成やトリプルバッファ構成にしてもよい。或いは4個以上のバッファを用いるようにしてもよい。また、第Jのフレームでは描画バッファであったバッファを、第K(K>J)のフレームでは表示バッファに設定し、第Jのフレームでは表示バッファであったバッファを、第Kのフレームでは描画バッファに設定するようにしてもよい。   The drawing buffer 172 and the display buffer 173 are buffers (image buffers) that can store image information in units of pixels, such as a frame buffer and a work buffer, and are secured on the VRAM of the image generation system, for example. In this embodiment, the drawing buffer 172 (back buffer) and the display buffer 173 (front buffer) may be configured as a double buffer, or may be configured as a single buffer or a triple buffer. Alternatively, four or more buffers may be used. Also, the buffer that was the drawing buffer in the Jth frame is set as the display buffer in the Kth (K> J) frame, the buffer that was the display buffer in the Jth frame is drawn in the Kth frame. You may make it set to a buffer.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

描画部120は、テクスチャマッピング処理や隠面消去処理やαブレンディング処理を行うことができる。   The drawing unit 120 can perform texture mapping processing, hidden surface removal processing, and α blending processing.

ここでテクスチャマッピング処理は、テクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理である。具体的には、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部174からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。   Here, the texture mapping process is a process of mapping a texture (texel value) stored in the texture storage unit 174 to an object. Specifically, the texture (surface properties such as color and α value) is read from the texture storage unit 174 using the texture coordinates set (given) at the vertices of the object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to the object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.

また隠面消去処理は、例えば、各ピクセルのZ値(奥行き情報)が格納されているZバッファ176(奥行きバッファ)を用いるZバッファ法(奥行き比較法、Zテスト)により実現される。即ちオブジェクトのプリミティブ面の各ピクセルを描画する際に、Zバッファ176に格納されているZ値を参照する。そして参照されたZバッファ176のZ値と、プリミティブ面の描画対象ピクセルでのZ値とを比較し、プリミティブ面のZ値が、仮想カメラから見て手前側となるZ値(例えば大きなZ値)である場合には、そのピクセルの描画処理を行うと共にZバッファ176のZ値を新たなZ値に更新する。   The hidden surface removal processing is realized by, for example, a Z buffer method (depth comparison method, Z test) using a Z buffer 176 (depth buffer) in which the Z value (depth information) of each pixel is stored. That is, when drawing each pixel on the primitive surface of the object, the Z value stored in the Z buffer 176 is referred to. Then, the Z value of the referenced Z buffer 176 is compared with the Z value at the drawing target pixel of the primitive surface, and the Z value of the primitive surface is the front side when viewed from the virtual camera (for example, a large Z value). ), The pixel drawing process is performed and the Z value of the Z buffer 176 is updated to a new Z value.

またαブレンディング処理は、α値(A値)に基づいて行う処理であり、通常αブレンディング、加算αブレンディング或いは減算αブレンディングなどがある。なおα値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、半透明度(透明度、不透明度と等価)情報、マスク情報、或いはバンプ情報などとして使用できる。   The α blending process is a process performed based on the α value (A value), and includes normal α blending, addition α blending, subtraction α blending, and the like. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as translucency (equivalent to transparency and opacity) information, mask information, or bump information.

描画部120は、オーバードライブエフェクト処理部122を含む。オーバードライブエフェクト処理部122は、ソフトウェアによるオーバードライブエフェクト処理を行う。具体的には、描画部120がオブジェクトを描画バッファ172に描画して画像データ(元画像のデータ)を生成すると、オーバードライブエフェクト処理部122は、生成された画像データ(デジタルデータ)に対して、オーバードライブエフェクト処理を行い、表示部190に出力するための画像データを生成する。即ちオーバードライブエフェクト処理が行われた画像データ(デジタルデータ)を、表示部190に出力される画像データが書き込まれる表示バッファ173に書き込む。   The drawing unit 120 includes an overdrive effect processing unit 122. The overdrive effect processing unit 122 performs overdrive effect processing by software. Specifically, when the drawing unit 120 draws an object in the drawing buffer 172 and generates image data (original image data), the overdrive effect processing unit 122 applies the generated image data (digital data). Then, overdrive effect processing is performed, and image data to be output to the display unit 190 is generated. That is, the image data (digital data) on which the overdrive effect processing has been performed is written into the display buffer 173 in which the image data output to the display unit 190 is written.

更に具体的にはオーバードライブエフェクト処理部122は、第Kのフレーム(現在のフレーム)で生成された画像データIMKと、第J(K>J)のフレーム(前のフレーム、過去のフレーム)において生成されたオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行うことで、オーバードライブエフェクト処理が行われた画像データを生成する。例えばオーバードライブエフェクト処理部122は、α値が設定された画面サイズ又は分割画面サイズのプリミティブ面(スプライト、ポリゴン)に、画像データIMKのテクスチャをマッピングする。そしてテクスチャがマッピングされたプリミティブ面を、画像データIMODJが描画されているバッファ(表示バッファ)に対してαブレンディング描画する。   More specifically, the overdrive effect processing unit 122 uses the image data IMK generated in the Kth frame (current frame) and the Jth (K> J) frame (previous frame, past frame). Based on the generated image data IMODJ after the overdrive effect processing and the α value α, α blending processing of IMK + (IMK−IMODJ) × α is performed, so that the image data subjected to the overdrive effect processing is processed. Generate. For example, the overdrive effect processing unit 122 maps the texture of the image data IMK onto a primitive surface (sprite, polygon) having a screen size or a divided screen size for which an α value is set. The primitive surface to which the texture is mapped is subjected to α blending drawing with respect to a buffer (display buffer) in which the image data IMODJ is drawn.

またオーバードライブエフェクト処理部122は、オブジェクトを描画バッファ172に描画して画像データIMKを生成する。そして生成された画像データIMKと、表示バッファ173に書き込まれている第Jのフレームでのオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行う。そしてオーバードライブエフェクト処理が行われた画像データを表示バッファ173に書き込む。   The overdrive effect processing unit 122 draws the object in the drawing buffer 172 and generates image data IMK. Then, based on the generated image data IMK, the image data IMODJ after overdrive effect processing in the Jth frame written in the display buffer 173, and the α value α, IMK + (IMK−IMODJ) × α Α blending processing is performed. Then, the image data that has been subjected to the overdrive effect process is written into the display buffer 173.

なお描画バッファ172に生成される元画像のデータは、例えば、Z値を格納するZバッファ176を用いて隠面消去を行いながらオブジェクト(プリミティブ面)を描画バッファ172に描画することで生成されるものである。   The original image data generated in the drawing buffer 172 is generated by, for example, drawing an object (primitive surface) in the drawing buffer 172 while performing hidden surface removal using the Z buffer 176 that stores the Z value. Is.

なお、本実施形態の画像生成システムは、1人のプレイヤのみがプレイできるシングルプレイヤモード専用のシステムにしてもよいし、複数のプレイヤがプレイできるマルチプレイヤモードも備えるシステムにしてもよい。また複数のプレイヤがプレイする場合に、これらの複数のプレイヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 オーバードライブエフェクト処理の原理
本実施形態のオーバードライブエフェクト処理の原理について説明する。図2(A)(B)において、あるピクセルに着目した場合に、前の第Jのフレームでの画像データ(デジタル画像データ値)がIMJであり、現在の第Kのフレームでの画像データがIMKであったとする。この場合に、表示部190の応答速度が十分に速ければ、第Kのフレームにおいて、正しい画像データ(色データ)IMKを表示バッファ(表示バッファに設定されるバッファ)に書き込むことで、表示部190における対応するピクセルの輝度は、IMKにより設定されるべき輝度になる。
2. 2. Method of this Embodiment 2.1 Principle of Overdrive Effect Processing The principle of overdrive effect processing according to this embodiment will be described. 2A and 2B, when attention is paid to a certain pixel, the image data (digital image data value) in the previous J-th frame is IMJ, and the image data in the current K-th frame is Suppose that it was IMK. In this case, if the response speed of the display unit 190 is sufficiently high, the correct image data (color data) IMK is written in the display buffer (buffer set in the display buffer) in the K-th frame, thereby displaying the display unit 190. The brightness of the corresponding pixel in is the brightness to be set by IMK.

ところが、表示部190が液晶表示装置等である場合には、液晶の応答速度が遅いため、正しい画像データIMKを書き込んでも、表示部190における対応するピクセルの輝度が、IMKにより設定されるべき輝度にならない場合がある。例えば図2(A)の場合ではIMKにより設定されるべき輝度よりも暗くなり、図2(B)の場合ではIMKにより設定されるべき輝度よりも明るくなってしまう。この結果、残像感が出たり動画がぼやけて見える問題が生じる。   However, when the display unit 190 is a liquid crystal display device or the like, the response speed of the liquid crystal is slow. Therefore, even if correct image data IMK is written, the luminance of the corresponding pixel in the display unit 190 should be set by the IMK. It may not be. For example, in the case of FIG. 2A, the brightness is darker than the brightness to be set by IMK, and in the case of FIG. 2B, the brightness is brighter than the brightness to be set by IMK. As a result, there arises a problem that a feeling of afterimage appears or the moving image looks blurred.

この場合、表示部190がハードウェアのオーバードライブ回路を備えていれば、このような残像感の問題を防止できる。しかしながら、携帯型ゲーム装置の液晶表示装置の多くは、このようなオーバードライブ回路を備えていない。また家庭用ゲーム装置では、ゲーム装置本体に対して様々なタイプの表示部(表示装置)が接続される可能性がある。例えばブラウン管テレビが接続されたり、液晶テレビが接続される。またオーバードライブ回路を内蔵する液晶テレビが接続されたり、内蔵しない液晶テレビが接続される。   In this case, if the display unit 190 includes a hardware overdrive circuit, such a problem of afterimage can be prevented. However, many liquid crystal display devices of portable game devices do not include such an overdrive circuit. In a home game machine, various types of display units (display devices) may be connected to the game machine body. For example, a cathode ray tube television or a liquid crystal television is connected. In addition, a liquid crystal television with a built-in overdrive circuit is connected, or a liquid crystal television without a built-in circuit is connected.

そして表示部190が、ハードウェアのオーバードライブ回路を備えていないと、残像感が目立ってしまい、生成されるゲーム画像の画質が劣化する。特に複数のオブジェクト(表示物)が高速に画面上で移動するゲーム画像では、オブジェクトの輪郭がぼやけてしまい、プレーヤのゲームプレイに支障を与える可能性がある。   If the display unit 190 does not include a hardware overdrive circuit, the afterimage is noticeable and the quality of the generated game image deteriorates. In particular, in a game image in which a plurality of objects (display objects) move on the screen at high speed, the outline of the object is blurred, which may hinder the game play of the player.

そこで本実施形態では、ソフトウェアによるオーバードライブエフェクト処理を行うことで、このような問題を解決している。即ち通常ならば、オブジェクトを描画することで生成された画像データ(元画像データ)は、そのまま表示部190に出力される。これに対して本実施形態では、オブジェクトの描画により生成された画像データに対して、ポストフィルタ処理としてのソフトウェアによるオーバードライブエフェクト処理を行う。具体的には図2(A)では、差分画像データIMK−IMJが正の値であるため、オーバードライブエフェクト処理後の画像データIMODKをIMKよりも大きな値に設定し、正方向へのオーバードライブエフェクト処理を行う。また図2(B)では差分画像データIMK−IMJが負の値であるため、オーバードライブエフェクト処理後の画像データIMODKをIMKよりも小さな値に設定し、負方向へのオーバードライブエフェクト処理を行う。そしてオーバードライブエフェクト処理後の画像データを表示バッファに書き込み、表示部190に出力する。   Therefore, in this embodiment, such a problem is solved by performing overdrive effect processing by software. That is, normally, image data (original image data) generated by drawing an object is output to the display unit 190 as it is. On the other hand, in this embodiment, overdrive effect processing by software as post-filter processing is performed on image data generated by drawing an object. Specifically, in FIG. 2A, since the difference image data IMK-IMJ is a positive value, the image data IMODK after the overdrive effect processing is set to a value larger than IMK, and the overdrive in the positive direction is performed. Perform effect processing. In FIG. 2B, since the difference image data IMK-IMJ has a negative value, the image data IMODK after the overdrive effect processing is set to a value smaller than IMK, and the overdrive effect processing in the negative direction is performed. . Then, the image data after the overdrive effect processing is written into the display buffer and output to the display unit 190.

このようにすれば、表示部190がハードウェアのオーバードライブ回路を備えていなくても、液晶等の応答速度を向上でき、残像感を低減できる。   In this way, even if the display unit 190 does not include a hardware overdrive circuit, the response speed of the liquid crystal or the like can be improved and the afterimage can be reduced.

なお本実施形態のオーバードライブエフェクト処理とは異なる処理として、フリッカーフリー等のために用いられるぼかし処理(ブラー処理)がある。このぼかし処理では図2(C)に示すように、第J、第Kのフレームでの画像データIMJ、IMKをブレンドして、IMJとIMKの中間の画像データIMBKを生成する。   Note that there is a blurring process (blurring process) used for flicker free or the like as a process different from the overdrive effect process of the present embodiment. In this blurring process, as shown in FIG. 2C, image data IMJ and IMK in the Jth and Kth frames are blended to generate intermediate image data IMBK between IMJ and IMK.

これに対してオーバードライブエフェクト処理では図2(C)に示すように、IMKを越えたIMODK=IMK+(IMK−IMJ)×K1の画像データを生成する。即ち、現在のフレームの画像データIMKと前のフレームの画像データIMJの差分画像データIMK−IMJを求め、差分画像データIMK−IMJにエフェクト強度係数K1(α値)を乗算したものを、現在のフレームの画像データIMKに加算する処理を行って、IMODKを生成する。このようにすれば、IMKを越えたIMODKが目標値として設定されるため、液晶の反応速度が遅い場合でも、表示部190における対応する画素の輝度を、IMKに応じた輝度に設定できるようになる。   On the other hand, in the overdrive effect process, as shown in FIG. 2C, image data of IMODK = IMK + (IMK−IMJ) × K1 exceeding the IMK is generated. That is, the difference image data IMK-IMJ between the image data IMK of the current frame and the image data IMJ of the previous frame is obtained, and the difference image data IMK-IMJ multiplied by the effect intensity coefficient K1 (α value) A process of adding to the frame image data IMK is performed to generate IMODK. In this way, since IMODK exceeding IMK is set as the target value, the luminance of the corresponding pixel in the display unit 190 can be set to luminance according to IMK even when the reaction speed of the liquid crystal is slow. Become.

2.2 オーバードライブエフェクト処理の詳細
次に本実施形態のオーバードライブエフェクト処理の詳細について図3、図4の動作フロー図を用いて説明する。例えばオブジェクトOBが図5(A)(B)、図6(A)に示すように移動したとする。なお図5(A)(B)、図6(A)は、各々、第1のフレーム(広義には第Jのフレーム)、第2のフレーム(広義には第Kのフレーム)、第3のフレーム(広義には第Lのフレーム)での画像である。
2.2 Details of Overdrive Effect Processing Next, details of the overdrive effect processing of the present embodiment will be described with reference to operation flowcharts of FIGS. For example, it is assumed that the object OB has moved as shown in FIGS. 5 (A), 5 (B), and 6 (A). 5A, 6B, and 6A are respectively a first frame (Jth frame in a broad sense), a second frame (Kth frame in a broad sense), and a third frame. It is an image in a frame (Lth frame in a broad sense).

ここで画像データ(色データ、輝度)の最大値を「100」とし、最小値を「0」とした場合に、オブジェクトOBの画像データの値は中間色である「70」になっており、背景領域の画像データの値は中間色である「50」になっている。そして、このオブジェクトOBを高速に移動させて、液晶表示装置の表示部190に表示すると、図6(B)に示すような残像が発生してしまう。即ちオブジェクトOBが移動すると、図6(B)のA1に示す部分の輝度は、背景領域の画像データである「50」に対応する輝度になるはずであるが、液晶の応答速度が遅いため、「50」に対応する輝度よりも大きな輝度になってしまう。この結果、A1に示す部分に残像が発生する。A2に示す部分についても同様である。   Here, when the maximum value of the image data (color data, luminance) is “100” and the minimum value is “0”, the value of the image data of the object OB is “70”, which is an intermediate color, and the background. The value of the image data in the area is “50” which is an intermediate color. When the object OB is moved at a high speed and displayed on the display unit 190 of the liquid crystal display device, an afterimage as shown in FIG. 6B is generated. That is, when the object OB moves, the luminance of the portion indicated by A1 in FIG. 6B should be the luminance corresponding to “50” that is the image data of the background area, but the response speed of the liquid crystal is slow. The luminance is larger than the luminance corresponding to “50”. As a result, an afterimage is generated in the portion indicated by A1. The same applies to the portion indicated by A2.

このような残像の発生を防止するために、本実施形態では、図3に示すオーバードライブエフェクト処理を行っている。   In order to prevent the occurrence of such an afterimage, in this embodiment, the overdrive effect process shown in FIG. 3 is performed.

例えば第2のフレームでは、現在のフレームである第2のフレーム(第Kのフレーム)の画像データIM2から、前(過去)のフレームである第1のフレーム(第Jのフレーム)の画像データIM1を減算する差分処理を行う(ステップS1)。このようにすれば、例えば図5(A)(B)のようにオブジェクトOBが移動した場合に、図7(A)のような差分画像データ(差分マスク、差分プレーン)IM2−IM1が生成される。   For example, in the second frame, from the image data IM2 of the second frame (Kth frame) that is the current frame, the image data IM1 of the first frame (Jth frame) that is the previous (past) frame. Difference processing for subtracting is performed (step S1). In this way, for example, when the object OB moves as shown in FIGS. 5A and 5B, difference image data (difference mask, difference plane) IM2-IM1 as shown in FIG. 7A is generated. The

即ち図7(A)のB1に示す部分では、画像データがIM1=70からIM2=50に変化しているため、差分画像データはIM2−IM1=50−70=−20になる。またB2に示す部分では、IM1=70、IM2=70というように画像データが変化していないため、IM2−IM1=0になる。またB3に示す部分では、画像データがIM1=50からIM2=70に変化しているため、IM2−IM1=70−50=20になる。   That is, in the portion indicated by B1 in FIG. 7A, since the image data has changed from IM1 = 70 to IM2 = 50, the difference image data is IM2-IM1 = 50-70 = -20. In the portion indicated by B2, since the image data has not changed such as IM1 = 70 and IM2 = 70, IM2−IM1 = 0. In the portion indicated by B3, since the image data has changed from IM1 = 50 to IM2 = 70, IM2-IM1 = 70-50 = 20.

次に、差分画像データIM2−IM1にオーバードライブ用のエフェクト強度係数K1(α値)を乗算する処理を行い、(IM2−IM1)×K1を生成する(ステップS2)。   Next, a process of multiplying the difference image data IM2-IM1 by an overdrive effect intensity coefficient K1 (α value) is performed to generate (IM2-IM1) × K1 (step S2).

例えば図7(B)では、エフェクト強度係数がK1=0.5であり、このエフェクト強度係数K1が図7(A)の差分画像データに乗算されるため、C1、C2、C3に示す部分での画像データは、各々、「−10」、「0」、「10」になる。   For example, in FIG. 7B, the effect intensity coefficient is K1 = 0.5, and this effect intensity coefficient K1 is multiplied by the difference image data in FIG. 7A, so that the portions indicated by C1, C2, and C3 are shown. The image data is “−10”, “0”, and “10”, respectively.

次に、(IM2−IM1)×K1を、現在のフレームである第2のフレームの画像データIM2に対して加算する処理を行い、IM2+(IM2−IM1)×K1を生成する(ステップS3)。そして生成されたオーバードライブエフェクト処理後の画像データIMOD2=IM2+(IM2−IM1)×K1を表示部190に出力する。   Next, a process of adding (IM2−IM1) × K1 to the image data IM2 of the second frame that is the current frame is performed to generate IM2 + (IM2−IM1) × K1 (step S3). Then, the generated image data IMOD2 = IM2 + (IM2-IM1) × K1 after the overdrive effect processing is output to the display unit 190.

例えば図8(A)のD1に示す部分では、背景領域の画像データIM2=50に対して、図7(B)のC1に示す部分の画像データ(IM2−IM1)×K1=−10が加算されるため、オーバードライブエフェクト処理後の画像データはIMOD2=40になる。また図8(A)のD2に示す部分では、オブジェクトOBの画像データIM2=70に対して、図7(B)のC2に示す部分の画像データ(IM2−IM1)×K1=0が加算されるため、オーバードライブエフェクト処理後の画像データはIMOD2=70になる。また図8(A)のD3に示す部分では、オブジェクトOBの画像データIM2=70に対して、図7(B)のC3に示す部分の画像データ(IM2−IM1)×K1=10が加算されるため、オーバードライブエフェクト処理後の画像データはIMOD2=80になる。図8(A)に示すようなオーバードライブエフェクト処理後の画像データを表示部190に出力することで、残像感を低減できる。   For example, in the portion indicated by D1 in FIG. 8A, the image data (IM2-IM1) × K1 = −10 of the portion indicated by C1 in FIG. 7B is added to the image data IM2 = 50 in the background region. Therefore, the image data after the overdrive effect processing is IMOD2 = 40. Further, in the portion indicated by D2 in FIG. 8A, the image data (IM2-IM1) × K1 = 0 of the portion indicated by C2 in FIG. 7B is added to the image data IM2 = 70 of the object OB. Therefore, the image data after the overdrive effect processing is IMOD2 = 70. Further, in the portion indicated by D3 in FIG. 8A, the image data (IM2-IM1) × K1 = 10 of the portion indicated by C3 in FIG. 7B is added to the image data IM2 = 70 of the object OB. Therefore, the image data after the overdrive effect processing is IMOD2 = 80. By outputting the image data after the overdrive effect processing as shown in FIG. 8A to the display unit 190, the afterimage feeling can be reduced.

例えば図6(B)のA1に示す部分では、表示部190に出力される画像データは、背景領域の画像データである「50」になっているが、液晶の応答速度が遅いため、残像が発生している。これに対して本実施形態では、図8(B)のD1に示す部分において、背景領域の画像データ「50」よりも小さな画像データ「40」が表示部190に出力される。従って、D1の部分では図2(B)に示す負方向へのオーバードライブエフェクト処理が行われ、図6(B)のA1に示すような残像の発生を軽減できる。   For example, in the part indicated by A1 in FIG. 6B, the image data output to the display unit 190 is “50”, which is the image data of the background area, but the afterimage is generated because the response speed of the liquid crystal is slow. It has occurred. On the other hand, in the present embodiment, image data “40” smaller than the image data “50” of the background area is output to the display unit 190 in the portion indicated by D1 in FIG. Accordingly, in the portion D1, the overdrive effect processing in the negative direction shown in FIG. 2B is performed, and the occurrence of an afterimage as shown in A1 in FIG. 6B can be reduced.

次の第3のフレームでは、第3のフレーム(第Lのフレーム)の画像データIM3から、第2のフレーム(第Kのフレーム)の画像データIM2を減算する差分処理を行う(ステップS4)。そして、得られた差分画像データIM3−IM2にオーバードライブ用のエフェクト強度係数K1を乗算する処理を行う(ステップS5)。   In the next third frame, a difference process is performed to subtract the image data IM2 of the second frame (Kth frame) from the image data IM3 of the third frame (Lth frame) (step S4). Then, a process of multiplying the obtained difference image data IM3-IM2 by an overdrive effect intensity coefficient K1 is performed (step S5).

次に、生成された(IM3−IM2)×K1を、第3のフレームの画像データIM3に対して加算する処理を行う(ステップS6)。そして生成されたオーバードライブエフェクト処理後の画像データIMOD3=IM3+(IM3−IM2)×K1を表示部190に出力する。   Next, a process of adding the generated (IM3-IM2) × K1 to the image data IM3 of the third frame is performed (step S6). Then, the generated image data IMOD3 = IM3 + (IM3−IM2) × K1 after the overdrive effect processing is output to the display unit 190.

ところで、液晶の応答速度が極めて遅い場合には、1フレーム分の差分画像データに基づくオーバードライブエフェクト処理では、残像の軽減に不十分な場合がある。   By the way, when the response speed of the liquid crystal is extremely slow, the overdrive effect processing based on the difference image data for one frame may be insufficient for reducing the afterimage.

そこで図4の動作フローでは、過去のフレームでの差分画像データに基づき得られる差分和らげ処理用の画像データを保存しておき、現在のフレームでの差分画像データと、保存しておいた差分和らげ処理用の画像データとに基づいて、オーバードライブエフェクト処理を行っている。   Therefore, in the operation flow of FIG. 4, the image data for difference reduction processing obtained based on the difference image data in the past frame is saved, and the difference image data in the current frame and the saved difference reduction data are saved. Overdrive effect processing is performed based on the image data for processing.

例えば図4に示すように、第2のフレームでは、差分処理(ステップS11)、乗算処理(ステップS12)を行って、(IM2−IM1)×K1を生成する。そして、この(IM2−IM1)×K1に対して、差分和らげ処理用のエフェクト強度係数を乗算して、差分和らげ処理用の画像データ(IM2−IM1)×K2を生成する(ステップS13)。ここでK1>K2となっている。そして生成された差分和らげ処理用の画像データ(IM2−IM1)×K2は保存される。   For example, as shown in FIG. 4, in the second frame, difference processing (step S11) and multiplication processing (step S12) are performed to generate (IM2-IM1) × K1. Then, this (IM2−IM1) × K1 is multiplied by the effect intensity coefficient for difference reduction processing to generate image data (IM2−IM1) × K2 for difference reduction processing (step S13). Here, K1> K2. Then, the generated image data (IM2-IM1) × K2 for difference easing processing is stored.

例えば図8(B)では、図7(B)のC1、C2、C3に示す画像データ「−10]、「0」、「10」に対して、差分和らげ処理用のエフェクト強度係数が乗算されて、E1、E2、E3に示すような差分和らげ処理用の画像データ「−2」、「0」、「2」が生成されている。なお図7(A)の差分画像データから差分和らげ処理用の画像データを生成するようにしてもよい。   For example, in FIG. 8B, the image data “−10”, “0”, and “10” shown in C1, C2, and C3 in FIG. 7B are multiplied by the effect intensity coefficient for difference reduction processing. Thus, image data “−2”, “0”, and “2” for difference smoothing processing as indicated by E1, E2, and E3 are generated. It should be noted that image data for difference easing processing may be generated from the difference image data in FIG.

次の第3のフレームでは、差分処理を行って、図9(A)に示すような差分画像データを生成する(ステップS15)。そしてオーバードライブ用のエフェクト強度係数の乗算処理を行って、図9(B)に示すような画像データ(IM3−IM2)×K1を生成する(ステップS16)。   In the next third frame, difference processing is performed to generate difference image data as shown in FIG. 9A (step S15). Then, the overdrive effect intensity coefficient is multiplied to generate image data (IM3-IM2) × K1 as shown in FIG. 9B (step S16).

次に、生成された画像データ(IM3−IM2)×K1に対して、保存しておいた差分和らげ処理用の画像データ(IM2−IM1)×K2を加算(或いは減算)する処理を行い、(IM3−IM2)×K1+(IM2−IM1)×K2を生成する(ステップS17)。即ち図9(B)の画像データに、図8(B)の差分和らげ処理用の画像データを加算(或いは減算)する。これにより図10(A)に示すような画像データ(マスク)が生成される。即ちF1に示す部分では0−2=−2になり、F2に示す部分では−10+0=−10になり、F3に示す部分では−10+2=−8になる。またF4に示す部分では、0+2=2になり、F5に示す部分では10+0=10になる。   Next, a process of adding (or subtracting) the stored image data (IM2-IM1) × K2 for difference reduction processing to the generated image data (IM3-IM2) × K1, IM3-IM2) * K1 + (IM2-IM1) * K2 is generated (step S17). That is, the image data for difference smoothing processing in FIG. 8B is added (or subtracted) to the image data in FIG. 9B. As a result, image data (mask) as shown in FIG. 10A is generated. That is, 0-2 = -2 in the portion indicated by F1, -10 + 0 = -10 in the portion indicated by F2, and -10 + 2 = -8 in the portion indicated by F3. In the portion indicated by F4, 0 + 2 = 2, and in the portion indicated by F5, 10 + 0 = 10.

次に、生成された(IM3−IM2)×K1+(IM2−IM1)×K2を、第3のフレームの画像データIM3に対して加算する処理を行う(ステップS18)。そして生成されたオーバードライブエフェクト処理後の画像データIMOD3=IM3+(IM3−IM2)×K1+(IM2−IM1)×K2を表示部190に出力する。即ち図10(B)に示すようなオーバードライブエフェクト処理後の画像データIMOD3を出力する。また(IM3−IM2)×K1+(IM2−IM1)×K2に対して差分和らげ処理用のエフェクト強度係数を乗算する処理を行う(ステップS19)。   Next, the generated (IM3−IM2) × K1 + (IM2−IM1) × K2 is added to the image data IM3 of the third frame (step S18). Then, the generated image data IMOD3 = IM3 + (IM3−IM2) × K1 + (IM2−IM1) × K2 after the overdrive effect processing is output to the display unit 190. That is, the image data IMOD3 after the overdrive effect processing as shown in FIG. Further, a process of multiplying (IM3−IM2) × K1 + (IM2−IM1) × K2 by an effect intensity coefficient for difference reduction processing is performed (step S19).

図4に示すような差分和らげ処理を行えば、過去の差分画像データの効果が和らげて適用されるオーバードライブエフェクト処理を実現できる。即ち、液晶の応答速度が極めて遅い場合に、この差分和らげ処理を行わないと、図10(B)のG1に示す部分に残像が残る可能性がある。これに対して、差分和らげ処理を行えばG1等に示す部分でのオーバードライブエフェクト処理も実現できる。例えばG1に示す部分では、負方向に「−2」のオーバードライブエフェクト処理が行われて、残像の発生が低減される。   If the difference reduction process as shown in FIG. 4 is performed, an overdrive effect process to which the effect of the past difference image data is applied can be realized. In other words, when the response speed of the liquid crystal is extremely slow, an afterimage may remain in a portion indicated by G1 in FIG. On the other hand, if the difference easing process is performed, an overdrive effect process at a portion indicated by G1 or the like can be realized. For example, in the portion indicated by G1, overdrive effect processing of “−2” is performed in the negative direction, and the occurrence of afterimages is reduced.

なお図4では、差分和らげ処理用の画像データとして(IM2−IM1)×K2を保存しているが、本実施形態はこれに限定されない。即ち、保存する差分和らげ処理用の画像データは、差分画像データIM2−IM1に基づき得られる画像データであればよく、例えば差分画像データIM2−IM1そのものを保存したり、差分画像データにオーバードライブ用のエフェクト強度係数を乗算した(IM2−IM1)×K1を保存してもよい。   In FIG. 4, (IM2−IM1) × K2 is stored as the image data for difference smoothing processing, but the present embodiment is not limited to this. In other words, the image data for difference softening processing to be stored may be image data obtained based on the difference image data IM2-IM1, for example, the difference image data IM2-IM1 itself is stored, or the difference image data is used for overdrive. (IM2−IM1) × K1 obtained by multiplying the effect intensity coefficients may be stored.

また本実施形態のオーバードライブエフェクト処理は、画像プレーン単位で行ってもよいし、ピクセル単位で行ってもよい。例えば図11にピクセル単位で行う場合のオーバードライブエフェクト処理の例を示す。   Further, the overdrive effect processing of the present embodiment may be performed in units of image planes or in units of pixels. For example, FIG. 11 shows an example of overdrive effect processing in the case where the processing is performed in pixel units.

まず、処理対象となるピクセルの現在のフレームでの画像データと前のフレームでの画像データとの差分値を求める(ステップS21)。そして差分値が0か否かを判断し(ステップS22)、差分値が0である場合には、現在のフレームでの画像データを、表示バッファの対応するピクセルに書き込む(ステップS23)。一方、差分値が0ではない場合には、差分値に基づいてオーバードライブエフェクト処理を行い、オーバードライブエフェクト処理後の画像データを求める(ステップS24)。そしてオーバードライブエフェクト処理後の画像データを、表示バッファの対応するピクセルに書き込む(ステップS25)。次に、全てのピクセルについての処理が完了したか否かを判断し(ステップS26)、完了していない場合にはステップS21に戻り次のピクセルの処理に移行する。一方、完了した場合には処理を終了する。   First, a difference value between the image data in the current frame of the pixel to be processed and the image data in the previous frame is obtained (step S21). Then, it is determined whether or not the difference value is 0 (step S22). If the difference value is 0, the image data in the current frame is written in the corresponding pixel of the display buffer (step S23). On the other hand, if the difference value is not 0, overdrive effect processing is performed based on the difference value, and image data after the overdrive effect processing is obtained (step S24). Then, the image data after the overdrive effect processing is written into the corresponding pixel of the display buffer (step S25). Next, it is determined whether or not the processing has been completed for all the pixels (step S26). If not, the processing returns to step S21 and proceeds to the processing for the next pixel. On the other hand, if it is completed, the process is terminated.

また図3、図4ではエフェクト強度係数が一定値であるとして説明したが、本実施形態はこれに限定されず、エフェクト強度係数を可変値にしてもよい。例えば、差分画像データの値(絶対値)が大きくなるほど大きくなるエフェクト強度係数(α値)に基づいて、オーバードライブエフェクト処理を行ってもよい。   3 and 4, the effect intensity coefficient is described as being a constant value. However, the present embodiment is not limited to this, and the effect intensity coefficient may be a variable value. For example, overdrive effect processing may be performed based on an effect intensity coefficient (α value) that increases as the value (absolute value) of difference image data increases.

具体的には図12に示すような差分画像データ値とエフェクト強度係数(α値)を関連づけるテーブルを用意する。そして求められた差分画像データ値に基づいて図12のテーブルからエフェクト強度係数を参照する。そして図3のステップS2、S5や図4のステップS12、S16等では、参照されたエフェクト強度係数を差分画像データに乗算する。このようにすれば、例えば差分画像データ値が大きくなればなるほど、オーバードライブエフェクト処理の効果が大きくなる。従って液晶の応答速度が遅い場合にも、残像等の発生を最小限に抑えることが可能になる。   Specifically, a table associating the difference image data value with the effect intensity coefficient (α value) as shown in FIG. 12 is prepared. Based on the obtained difference image data value, the effect intensity coefficient is referred to from the table of FIG. Then, in steps S2 and S5 in FIG. 3, steps S12 and S16 in FIG. 4, etc., the referenced effect intensity coefficient is multiplied by the difference image data. In this way, for example, as the difference image data value increases, the effect of the overdrive effect processing increases. Therefore, even when the response speed of the liquid crystal is slow, it is possible to minimize the occurrence of afterimages.

2.3 オーバードライブエフェクト処理の実現手法
次にオーバードライブエフェクト処理の実現手法について説明する。この実現手法ではαブレンディング処理を行ってオーバードライブエフェクト処理を実現している。即ちエフェクト強度係数としてα値を用いる。更に具体的には、第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいて生成されたオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行う。
2.3 Method for Realizing Overdrive Effect Processing Next, a method for realizing overdrive effect processing will be described. In this implementation method, α blending processing is performed to realize overdrive effect processing. That is, the α value is used as the effect intensity coefficient. More specifically, based on the image data IMK generated in the Kth frame, the image data IMODJ after overdrive effect processing generated in the Jth (K> J) frame, and the α value α. , IMK + (IMK−IMODJ) × α is blended.

例えば図13において、第1のフレーム(第Jのフレーム)では、オーバードライブエフェクト処理後の画像データIMOD1が表示バッファに書き込まれている。そして次の第2のフレーム(第Kのフレーム)では、オブジェクトを描画バッファに描画することで第2のフレームでの画像データIM2を生成する。そして画像データIM2と、第1のフレームで生成されたオーバードライブエフェクト処理後の画像データIMOD1と、α値αとに基づいて、αブレンディング処理を行うことで、オーバードライブエフェクト処理後の画像データIMOD2=IM2+(IM2−IMOD1)×αの画像データを生成する。そして生成された画像データIMOD2を表示部に出力する。   For example, in FIG. 13, in the first frame (Jth frame), the image data IMOD1 after the overdrive effect processing is written in the display buffer. In the next second frame (Kth frame), the image data IM2 in the second frame is generated by drawing the object in the drawing buffer. Then, the α blending process is performed based on the image data IM2, the image data IMOD1 after the overdrive effect process generated in the first frame, and the α value α, thereby the image data IMOD2 after the overdrive effect process. = IM2 + (IM2-IMOD1) × α image data is generated. Then, the generated image data IMOD2 is output to the display unit.

次の第3のフレーム(第Lのフレーム)では、オブジェクトを描画バッファに描画することで第3のフレームでの画像データIM3を生成する。そして画像データIM3と、第2のフレームで生成されたオーバードライブエフェクト処理後の画像データIMOD2と、α値αとに基づいて、αブレンディング処理を行うことで、オーバードライブエフェクト処理後の画像データIMOD3=IM3+(IM3−IMOD2)×αの画像データを生成する。そして生成された画像データIMOD3を表示部に出力する。   In the next third frame (Lth frame), the image data IM3 in the third frame is generated by drawing the object in the drawing buffer. Then, the α blending process is performed based on the image data IM3, the image data IMOD2 after the overdrive effect process generated in the second frame, and the α value α, so that the image data IMOD3 after the overdrive effect process is performed. = IM3 + (IM3-IMOD2) × α image data is generated. Then, the generated image data IMOD3 is output to the display unit.

この実現手法によれば、元画像データに対してαブレンディング処理を行うだけで、オーバードライブエフェクト処理が行われた画像データを生成できる。従って、処理負荷が軽いという利点がある。   According to this realization method, the image data subjected to the overdrive effect process can be generated only by performing the α blending process on the original image data. Therefore, there is an advantage that the processing load is light.

即ち図14に示すように、頂点等にα値が設定された画面サイズ又は分割画面サイズのプリミティブ面PL(スプライト、ポリゴン)に、画像データIM2(IMK)のテクスチャをマッピングする。そして、テクスチャがマッピングされたプリミティブ面PLを、画像データIMOD1(IMODJ)が描画されているバッファ(例えば表示バッファ)に対してαブレンディング描画することで、オーバードライブエフェクト処理が行われた画像データIMOD2=IM2+(IM2−IMOD1)×αを生成する。このようにすれば、例えば1回のテクスチャマッピングでオーバードライブエフェクト処理を実現でき、処理負荷を軽減できる。また、通常、この種の画像生成システムはテクスチャマッピング機能を有している。従って、本実施形態の実現手法によれば、表示部がハードウェアのオーバードライブ回路を有していなくても、このテクスチャマッピング機能を有効利用してオーバードライブエフェクト処理を実現できるという利点がある。   That is, as shown in FIG. 14, the texture of the image data IM2 (IMK) is mapped to a primitive surface PL (sprite, polygon) having a screen size or a divided screen size in which an α value is set at a vertex or the like. Then, the image data IMOD2 on which the overdrive effect processing has been performed is performed by subjecting the primitive surface PL to which the texture is mapped to α blending to a buffer (for example, a display buffer) in which the image data IMOD1 (IMODJ) is drawn. = IM2 + (IM2-IMOD1) × α is generated. In this way, for example, overdrive effect processing can be realized by one texture mapping, and the processing load can be reduced. In general, this type of image generation system has a texture mapping function. Therefore, according to the realization method of the present embodiment, there is an advantage that even if the display unit does not have a hardware overdrive circuit, overdrive effect processing can be realized by effectively using this texture mapping function.

なお本実施形態の実現手法では図13に示すようにダブルバッファを利用してオーバードライブエフェクト処理を実現している。即ち各フレームにおいて、描画バッファにオブジェクトを描画することで画像データを生成し、生成された画像データと、表示バッファに既に書き込まれている前のフレームでのオーバードライブエフェクト処理後の画像データとのαブレンディング処理を行う。このようにすれば、メモリにおけるバッファの使用記憶容量をトリプルバッファを利用する場合に比べて小さくできるため、メモリの節約が可能になる。   In the implementation method of the present embodiment, as shown in FIG. 13, the overdrive effect process is realized using a double buffer. That is, in each frame, image data is generated by drawing an object in the drawing buffer, and the generated image data and the image data after the overdrive effect processing in the previous frame already written in the display buffer are performed. Perform α blending. In this way, the memory capacity of the buffer in the memory can be reduced as compared with the case where the triple buffer is used, so that the memory can be saved.

また本実施形態の実現手法は、画像生成システムへの実装も容易であるという利点がある。例えばαブレンディング処理は、半透明処理やぼかし(ブラー)処理のために用意されている。即ち図2(C)において、画像データIMKとIMJの中間の画像データIMBKを求めるために用意される。そして、画像生成システムにおいて許容されるαブレンディングの式が、通常αブレンディングの式であるCS×(1−A)+CD×Aであったとする。この場合に図13の実現手法では、A=−αに設定する。またソース色CSとしてIM2を設定し、ディスティネーション色CDとしてIM1を設定する。   In addition, the realization method of the present embodiment has an advantage that it can be easily mounted on an image generation system. For example, the α blending process is prepared for a translucent process or a blur process. That is, in FIG. 2C, it is prepared for obtaining image data IMBK intermediate between the image data IMK and IMJ. Then, it is assumed that the α blending equation allowed in the image generation system is CS × (1−A) + CD × A, which is a normal α blending equation. In this case, in the realization method of FIG. 13, A = −α is set. Also, IM2 is set as the source color CS, and IM1 is set as the destination color CD.

このようにしてαブレンディング処理を行えば、
CS×(1−A)+CD×A=CS×(1+α)−CD×α
=CS+(CS−CD)×α
=IM2+(IM2−IM1)×α
となるため、オーバードライブエフェクト処理を実現できる。即ち画像生成システムのαブレンディングの式として、CS×(1−A)+CD×Aで表される通常αブレンディングの式を用いて、A=−αに設定するだけで、オーバードライブエフェクト処理を実現できる。
If α blending is performed in this way,
CS × (1−A) + CD × A = CS × (1 + α) −CD × α
= CS + (CS-CD) × α
= IM2 + (IM2-IM1) × α
Therefore, overdrive effect processing can be realized. In other words, using the normal α blending equation expressed as CS × (1−A) + CD × A as the α blending equation of the image generation system, the overdrive effect processing is realized simply by setting A = −α. it can.

次に図15のフローチャートを用いて、本実施形態の実現手法の詳細な処理について説明する。   Next, the detailed processing of the realization method of this embodiment is demonstrated using the flowchart of FIG.

まずジオメトリ処理を行い(ステップS71)、描画バッファにジオメトリ処理後(透視変換後)のオブジェクトを描画する(ステップS72)。そして、描画バッファの画像データをテクスチャに設定し(ステップS73)、テクスチャのα値を無効にするように設定する(ステップS74)。   First, geometry processing is performed (step S71), and the object after geometry processing (after perspective transformation) is drawn in the drawing buffer (step S72). Then, the image data in the drawing buffer is set to the texture (step S73), and the α value of the texture is set to be invalidated (step S74).

次にαブレンディングの式CS×(1−A)+CD×Aを設定する(ステップS75)。またα値A=−αに設定する(ステップS76)。   Next, α blending formula CS × (1−A) + CD × A is set (step S75). Further, α value A = −α is set (step S76).

次に図14で説明したように、分割画面サイズ(或いは画面サイズ)のスプライトに描画バッファのテクスチャをマッピングし、1フレーム前のオーバードライブエフェクト処理後の画像データが描画されている表示バッファに対し、設定されたαブレンディングの式に従ってスプライトを描画する(ステップS77)。そして表示バッファの画像を表示部に表示する(ステップS78)。このようにすることで、図13で説明したように、ダブルバッファを利用したオーバードライブエフェクト処理を実現できる。   Next, as described with reference to FIG. 14, the texture of the drawing buffer is mapped to the sprite having the divided screen size (or screen size), and the display buffer in which the image data after the overdrive effect processing one frame before is drawn. Then, the sprite is drawn according to the set α blending equation (step S77). Then, the image in the display buffer is displayed on the display unit (step S78). In this way, as described with reference to FIG. 13, overdrive effect processing using a double buffer can be realized.

なお図3のステップS1では、現在のフレームにおいてオブジェクトを描画することで生成された画像データIM2と、前のフレームにおいてオブジェクトを描画することで生成された画像データIM1との差分の画像データIM2−IM1を求めている。   In step S1 of FIG. 3, the difference between the image data IM2 generated by drawing the object in the current frame and the image data IM1 generated by drawing the object in the previous frame is IM2-. Seeking IM1.

この点、図13の実現手法では、現在のフレームにおいてオブジェクトを描画することで生成された画像データIM2と、前のフレームで生成されたオーバードライブエフェクト処理後の画像データIMOD1との差分の画像データIM2−IMOD1を求めている。そしてこのIM2−IMOD1にα値を乗算したものを画像データIM2に加算して、オーバードライブエフェクト処理後の画像データIMOD2=IM2+(IM2−IMOD1)×αを求めている。従って、この図13の実現手法では、α値が大きすぎると、オーバードライブエフェクト処理の効果が過大になり、チラツキ(振動)が発生するおそれがある。   In this regard, in the realization method of FIG. 13, the difference between the image data IM2 generated by drawing the object in the current frame and the image data IMOD1 after the overdrive effect processing generated in the previous frame. I'm looking for IM2-IMOD1. Then, the value obtained by multiplying the value I2-IMOD1 by the α value is added to the image data IM2, and the image data IMOD2 = IM2 + (IM2-IMOD1) × α after the overdrive effect processing is obtained. Therefore, in the realization method of FIG. 13, if the α value is too large, the effect of the overdrive effect processing becomes excessive, and flicker (vibration) may occur.

しかしながら、この図13の実現手法によれば、前のフレームでのオーバードライブエフェクト処理後の画像データIMOD1が書き込まれている表示バッファに対して、画像データIM2をαブレンディング描画するだけで、今回のフレームでのオーバードライブエフェクト処理後の画像データIMOD2を生成できる。従って、例えばトリプルバッファ構成を採用しなくても、図13に示すようなダブルバッファ構成でオーバードライブエフェクト処理を実現でき、メモリの節約や処理の簡素化を図れるという利点がある。なおオーバードライブエフェクト処理の効果が過大になることによるチラツキ(振動)の発生を防止するために、図4で説明した差分和らげ処理を行うようにしてもよい。   However, according to the realization method of FIG. 13, the image data IM2 is simply α blended and drawn in the display buffer in which the image data IMOD1 after the overdrive effect processing in the previous frame is written. The image data IMOD2 after the overdrive effect processing in the frame can be generated. Therefore, for example, overdrive effect processing can be realized with a double buffer configuration as shown in FIG. 13 without adopting a triple buffer configuration, and there is an advantage that memory saving and processing simplification can be achieved. In order to prevent occurrence of flicker (vibration) due to an excessive effect of the overdrive effect process, the difference easing process described with reference to FIG. 4 may be performed.

2.4 特定領域へのオーバードライブエフェクト処理
ハードウェアのオーバードライブ回路を用いてオーバードライブを行うと、表示画面の全ての領域に対してオーバードライブが掛かってしまう。
2.4 Overdrive effect processing to a specific area When overdrive is performed using a hardware overdrive circuit, overdrive is applied to all areas of the display screen.

ところが、ゲームによっては、画面内の特定のオブジェクトについてのみ、残像感を軽減できれば十分な場合がある。例えば画面内で高速に移動するキャラクタなどのオブジェクトや、残像が発生しやすい形状のオブジェクト(例えば並んで配置される柱状オブジェクト等)についてだけ、残像感を軽減できれば、十分な場合がある。このような場合に、オーバードライブエフェクト処理の対象をこのようなオブジェクトに絞れば、処理負荷の軽減を図れる可能性がある。   However, depending on the game, it may be sufficient if the afterimage feeling can be reduced only for a specific object in the screen. For example, it may be sufficient if the afterimage feeling can be reduced only for an object such as a character that moves at high speed in the screen, or an object having a shape in which an afterimage is likely to occur (for example, columnar objects arranged side by side). In such a case, if the target of overdrive effect processing is limited to such objects, the processing load may be reduced.

そこで図16(A)では、表示部の表示領域のうちの特定の領域200の画像データに対してのみ、オーバードライブエフェクト処理を行うようにしている。こうすれば、特定領域200以外では、オーバードライブエフェクト処理を行わなくて済む。従って例えばピクセルシェーダー手法によりオーバードライブエフェクト処理を実現した場合などにおいて、処理負荷を軽減することが可能になる。またオーバードライブエフェクト処理が不要な場所に、不必要にオーバードライブエフェクト処理が掛かってしまう事態も防止できる。   Therefore, in FIG. 16A, overdrive effect processing is performed only on the image data of a specific area 200 in the display area of the display unit. In this way, it is not necessary to perform overdrive effect processing outside the specific area 200. Therefore, for example, when overdrive effect processing is realized by a pixel shader technique, it is possible to reduce the processing load. Further, it is possible to prevent the situation where the overdrive effect processing is unnecessarily applied to a place where the overdrive effect processing is unnecessary.

図16(A)の特定領域200は、描画バッファに描画するオブジェクトに基づき設定することができる。具体的には、複数のオブジェクト(例えば透視変換後のオブジェクト)を描画することで画像データを生成する場合には、複数のオブジェクトのうちの特定のオブジェクト(モデルオブジェクト)を内包する領域に対して、オーバードライブエフェクト処理を行うようにする。例えば図16(B)では、特定のオブジェクトOBを内包する領域200を設定する。具体的には、オブジェクト(透視変換後のオブジェクト)の頂点座標(制御点の座標)に基づいて、領域200を設定し、この領域200に対してオーバードライブエフェクト処理を行う。   The specific area 200 in FIG. 16A can be set based on an object to be drawn in the drawing buffer. Specifically, in the case where image data is generated by drawing a plurality of objects (for example, objects after perspective transformation), an area containing a specific object (model object) among the plurality of objects Execute overdrive effect processing. For example, in FIG. 16B, an area 200 containing a specific object OB is set. Specifically, an area 200 is set based on the vertex coordinates (control point coordinates) of the object (the object after perspective transformation), and overdrive effect processing is performed on the area 200.

なお、オブジェクトに対して簡易オブジェクトが設定される場合には、簡易オブジェクト(透視変換後の簡易オブジェクト)の頂点座標に基づいて、オーバードライブエフェクト処理を行う領域200を設定してもよい。即ちゲームによっては、オブジェクトに対して、その形状を簡易化した簡易オブジェクト(オブジェクトよりも頂点数が少なく、オブジェクトに追従して移動するオブジェクト)が設定される場合がある。例えば銃弾やパンチなどの攻撃がオブジェクトにヒットしたか否かのチェックは、簡易オブジェクトと銃弾やパンチとのヒットチェックを行うことで実現される。そして簡易オブジェクトの頂点座標に基づいて領域200を設定すれば、簡易オブジェクトの頂点数は少ないため、処理負荷を軽減できる。   Note that, when a simple object is set for an object, an area 200 for performing overdrive effect processing may be set based on the vertex coordinates of the simple object (simple object after perspective transformation). That is, depending on the game, a simple object (an object that has fewer vertices than the object and moves following the object) may be set for the object. For example, whether or not an attack such as a bullet or punch hits an object is realized by performing a hit check between a simple object and a bullet or punch. If the area 200 is set based on the vertex coordinates of the simple object, the processing load can be reduced because the number of vertices of the simple object is small.

図16(B)の領域200の設定は、具体的には以下の手法により実現できる。まず、オブジェクトOB(或いは簡易オブジェクト)を内包するバウンディングボックスBB(バウンディングボリューム)を生成する。このバウンディングボックスBBは、オブジェクトOBのスクリーン座標系での頂点(透視変換後のOBの頂点)のX座標、Y座標を求め、これらの頂点のX座標の最小値XMIN、最大値XMAXと、Y座標の最小値YMIN、最大値YMAXを求めることで生成できる。なお、余裕を持たせるために、バウンディングボックスBBの大きさを、図16(B)よりも若干だけ広げた大きさに設定してもよい。   The setting of the area 200 in FIG. 16B can be specifically realized by the following method. First, a bounding box BB (bounding volume) containing the object OB (or simple object) is generated. This bounding box BB obtains the X coordinate and Y coordinate of the vertex (the vertex of OB after perspective transformation) in the screen coordinate system of the object OB, and the minimum value XMIN, maximum value XMAX of the X coordinate of these vertexes, and Y It can be generated by obtaining the minimum value YMIN and the maximum value YMAX of the coordinates. In order to provide a margin, the size of the bounding box BB may be set slightly larger than that in FIG.

そして生成されたバウンディングボックスBBにより図14のプリミティブ面PLを設定する。次に、このプリミティブ面PLに対して、画像データIM2のテクスチャをマッピングする。そしてテクスチャがマッピングされたプリミティブ面PLを、画像データIMOD1が描画されているバッファに対してαブレンディング描画することで、オーバードライブエフェクト処理が行われた画像データを生成する。   Then, the primitive plane PL shown in FIG. 14 is set by the generated bounding box BB. Next, the texture of the image data IM2 is mapped to this primitive plane PL. Then, the primitive surface PL to which the texture is mapped is α blended with respect to the buffer in which the image data IMOD1 is drawn, thereby generating image data on which the overdrive effect processing has been performed.

なお領域200の設定は図16(B)に示すようなバウンディングボックスを用いる手法に限定されない。例えば表示領域内において、同じ位置にある領域を、常に、オーバードライブエフェクト処理を行う領域200として設定してもよい。   Note that the setting of the area 200 is not limited to the method using the bounding box as shown in FIG. For example, an area at the same position in the display area may be always set as the area 200 for performing the overdrive effect process.

2.5 調整画面、モード設定画面
家庭用ゲーム装置では、ゲーム装置本体に対して様々なタイプの表示部が接続される可能性がある。例えばブラウン管テレビが接続されたり、液晶テレビが接続される。またオーバードライブ回路を内蔵する液晶テレビが接続されたり、内蔵しない液晶テレビが接続される。また液晶テレビは、製品によって液晶の応答速度が遅いものや速いものがある。また携帯型ゲーム装置においても、同じ製品であっても、液晶画面の仕様が変更される場合がある。また携帯型ゲーム装置が、外部モニタであるブラウン管テレビや液晶テレビに接続される場合もある。
2.5 Adjustment screen, mode setting screen In a home game device, various types of display units may be connected to the game device body. For example, a cathode ray tube television or a liquid crystal television is connected. In addition, a liquid crystal television with a built-in overdrive circuit is connected, or a liquid crystal television without a built-in circuit is connected. Some LCD TVs have slow or fast liquid crystal response speeds. Also, in the portable game device, the specifications of the liquid crystal screen may be changed even for the same product. In some cases, the portable game device is connected to an external monitor, such as a cathode ray tube television or a liquid crystal television.

このような場合に、オーバードライブエフェクト処理のα値(エフェクト強度)が固定値であると、オーバードライブエフェクト処理が不十分なため残像が残ったり、過度なオーバードライブエフェクト処理によりチラツキ(振動)が発生するおそれがある。またオーバードライブエフェクト処理の有効、無効を設定できないと、オーバードライブエフェクト処理を必要としない表示部なのに、オーバードライブエフェクト処理が掛かってしまう事態が生じる。   In such a case, if the α value (effect intensity) of the overdrive effect processing is a fixed value, the overdrive effect processing is insufficient and an afterimage remains, or flicker (vibration) occurs due to excessive overdrive effect processing. May occur. If the overdrive effect process cannot be enabled or disabled, the overdrive effect process may occur even though the display unit does not require the overdrive effect process.

そこで図17(A)(B)では、オーバードライブエフェクト処理のα値を調整するための調整画面や、オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面を表示するようにしている。   17A and 17B, an adjustment screen for adjusting the α value of the overdrive effect processing and a mode setting screen for setting whether to enable the overdrive effect processing are displayed. I have to.

例えば図17(A)では、中間色CN1に設定された調整画面の背景領域210(調整ウィンドウ)上で、中間色CN2に設定されたオブジェクトOBが移動する。このように背景領域210、オブジェクトOBを、原色ではない中間色に設定すれば、残像が目立つようになり、オーバードライブエフェクト処理のα値の調整に好適な調整画面を提供できる。   For example, in FIG. 17A, the object OB set to the intermediate color CN2 moves on the background area 210 (adjustment window) of the adjustment screen set to the intermediate color CN1. As described above, if the background area 210 and the object OB are set to an intermediate color that is not a primary color, an afterimage becomes conspicuous, and an adjustment screen suitable for adjusting the α value in overdrive effect processing can be provided.

プレーヤは、オブジェクトOBの画像を見ながら、画面上に表示された調整スライダー212を操作部により動かして、オーバードライブエフェクト処理のα値(エフェクト強度)を調整する。例えばプレーヤは、オブジェクトOBの残像が大きいと感じたら、調整スライダー212を右側に移動させて、オーバードライブエフェクト処理のエフェクト強度を大きくなるようなα値に設定する。一方、オブジェクトOBの残像がそれほど大きくなく、オーバードライブの効果が大きすぎると感じたら、調整スライダー212を左側に移動させて、オーバードライブエフェクト処理のエフェクト強度が小さくなるようなα値に設定する。そしてこのようにして調整されたα値(エフェクト強度)は、画像生成システムの記憶部やメモリーカード等の携帯型情報記憶装置に保存される。そして、ゲーム画面においては、この保存されたα値(エフェクト強度)に基づいて、オーバードライブエフェクト処理が行われることになる。   While viewing the image of the object OB, the player moves the adjustment slider 212 displayed on the screen with the operation unit to adjust the α value (effect intensity) of the overdrive effect process. For example, when the player feels that the afterimage of the object OB is large, the player moves the adjustment slider 212 to the right side and sets the α value so that the effect intensity of the overdrive effect process is increased. On the other hand, if the afterimage of the object OB is not so large and the effect of overdrive is felt to be too great, the adjustment slider 212 is moved to the left to set the α value so that the effect intensity of the overdrive effect process is reduced. The α value (effect intensity) adjusted in this way is stored in a portable information storage device such as a storage unit or a memory card of the image generation system. In the game screen, overdrive effect processing is performed based on the stored α value (effect intensity).

なお調整画面の表示手法は図17(A)に限定されない。例えば図17(A)では円形状のオブジェクトを移動させているが、円以外の形状(例えば柱形状)のオブジェクトを移動させてもよい。また複数のオブジェクトを移動させるようにしてもよい。またこのようなオブジェクトを表示せずに、調整スライダー212(調整値を指定するための表示物)だけを表示するようにしてもよい。また背景領域210やオブジェクトOBに設定される中間色も、様々な色を採用できる。例えば背景領域210やオブジェクトOBの画像を、2色以上の中間色を有する画像にしてもよい。   Note that the display method of the adjustment screen is not limited to FIG. For example, in FIG. 17A, a circular object is moved, but an object having a shape other than a circle (for example, a column shape) may be moved. A plurality of objects may be moved. Alternatively, only the adjustment slider 212 (display object for specifying the adjustment value) may be displayed without displaying such an object. Various colors can be adopted as the intermediate color set for the background area 210 and the object OB. For example, the image of the background area 210 or the object OB may be an image having two or more intermediate colors.

図17(B)のモード設定画面は、ゲームにおける各種設定を行うための画面である。例えばゲーム音の設定(音色、音量、ステレオ/モノラルの設定)、操作部の設定(ボタンやレバーの割り当ての設定)、画像表示の設定などを行うための画面である。   The mode setting screen in FIG. 17B is a screen for performing various settings in the game. For example, it is a screen for setting game sounds (tone color, volume, stereo / monaural settings), operation unit settings (button and lever assignment settings), image display settings, and the like.

図17(B)のモード設定画面では、プレーヤは操作部を操作して、オーバードライブエフェクト処理の有効(オン)、無効(オフ)を設定できる。そしてオーバードライブエフェクト処理を有効にする設定(選択)が行われた場合には、ゲーム画面においてオーバードライブエフェクト処理が行われるようになる。   On the mode setting screen in FIG. 17B, the player can set the overdrive effect processing to be valid (on) or invalid (off) by operating the operation unit. When the setting (selection) for enabling the overdrive effect process is performed, the overdrive effect process is performed on the game screen.

なおモード設定画面の表示手法は図17(B)に限定されない。例えば、オーバードライブエフェクト処理の有効、無効の設定を、図17(A)の調整画面において行えるようにしてもよい。この場合には例えば、図17(A)の調整スライダー212が一番左側に移動した場合に、オーバードライブエフェクト処理が無効になるようにすればよい。また、オーバードライブエフェクト処理のエフェクト強度の調整を、モード設定画面において行えるようにしてもよい。この場合には例えば、図17(A)の調整スライダー212を図17(B)のモード設定画面に表示すればよい。   Note that the display method of the mode setting screen is not limited to FIG. For example, the setting for enabling / disabling overdrive effect processing may be performed on the adjustment screen of FIG. In this case, for example, when the adjustment slider 212 in FIG. 17A moves to the leftmost side, the overdrive effect process may be invalidated. Further, the effect intensity of the overdrive effect process may be adjusted on the mode setting screen. In this case, for example, the adjustment slider 212 in FIG. 17A may be displayed on the mode setting screen in FIG.

3.ハードウェア構成
図18に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
3. Hardware Configuration FIG. 18 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセラレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of the compressed image data and sound data and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエイリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納されている。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されている。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されているCD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The CD drive 980 accesses a CD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部の処理はハードウェアとプログラムの両方により実現でき、この場合、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ900、902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ900、902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   The processing of each part of this embodiment can be realized by both hardware and a program. In this case, the information storage medium stores a program for causing the hardware (computer) to function as each part of this embodiment. More specifically, the program instructs the processors 900, 902, 904, 906, 910, and 930, which are hardware, to pass data if necessary. Each processor 900, 902, 904, 906, 910, 930 implements the processing of each unit of the present invention based on the instruction and the passed data.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第J、第K、第Lのフレーム等)と共に記載された用語(第1、第2、第3のフレーム等)は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or the drawings, terms (first, second, third frames, etc.) described at least once together with different terms (J, K, L, etc.) having a broader meaning or the same meaning are used. The different terms can be used anywhere in the specification or drawings.

またオーバードライブエフェクト処理の実現手法も、本実施形態で説明した実現手法に限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明のオーバードライブエフェクト処理は、表示部が液晶表示装置ではない場合にも適用可能である。   Further, the method for realizing the overdrive effect processing is not limited to the method described in the present embodiment, and methods equivalent to these are also included in the scope of the present invention. The overdrive effect processing of the present invention is also applicable when the display unit is not a liquid crystal display device.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレイヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 図2(A)(B)(C)はオーバードライブエフェクト処理の原理の説明図。2A, 2B, and 2C are explanatory diagrams of the principle of overdrive effect processing. オーバードライブエフェクト処理を説明する動作フロー。An operation flow for explaining overdrive effect processing. 差分和らげ処理を用いたオーバードライブエフェクト処理を説明する動作フロー。The operation | movement flow explaining the overdrive effect process using a difference softening process. 図5(A)(B)はオブジェクトの残像発生の説明図。FIGS. 5A and 5B are explanatory diagrams of the generation of an afterimage of an object. 図6(A)(B)はオブジェクトの残像発生の説明図。6 (A) and 6 (B) are explanatory diagrams of occurrence of an afterimage of an object. 図7(A)(B)はオーバードライブエフェクト処理の説明図。7A and 7B are explanatory diagrams of overdrive effect processing. 図8(A)(B)はオーバードライブエフェクト処理の説明図。8A and 8B are explanatory diagrams of overdrive effect processing. 図9(A)(B)はオーバードライブエフェクト処理の説明図。9A and 9B are explanatory diagrams of overdrive effect processing. 図10(A)(B)はオーバードライブエフェクト処理の説明図。10A and 10B are explanatory diagrams of overdrive effect processing. ピクセル単位で行うオーバードライブエフェクト処理のフローチャート。The flowchart of the overdrive effect process performed per pixel. 差分画像データ値に基づきエフェクト強度係数を変化させる手法の説明図。Explanatory drawing of the method of changing an effect intensity coefficient based on a difference image data value. オーバードライブエフェクト処理の実現手法の説明図。Explanatory drawing of the implementation method of an overdrive effect process. プリミティブ面にテクスチャをマッピングしてαブレンディング描画する手法の説明図。Explanatory drawing of the method of mapping (alpha) blending drawing by mapping a texture on a primitive surface. オーバードライブエフェクト処理の実現手法のフローチャート。The flowchart of the implementation method of an overdrive effect process. 図16(A)(B)は表示領域の特定領域に対してオーバードライブエフェクト処理を行う手法の説明図。16A and 16B are explanatory diagrams of a method for performing overdrive effect processing on a specific area of the display area. 図17(A)(B)はオーバードライブエフェクト処理の調整画面、モード設定画面の例。17A and 17B show examples of an adjustment screen and mode setting screen for overdrive effect processing. ハードウェア構成例。Hardware configuration example.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、116 表示制御部、120 描画部、
122 オーバードライブエフェクト処理部、130 音生成部、160 操作部、
170 記憶部、172 描画バッファ、173 表示バッファ、
174 テクスチャ記憶部、176 Zバッファ、180 情報記憶媒体、
190 表示部、192 音出力部、194 携帯型情報記憶装置、196 通信部
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 116 display control unit, 120 drawing unit,
122 overdrive effect processing unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 172 drawing buffer, 173 display buffer,
174 texture storage unit, 176 Z buffer, 180 information storage medium,
190 display unit, 192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (11)

画像を生成するためのプログラムであって、
オブジェクトを描画して画像データを生成する描画部と、
生成された画像データに対してオーバードライブエフェクト処理を行い、表示部に出力するための画像データを生成するオーバードライブエフェクト処理部として、
コンピュータを機能させ、
前記オーバードライブエフェクト処理部は、
第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいて生成されたオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行うことで、前記オーバードライブエフェクト処理が行われた画像データを生成することを特徴とするプログラム。
A program for generating an image,
A drawing unit that draws an object and generates image data;
As an overdrive effect processing unit that performs overdrive effect processing on the generated image data and generates image data for output to the display unit,
Make the computer work,
The overdrive effect processing unit
Based on the image data IMK generated in the Kth frame, the image data IMODJ after the overdrive effect processing generated in the Jth (K> J) th frame, and the α value α, IMK + (IMK−IMODJ ) A program for generating image data subjected to the overdrive effect process by performing an α blending process of × α.
請求項1において、
前記オーバードライブエフェクト処理部は、
α値が設定された画面サイズ又は分割画面サイズのプリミティブ面に、前記画像データIMKのテクスチャをマッピングし、テクスチャがマッピングされた前記プリミティブ面を、前記画像データIMODJが描画されているバッファに対してαブレンディング描画することを特徴とするプログラム。
In claim 1,
The overdrive effect processing unit
The texture of the image data IMK is mapped to a primitive surface having a screen size or a divided screen size in which an α value is set, and the primitive surface to which the texture is mapped is displayed on the buffer in which the image data IMODJ is drawn. Program characterized by alpha blending drawing.
請求項1又は2において、
前記オーバードライブエフェクト処理部は、
オブジェクトを描画バッファに描画して画像データIMKを生成し、生成された画像データIMKと、表示バッファに書き込まれている第Jのフレームでのオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを表示バッファに書き込むことを特徴とするプログラム。
In claim 1 or 2,
The overdrive effect processing unit
The object is drawn in the drawing buffer to generate image data IMK, the generated image data IMK, the image data IMODJ after the overdrive effect processing in the Jth frame written in the display buffer, and the α value α Based on the above, a program for performing an α blending process of IMK + (IMK−IMODJ) × α and writing the image data subjected to the overdrive effect process to a display buffer.
請求項1乃至3のいずれかにおいて、
前記オーバードライブエフェクト処理部は、
表示部の表示領域のうちの特定の領域の画像データに対してのみ、前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The overdrive effect processing unit
A program that performs the overdrive effect processing only on image data in a specific area of a display area of a display unit.
請求項1乃至4のいずれかにおいて、
前記描画部は、
複数のオブジェクトを描画することで画像データを生成し、
前記オーバードライブエフェクト処理部は、
複数のオブジェクトのうちの特定のオブジェクトを内包する領域に対して、前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The drawing unit
Generate image data by drawing multiple objects,
The overdrive effect processing unit
A program characterized in that the overdrive effect processing is performed on an area including a specific object among a plurality of objects.
請求項5において、
前記オーバードライブエフェクト処理部は、
オブジェクトの頂点座標、或いはオブジェクトに対して簡易オブジェクトが設定される場合には簡易オブジェクトの頂点座標に基づいて、前記オーバードライブエフェクト処理を行う前記領域を設定することを特徴とするプログラム。
In claim 5,
The overdrive effect processing unit
A program characterized in that the region for performing the overdrive effect processing is set based on vertex coordinates of an object or, when a simple object is set for the object, based on the vertex coordinates of the simple object.
請求項1乃至6のいずれかにおいて、
前記オーバードライブエフェクト処理のα値を調整するための調整画面の表示制御を行う表示制御部として、
コンピュータを機能させ、
前記オーバードライブエフェクト処理部は、
前記調整画面においてエフェクト強度の調整が行われた場合に、調整により得られたα値に基づいて前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
As a display control unit that performs display control of an adjustment screen for adjusting the α value of the overdrive effect processing,
Make the computer work,
The overdrive effect processing unit
When the effect intensity is adjusted on the adjustment screen, the overdrive effect processing is performed based on the α value obtained by the adjustment.
請求項7において、
前記表示制御部は、
第1の中間色に設定された調整画面の背景領域上で、第2の中間色に設定されたオブジェクトを移動させる表示制御を行うことを特徴とするプログラム。
In claim 7,
The display control unit
A program for performing display control for moving an object set to a second intermediate color on a background area of an adjustment screen set to a first intermediate color.
請求項1乃至8のいずれかにおいて、
前記オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面の表示制御を行う表示制御部として、
コンピュータを機能させ、
前記オーバードライブエフェクト処理部は、
前記モード設定画面において前記オーバードライブエフェクト処理を有効にする設定が行われた場合に、前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 8.
As a display control unit that performs display control of a mode setting screen for setting whether to enable the overdrive effect processing,
Make the computer work,
The overdrive effect processing unit
The program for performing the overdrive effect processing when the setting for enabling the overdrive effect processing is performed on the mode setting screen.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至9のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 9 is stored. 画像を生成する画像生成システムであって、
オブジェクトを描画して画像データを生成する描画部と、
生成された画像データに対してオーバードライブエフェクト処理を行い、表示部に出力するための画像データを生成するオーバードライブエフェクト処理部とを含み、
前記オーバードライブエフェクト処理部は、
第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいて生成されたオーバードライブエフェクト処理後の画像データIMODJと、α値αとに基づいて、IMK+(IMK−IMODJ)×αのαブレンディング処理を行うことで、前記オーバードライブエフェクト処理が行われた画像データを生成することを特徴とする画像生成システム。
An image generation system for generating an image,
A drawing unit that draws an object and generates image data;
Including an overdrive effect processing unit that performs overdrive effect processing on the generated image data and generates image data for output to the display unit,
The overdrive effect processing unit
Based on the image data IMK generated in the Kth frame, the image data IMODJ after the overdrive effect processing generated in the Jth (K> J) th frame, and the α value α, IMK + (IMK−IMODJ ) The image generation system that generates the image data subjected to the overdrive effect processing by performing α blending processing of × α.
JP2005210540A 2005-07-20 2005-07-20 Program, information storage medium, and image generation system Expired - Fee Related JP4229332B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005210540A JP4229332B2 (en) 2005-07-20 2005-07-20 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005210540A JP4229332B2 (en) 2005-07-20 2005-07-20 Program, information storage medium, and image generation system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008275525A Division JP4843010B2 (en) 2008-10-27 2008-10-27 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2007026326A true JP2007026326A (en) 2007-02-01
JP4229332B2 JP4229332B2 (en) 2009-02-25

Family

ID=37786966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005210540A Expired - Fee Related JP4229332B2 (en) 2005-07-20 2005-07-20 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4229332B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609276B2 (en) 2005-07-20 2009-10-27 Namco Bandai Games Inc. Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609276B2 (en) 2005-07-20 2009-10-27 Namco Bandai Games Inc. Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device
US8013865B2 (en) 2005-07-20 2011-09-06 Namco Bandai Games Inc. Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device

Also Published As

Publication number Publication date
JP4229332B2 (en) 2009-02-25

Similar Documents

Publication Publication Date Title
JP4693159B2 (en) Program, information storage medium, and image generation system
JP2006318389A (en) Program, information storage medium, and image generation system
US7479961B2 (en) Program, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP2007164557A (en) Program, information recording medium and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4868586B2 (en) Image generation system, program, and information storage medium
JP2004334661A (en) Image generating system, program, and information storage medium
JP2004070670A (en) Image generation system, program and information storage medium
JP4195023B2 (en) Program, information storage medium, and image generation system
JP4159082B2 (en) Image generation system, program, and information storage medium
JP4229332B2 (en) Program, information storage medium, and image generation system
JP2006011539A (en) Program, information storage medium, and image generating system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4632855B2 (en) Program, information storage medium, and image generation system
JP4843010B2 (en) Program, information storage medium, and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium
JP2010033302A (en) Image generation system, program and information storage medium
JP4521811B2 (en) Program, information storage medium, and image generation system
JP4680670B2 (en) Program, information storage medium, and image generation system
JP2006277490A (en) Program, information storage medium and image generation system
JP2005157541A (en) Program, information storage medium, and image generating system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081127

R150 Certificate of patent or registration of utility model

Ref document number: 4229332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees