JP2007026325A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2007026325A
JP2007026325A JP2005210539A JP2005210539A JP2007026325A JP 2007026325 A JP2007026325 A JP 2007026325A JP 2005210539 A JP2005210539 A JP 2005210539A JP 2005210539 A JP2005210539 A JP 2005210539A JP 2007026325 A JP2007026325 A JP 2007026325A
Authority
JP
Japan
Prior art keywords
image data
effect processing
overdrive effect
imk
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005210539A
Other languages
Japanese (ja)
Other versions
JP4195023B2 (en
Inventor
Shigeki Tomizawa
茂樹 冨澤
Takehiro Imai
剛洋 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2005210539A priority Critical patent/JP4195023B2/en
Publication of JP2007026325A publication Critical patent/JP2007026325A/en
Application granted granted Critical
Publication of JP4195023B2 publication Critical patent/JP4195023B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system, a program and the like capable of generating an image less in the feeling of afterimage. <P>SOLUTION: The image generation system includes: a plotting part for plotting an object and generating image data; and an over-drive effect processing part for performing over-drive effect processing in the generated image data and generating the image data to be outputted to a display part. The over-drive effect processing part generates the image data where the over-drive effect processing is performed by conducting the α-blending processing of IMK+(IMK-IMJ)×α, based on the image data IMK which is generated by a K-th frame, the image data IMJ which is generated by plotting the object in the J-th frame (K>J), and an α-value α. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

近年、高画質の液晶表示装置を備える携帯型ゲーム装置が人気を集めている。この携帯型ゲーム装置では、液晶表示装置の画素数も多く、リアルで高精細な画像を表示できるため、これまでの携帯型ゲーム装置では楽しむことができなかった3D(3次元)ゲーム等もプレーヤは楽しむことができる。   In recent years, portable game devices equipped with high-quality liquid crystal display devices have gained popularity. In this portable game device, the number of pixels of the liquid crystal display device is large, and a real high-definition image can be displayed. Can enjoy.

ところで、液晶表示装置においては、液晶の応答速度が遅いことから、動きのある映像を表示した場合に残像感が出たり動画がぼやけて見えるなどの現象が発生する。このような現象を改善する従来技術として、オーバードライブ回路を備える液晶表示装置が提案されている。このオーバードライブ回路では、入力変化の最初のフレームにおいて目的電圧よりも高い電圧を印加することで、液晶のステップ入力に対する応答特性の改善を図っている。   By the way, in the liquid crystal display device, since the response speed of the liquid crystal is slow, when a moving image is displayed, a phenomenon such as an afterimage or a moving image appears blurred. As a conventional technique for improving such a phenomenon, a liquid crystal display device including an overdrive circuit has been proposed. In this overdrive circuit, the response characteristic to the step input of the liquid crystal is improved by applying a voltage higher than the target voltage in the first frame of the input change.

しかしながら、この従来技術では、画像信号の電圧に対して補償処理を行うことで、液晶の応答速度を向上させている。従って、携帯型ゲーム装置が、このような電圧レベルで補償処理を行うオーバードライブ回路を備えていない場合には、残像感の改善が難しいという問題がある。
特開平7−20828号公報
However, in this prior art, the response speed of the liquid crystal is improved by performing compensation processing on the voltage of the image signal. Therefore, if the portable game device does not include an overdrive circuit that performs compensation processing at such a voltage level, there is a problem that it is difficult to improve the afterimage feeling.
Japanese Patent Laid-Open No. 7-20828

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、残像感の少ない画像を生成できる画像生成システム、プログラム及び情報記憶媒体を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation system, a program, and an information storage medium capable of generating an image with little afterimage.

本発明は、画像を生成する画像生成システムであって、オブジェクトを描画して画像データを生成する描画部と、生成された画像データに対してオーバードライブエフェクト処理を行い、表示部に出力するための画像データを生成するオーバードライブエフェクト処理部とを含み、前記オーバードライブエフェクト処理部は、第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいてオブジェクトを描画することで生成された画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行うことで、オーバードライブエフェクト処理が行われた画像データを生成する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention is an image generation system for generating an image, for drawing an object to generate image data, performing overdrive effect processing on the generated image data, and outputting the result to a display unit An overdrive effect processing unit that generates image data of the image data, and the overdrive effect processing unit draws an object in the image data IMK generated in the Kth frame and the Jth (K> J) frame. Image generation for generating image data subjected to overdrive effect processing by performing α blending processing of IMK + (IMK−IMJ) × α based on image data IMJ generated in this way and α value α Related to the system. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明では、オブジェクトを描画することで画像データが生成される。そして、生成された画像データに対してオーバードライブエフェクト処理が行われ、表示部(表示装置)に出力するための画像データが生成される。具体的には、オブジェクトを描画することで生成される画像データ(元画像データ)に対するエフェクト処理(ポストエフェクト処理、フィルタ処理)としてオーバードライブを実現するオーバードライブエフェクト処理が行われ、オーバードライブエフェクト処理後の画像データが、表示部に出力される。このようにすれば、表示部がハードウェアのオーバードライブ回路を備えていない場合にも、オーバードライブと同様の効果を、オーバードライブエフェクト処理により実現できるようになり、残像感の少ない画像を生成できる。   In the present invention, image data is generated by drawing an object. Then, overdrive effect processing is performed on the generated image data, and image data to be output to the display unit (display device) is generated. Specifically, an overdrive effect process that realizes overdrive is performed as an effect process (post-effect process, filter process) for image data (original image data) generated by drawing an object. The subsequent image data is output to the display unit. In this way, even when the display unit does not include a hardware overdrive circuit, the same effect as overdrive can be realized by overdrive effect processing, and an image with less afterimage can be generated. .

そして本発明では、第K、第Jのフレームで生成された画像データIMK、IMJとαとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行うことで、オーバードライブエフェクト処理後の画像データが生成される。このようにすれば、オブジェクトの描画により生成された画像データに対してαブレンディング処理を行うだけで、オーバードライブエフェクト処理後の画像データを生成できる。従って、残像感の少ない画像を少ない処理負荷で生成できるようになる。   In the present invention, the α blending process of IMK + (IMK−IMJ) × α is performed based on the image data IMK, IMJ, and α generated in the Kth and Jth frames, thereby performing the overdrive effect processing. Image data is generated. In this way, the image data after the overdrive effect process can be generated only by performing the α blending process on the image data generated by drawing the object. Therefore, an image with little afterimage feeling can be generated with a small processing load.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、α値が設定された画面サイズ又は分割画面サイズのプリミティブ面に、前記画像データIMKのテクスチャをマッピングし、テクスチャがマッピングされた前記プリミティブ面を、前記画像データIMJが描画されているバッファに対してαブレンディング描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit maps the texture of the image data IMK onto a primitive surface having a screen size or a divided screen size in which an α value is set. The primitive surface to which the texture is mapped may be α blended with respect to the buffer in which the image data IMJ is drawn.

このようにすれば、例えば1回のテクスチャマッピングでオーバードライブエフェクト処理を実現でき、処理負荷を軽減できる。また画像生成システム等が有しているテクスチャマッピング機能を有効活用してオーバードライブエフェクト処理を実現することが可能になる。   In this way, for example, overdrive effect processing can be realized by one texture mapping, and the processing load can be reduced. In addition, it is possible to realize overdrive effect processing by effectively utilizing the texture mapping function of the image generation system or the like.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、設定値ASの2倍の値がソースα値Aとして設定される2倍値モードでAS=(1+α)/2を設定し、設定値BSが固定のディスティネーションα値Bとして設定される固定値モードでBS=αを設定し、IMK×A−IMJ×B=IMK×(2×AS)−IMJ×BS=IMK×(1+α)−IMJ×αの減算αブレンディング描画を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit may perform AS = (1 + α) in the double value mode in which a value twice the set value AS is set as the source α value A. ) / 2, BS = α is set in the fixed value mode in which the set value BS is set as the fixed destination α value B, and IMK × A−IMJ × B = IMK × (2 × AS) −IMJ Subtraction α blending drawing of × BS = IMK × (1 + α) −IMJ × α may be performed.

このようにすれば、αブレンディングの式としてIMK+(IMK−IMJ)×αの式が用意されていなくても、一般的な減算αブレンディングの式を利用してオーバードライブエフェクト処理を実現できるようになる。   In this way, even if the equation of IMK + (IMK−IMJ) × α is not prepared as an α blending equation, overdrive effect processing can be realized using a general subtraction α blending equation. Become.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、第Kのフレームでは、オブジェクトを第1のバッファに描画して画像データIMKを生成し、生成された画像データIMKと、第2のバッファに書き込まれている第Jのフレームでの画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを、第2のバッファに書き込み、第Lのフレームでは、オブジェクトを第3のバッファに描画して画像データIMLを生成し、生成された画像データIMLと、第1のバッファに書き込まれている第Kのフレームでの画像データIMKと、α値αとに基づいて、IML+(IML−IMK)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを、第1のバッファに書き込み、第M(M>L>K)のフレームでは、オブジェクトを第2のバッファに描画して画像データIMMを生成し、生成された画像データIMMと、第3のバッファに書き込まれている第Lのフレームでの画像データIMLと、α値αとに基づいて、IMM+(IMM−IML)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを、第3のバッファに書き込むようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit generates the image data IMK by drawing the object in the first buffer in the Kth frame. Based on the image data IMK, the image data IMJ in the Jth frame written in the second buffer, and the α value α, α blending processing of IMK + (IMK−IMJ) × α is performed, and overdrive is performed. The image data on which the effect processing has been performed is written in the second buffer, and in the Lth frame, the object is drawn in the third buffer to generate the image data IML. The generated image data IML and the first data IML + (IML) on the basis of the image data IMK in the Kth frame written in the buffer and the α value α. IMK) × α α blending processing is performed, and the image data subjected to the overdrive effect processing is written into the first buffer. In the Mth (M> L> K) frame, the object is stored in the second buffer. Drawing is performed to generate image data IMM. Based on the generated image data IMM, the image data IML in the Lth frame written in the third buffer, and the α value α, IMM + (IMM− (IML) × α blending processing may be performed, and the image data subjected to the overdrive effect processing may be written to the third buffer.

本発明では、第1、第2、第3のバッファの役割を各フレーム毎に順次入れ替えて処理を行っている。このようにすれば、バッファ間での画像データの無駄なコピー処理が不要になり、処理回数が減るため、処理負荷を軽減できる。   In the present invention, the roles of the first, second, and third buffers are sequentially switched for each frame. In this way, useless copy processing of image data between buffers becomes unnecessary, and the number of processing times is reduced, so that the processing load can be reduced.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、表示部の表示領域のうちの特定の領域の画像データに対してのみ、前記オーバードライブエフェクト処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit performs the overdrive effect processing only on the image data in a specific area of the display area of the display unit. You may do it.

このようにすれば、表示領域の全てに対してオーバードライブエフェクト処理を行わなくて済むため、処理負荷を軽減できる。   In this way, since it is not necessary to perform overdrive effect processing for the entire display area, the processing load can be reduced.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画部は、複数のオブジェクトを描画することで画像データを生成し、前記オーバードライブエフェクト処理部は、複数のオブジェクトのうちの特定のオブジェクトを内包する領域に対して、前記オーバードライブエフェクト処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit generates image data by drawing a plurality of objects, and the overdrive effect processing unit specifies the plurality of objects. The overdrive effect process may be performed on a region containing the object.

このようにすれば、特定のオブジェクトに対してオーバードライブエフェクト処理を行って、そのオブジェクトの画像の残像感を軽減できるようになる。   In this way, it is possible to reduce the afterimage feeling of an image of a specific object by performing overdrive effect processing on the specific object.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理部は、オブジェクトの頂点座標、或いはオブジェクトに対して簡易オブジェクトが設定される場合には簡易オブジェクトの頂点座標に基づいて、前記オーバードライブエフェクト処理を行う前記領域を設定するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the overdrive effect processing unit is based on the vertex coordinates of the object, or the vertex coordinates of the simple object when a simple object is set for the object. Thus, the area for performing the overdrive effect process may be set.

このようにすれば、領域の設定処理を簡素化できる。   In this way, the area setting process can be simplified.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理のα値を調整するための調整画面の表示制御を行う表示制御部を含み(或いは表示制御部としてコンピュータを機能させ)、前記オーバードライブエフェクト処理部は、前記調整画面においてα値の調整が行われた場合に、調整後のα値に基づいて前記オーバードライブエフェクト処理を行うようにしてもよい。   The image generation system, program, and information storage medium according to the present invention include a display control unit that performs display control of an adjustment screen for adjusting the α value of the overdrive effect processing (or functions as a display control unit). The overdrive effect processing unit may perform the overdrive effect processing based on the adjusted α value when the α value is adjusted on the adjustment screen.

このようにすれば、様々なタイプの表示部に対応したオーバードライブエフェクト処理を実現できる。   In this way, overdrive effect processing corresponding to various types of display units can be realized.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記表示制御部は、第1の中間色に設定された調整画面の背景領域上で、第2の中間色に設定されたオブジェクトを移動させる表示制御を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the display control unit moves the object set to the second intermediate color on the background area of the adjustment screen set to the first intermediate color. Display control may be performed.

例えば背景領域やオブジェクトの色が原色であると、オブジェクトの移動により発生する残像が見えにくくなり、オーバードライブエフェクト処理のエフェクト強度の調整が難しくなる。これに対して本発明のように異なる中間色に設定された背景領域とオブジェクトを用いれば、調整画面においてオブジェクトの残像感を強調でき、調整画面の調整精度を向上できる。   For example, if the background area or the color of the object is the primary color, it is difficult to see an afterimage generated by the movement of the object, and it is difficult to adjust the effect intensity of the overdrive effect process. On the other hand, if the background region and the object set to different intermediate colors are used as in the present invention, the afterimage feeling of the object can be enhanced on the adjustment screen, and the adjustment accuracy of the adjustment screen can be improved.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面の表示制御を行う表示制御部を含み(或いは表示制御部としてコンピュータを機能させ)、前記オーバードライブエフェクト処理部は、前記モード設定画面において前記オーバードライブエフェクト処理を有効にする設定が行われた場合に、前記オーバードライブエフェクト処理を行うようにしてもよい。   The image generation system, program, and information storage medium according to the present invention include a display control unit that performs display control of a mode setting screen for setting whether to enable the overdrive effect processing (or display control). The overdrive effect processing unit may perform the overdrive effect processing when the setting for enabling the overdrive effect processing is performed on the mode setting screen. .

このようにすれば、例えばオーバードライブエフェクト処理が不要な表示部を使用した場合に、不必要なオーバードライブエフェクト処理が行われてしまう事態を防止できる。   In this way, for example, when a display unit that does not require overdrive effect processing is used, a situation in which unnecessary overdrive effect processing is performed can be prevented.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲーム装置、携帯型ゲーム装置)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game device, portable game device) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレイヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域やメインメモリとなるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, or a housing. The storage unit 170 serves as a work area or main memory such as the processing unit 100 or the communication unit 196, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、ハードディスク、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されているプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理手順をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (CD, DVD), hard disk, memory (ROM), or the like. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute the processing procedure of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD(液晶表示装置)、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD (Liquid Crystal Display), touch panel display, HMD (Head Mount Display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレイヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリーカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバ)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバ)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、表示制御部116、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a display control unit 116, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、車、戦車、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (primitive surfaces such as polygons, free-form surfaces, and subdivision surfaces) representing display objects such as characters, cars, tanks, buildings, trees, columns, walls, and maps (terrain). (Object) is set in the object space. That is, the position and rotation angle (synonymous with direction and direction) of the object (model object) in the world coordinate system are determined, and the rotation angle (X, Y, Z axis around the position (X, Y, Z)) is determined. Arrange objects at (rotation angle).

移動・動作処理部112は、オブジェクト(キャラクタ、車、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレイヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(移動オブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム毎(1/60秒)に順次求めるシミュレーション処理を行う。なおフレーム(フレームレート)は、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a character, a car, or an airplane). That is, an object (moving object) is moved in the object space or an object is moved based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. Perform processing (motion, animation). Specifically, simulation processing for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) every frame (1/60 seconds) I do. The frame (frame rate) is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114(視点制御部)は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 (viewpoint control unit) performs control processing of the virtual camera (viewpoint) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

表示制御部116は、調整画面やモード設定画面などの各種画面の表示制御を行う。具体的には表示制御部116は、オーバードライブエフェクト処理のα値(エフェクト強度)を調整するための調整画面の表示制御を行う。具体的には、第1の中間色(原色ではない色)に設定された背景領域(調整画面の領域、調整ウィンドウ)上で、第1の中間色とは異なる第2の中間色に設定されたオブジェクトを移動させる表示制御を行う。また表示制御部116は、オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面の表示制御も行う。このモード設定画面においてオーバードライブエフェクト処理を有効にする設定が行われた場合に、オーバードライブエフェクト処理が行われるようになる。なお同一画面を、調整画面とモード設定画面として共用してもよい。   The display control unit 116 performs display control of various screens such as an adjustment screen and a mode setting screen. Specifically, the display control unit 116 performs display control of an adjustment screen for adjusting the α value (effect intensity) of the overdrive effect process. Specifically, the object set to the second intermediate color different from the first intermediate color on the background area (adjustment screen area, adjustment window) set to the first intermediate color (non-primary color) is displayed. Display control to move. The display control unit 116 also performs display control of a mode setting screen for setting whether to enable overdrive effect processing. When the setting for enabling the overdrive effect processing is performed on the mode setting screen, the overdrive effect processing is performed. The same screen may be shared as the adjustment screen and the mode setting screen.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、第1、第2、第3のバッファ171、172、173のうち描画バッファに設定されたバッファに描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。そして生成された画像は、第1、第2、第3のバッファ171、172、173のうち表示バッファに設定されたバッファを介して、表示部190に出力される。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and drawing data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the perspective transformation (after the geometry processing) is selected from the first, second, and third buffers 171, 172, and 173. Draw in the buffer set in the drawing buffer. As a result, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Then, the generated image is output to the display unit 190 via the buffer set as the display buffer among the first, second, and third buffers 171, 172, and 173.

なお第1、第2、第3のバッファ171、172、173は、フレームバッファ、ワークバッファなどのピクセル単位で画像情報を記憶できるバッファ(画像バッファ)であり、例えば画像生成システムのVRAM上に確保される。また本実施形態では、第1、第2、第3のバッファ171、172、173のトリプルバッファ構成にしているが、描画バッファ(バックバッファ)、表示バッファ(フロントバッファ)のダブルバッファ構成にしてもよい。この場合には、第Jのフレームでは描画バッファであったバッファを、第K(K>J)のフレームでは表示バッファに設定し、第Jのフレームでは表示バッファであったバッファを、第Kのフレームでは描画バッファに設定するようにしてもよい。或いは4個以上のバッファを用いるようにしてもよい。   The first, second, and third buffers 171, 172, and 173 are buffers (image buffers) that can store image information in units of pixels, such as frame buffers and work buffers, and are secured on, for example, the VRAM of the image generation system. Is done. In the present embodiment, the first, second, and third buffers 171, 172, and 173 are configured as a triple buffer. However, the drawing buffer (back buffer) and the display buffer (front buffer) are configured as a double buffer. Good. In this case, the buffer that was the drawing buffer in the Jth frame is set as the display buffer in the Kth (K> J) frame, and the buffer that was the display buffer in the Jth frame is set in the Kth frame. A frame may be set in a drawing buffer. Alternatively, four or more buffers may be used.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

描画部120は、テクスチャマッピング処理や隠面消去処理やαブレンディング処理を行うことができる。   The drawing unit 120 can perform texture mapping processing, hidden surface removal processing, and α blending processing.

ここでテクスチャマッピング処理は、テクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理である。具体的には、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部174からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。   Here, the texture mapping process is a process of mapping a texture (texel value) stored in the texture storage unit 174 to an object. Specifically, the texture (surface properties such as color and α value) is read from the texture storage unit 174 using the texture coordinates set (given) at the vertices of the object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to the object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.

また隠面消去処理は、例えば、各ピクセルのZ値(奥行き情報)が格納されているZバッファ176(奥行きバッファ)を用いるZバッファ法(奥行き比較法、Zテスト)により実現される。即ちオブジェクトのプリミティブ面の各ピクセルを描画する際に、Zバッファ176に格納されているZ値を参照する。そして参照されたZバッファ176のZ値と、プリミティブ面の描画対象ピクセルでのZ値とを比較し、プリミティブ面のZ値が、仮想カメラから見て手前側となるZ値(例えば大きなZ値)である場合には、そのピクセルの描画処理を行うと共にZバッファ176のZ値を新たなZ値に更新する。   The hidden surface removal processing is realized by, for example, a Z buffer method (depth comparison method, Z test) using a Z buffer 176 (depth buffer) in which the Z value (depth information) of each pixel is stored. That is, when drawing each pixel on the primitive surface of the object, the Z value stored in the Z buffer 176 is referred to. Then, the Z value of the referenced Z buffer 176 is compared with the Z value at the drawing target pixel of the primitive surface, and the Z value of the primitive surface is the front side when viewed from the virtual camera (for example, a large Z value). ), The pixel drawing process is performed and the Z value of the Z buffer 176 is updated to a new Z value.

またαブレンディング処理は、α値(A値)に基づいて行う処理であり、通常αブレンディング、加算αブレンディング或いは減算αブレンディングなどがある。なおα値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、半透明度(透明度、不透明度と等価)情報、マスク情報、或いはバンプ情報などとして使用できる。   The α blending process is a process performed based on the α value (A value), and includes normal α blending, addition α blending, subtraction α blending, and the like. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as translucency (equivalent to transparency and opacity) information, mask information, or bump information.

描画部120は、オーバードライブエフェクト処理部122を含む。オーバードライブエフェクト処理部122は、ソフトウェアによるオーバードライブエフェクト処理を行う。具体的には、描画部120がオブジェクトを、第1、第2、第3のバッファ171、172、173のいずれかのバッファに描画して画像データ(元画像のデータ)を生成すると、オーバードライブエフェクト処理部122は、生成された画像データ(デジタルデータ)に対して、オーバードライブエフェクト処理を行い、表示部190に出力するための画像データを生成する。即ちオーバードライブエフェクト処理が行われた画像データ(デジタルデータ)を、第1、第2、第3のバッファ171、172、173のうち表示バッファに設定されたバッファに書き込む。   The drawing unit 120 includes an overdrive effect processing unit 122. The overdrive effect processing unit 122 performs overdrive effect processing by software. Specifically, when the drawing unit 120 draws the object in one of the first, second, and third buffers 171, 172, and 173 to generate image data (original image data), the overdrive is performed. The effect processing unit 122 performs overdrive effect processing on the generated image data (digital data), and generates image data to be output to the display unit 190. That is, the image data (digital data) that has been subjected to the overdrive effect process is written into the buffer set as the display buffer among the first, second, and third buffers 171, 172, and 173.

更に具体的にはオーバードライブエフェクト処理部122は、第Kのフレーム(現在のフレーム)で生成された画像データIMKと、第J(K>J)のフレーム(前のフレーム、過去のフレーム)においてオブジェクトを描画することで生成された画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行うことで、オーバードライブエフェクト処理が行われた画像データを生成する。例えばオーバードライブエフェクト処理部122は、α値が設定された画面サイズ又は分割画面サイズのプリミティブ面(スプライト、ポリゴン)に、画像データIMKのテクスチャをマッピングする。そしてテクスチャがマッピングされたプリミティブ面を、画像データIMJが描画されているバッファ(表示バッファ)に対してαブレンディング描画する。この場合に、設定値ASの2倍の値がソースα値Aとして設定される2倍値モードでAS=(1+α)/2を設定する。また設定値BSが固定のディスティネーションα値Bとして設定される固定値モードでBS=αを設定する。そしてIMK×A−IMJ×B=IMK×(2×AS)−IMJ×BS=IMK×(1+α)−IMJ×αの減算αブレンディング描画を行い、オーバードライブエフェクト処理が行われた画像データを生成する。   More specifically, the overdrive effect processing unit 122 uses the image data IMK generated in the Kth frame (current frame) and the Jth (K> J) frame (previous frame, past frame). Based on the image data IMJ generated by drawing the object and the α value α, the α blending process of IMK + (IMK−IMJ) × α is performed to obtain the image data subjected to the overdrive effect process. Generate. For example, the overdrive effect processing unit 122 maps the texture of the image data IMK onto a primitive surface (sprite, polygon) having a screen size or a divided screen size for which an α value is set. The primitive surface to which the texture is mapped is subjected to α blending drawing with respect to a buffer (display buffer) in which the image data IMJ is drawn. In this case, AS = (1 + α) / 2 is set in the double value mode in which a value twice the set value AS is set as the source α value A. Also, BS = α is set in a fixed value mode in which the set value BS is set as a fixed destination α value B. Then, IMK * A-IMJ * B = IMK * (2 * AS) -IMJ * BS = IMK * (1+ [alpha])-IMJ * [alpha] blending is performed to generate image data subjected to overdrive effect processing To do.

またオーバードライブエフェクト処理部122は、第Kのフレームでは、オブジェクトを第1のバッファ171に描画して画像データIMKを生成する。そして生成された画像データIMKと、第2のバッファ172に書き込まれている第Jのフレームでの画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行い、第2のバッファ172に書き込む。また第Lのフレームでは、オブジェクトを第3のバッファ173に描画して画像データIMLを生成する。そして生成された画像データIMLと、第1のバッファ171に書き込まれている第Kのフレームでの画像データIMKと、α値αとに基づいて、IML+(IML−IMK)×αのαブレンディング処理を行い、第1のバッファ171に書き込む。また第Mのフレームでは、オブジェクトを第2のバッファ172に描画して画像データIMMを生成する。そして生成された画像データIMMと、第3のバッファ173に書き込まれている第Lのフレームでの画像データIMLと、α値αとに基づいて、IMM+(IMM−IML)×αのαブレンディング処理を行い、第3のバッファ173に書き込む。   The overdrive effect processing unit 122 draws the object in the first buffer 171 to generate image data IMK in the Kth frame. Then, based on the generated image data IMK, the image data IMJ in the Jth frame written in the second buffer 172, and the α value α, α blending processing of IMK + (IMK−IMJ) × α And write to the second buffer 172. In the Lth frame, the object is drawn in the third buffer 173 to generate image data IML. Based on the generated image data IML, the image data IMK in the Kth frame written in the first buffer 171 and the α value α, α blending processing of IML + (IML−IMK) × α is performed. And write to the first buffer 171. In the Mth frame, the object is drawn in the second buffer 172 to generate image data IMM. Then, based on the generated image data IMM, the image data IML in the Lth frame written in the third buffer 173, and the α value α, α blending processing of IMM + (IMM−IML) × α And write to the third buffer 173.

なお第1、第2、第3のバッファ171、172、173のうち描画バッファに設定されたバッファに生成される元画像のデータは、例えば、Z値を格納するZバッファ176を用いて隠面消去を行いながらオブジェクト(プリミティブ面)を描画することで生成されるものである。   Note that the original image data generated in the buffer set as the drawing buffer among the first, second, and third buffers 171, 172, and 173 is, for example, a hidden surface using a Z buffer 176 that stores Z values. It is generated by drawing an object (primitive surface) while erasing.

なお、本実施形態の画像生成システムは、1人のプレイヤのみがプレイできるシングルプレイヤモード専用のシステムにしてもよいし、複数のプレイヤがプレイできるマルチプレイヤモードも備えるシステムにしてもよい。また複数のプレイヤがプレイする場合に、これらの複数のプレイヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 オーバードライブエフェクト処理の原理
本実施形態のオーバードライブエフェクト処理の原理について説明する。図2(A)(B)において、あるピクセルに着目した場合に、前の第Jのフレームでの画像データ(デジタル画像データ値)がIMJであり、現在の第Kのフレームでの画像データがIMKであったとする。この場合に、表示部190の応答速度が十分に速ければ、第Kのフレームにおいて、正しい画像データ(色データ)IMKを表示バッファ(表示バッファに設定されるバッファ)に書き込むことで、表示部190における対応するピクセルの輝度は、IMKにより設定されるべき輝度になる。
2. 2. Method of this Embodiment 2.1 Principle of Overdrive Effect Processing The principle of overdrive effect processing according to this embodiment will be described. 2A and 2B, when attention is paid to a certain pixel, the image data (digital image data value) in the previous J-th frame is IMJ, and the image data in the current K-th frame is Suppose that it was IMK. In this case, if the response speed of the display unit 190 is sufficiently high, the correct image data (color data) IMK is written in the display buffer (buffer set in the display buffer) in the Kth frame, whereby the display unit 190 is displayed. The brightness of the corresponding pixel in is the brightness to be set by IMK.

ところが、表示部190が液晶表示装置等である場合には、液晶の応答速度が遅いため、正しい画像データIMKを書き込んでも、表示部190における対応するピクセルの輝度が、IMKにより設定されるべき輝度にならない場合がある。例えば図2(A)の場合ではIMKにより設定されるべき輝度よりも暗くなり、図2(B)の場合ではIMKにより設定されるべき輝度よりも明るくなってしまう。この結果、残像感が出たり動画がぼやけて見える問題が生じる。   However, when the display unit 190 is a liquid crystal display device or the like, the response speed of the liquid crystal is slow. Therefore, even if correct image data IMK is written, the luminance of the corresponding pixel in the display unit 190 should be set by the IMK. It may not be. For example, in the case of FIG. 2A, the brightness is darker than the brightness to be set by IMK, and in the case of FIG. 2B, the brightness is brighter than the brightness to be set by IMK. As a result, there arises a problem that a feeling of afterimage appears or the moving image looks blurred.

この場合、表示部190がハードウェアのオーバードライブ回路を備えていれば、このような残像感の問題を防止できる。しかしながら、携帯型ゲーム装置の液晶表示装置の多くは、このようなオーバードライブ回路を備えていない。また家庭用ゲーム装置では、ゲーム装置本体に対して様々なタイプの表示部(表示装置)が接続される可能性がある。例えばブラウン管テレビが接続されたり、液晶テレビが接続される。またオーバードライブ回路を内蔵する液晶テレビが接続されたり、内蔵しない液晶テレビが接続される。   In this case, if the display unit 190 includes a hardware overdrive circuit, such a problem of afterimage can be prevented. However, many liquid crystal display devices of portable game devices do not include such an overdrive circuit. In a home game machine, various types of display units (display devices) may be connected to the game machine body. For example, a cathode ray tube television or a liquid crystal television is connected. In addition, a liquid crystal television with a built-in overdrive circuit is connected, or a liquid crystal television without a built-in circuit is connected.

そして表示部190が、ハードウェアのオーバードライブ回路を備えていないと、残像感が目立ってしまい、生成されるゲーム画像の画質が劣化する。特に複数のオブジェクト(表示物)が高速に画面上で移動するゲーム画像では、オブジェクトの輪郭がぼやけてしまい、プレーヤのゲームプレイに支障を与える可能性がある。   If the display unit 190 does not include a hardware overdrive circuit, the afterimage is noticeable and the quality of the generated game image deteriorates. In particular, in a game image in which a plurality of objects (display objects) move on the screen at high speed, the outline of the object is blurred, which may hinder the game play of the player.

そこで本実施形態では、ソフトウェアによるオーバードライブエフェクト処理を行うことで、このような問題を解決している。即ち通常ならば、オブジェクトを描画することで生成された画像データ(元画像データ)は、そのまま表示部190に出力される。これに対して本実施形態では、オブジェクトの描画により生成された画像データに対して、ポストフィルタ処理としてのソフトウェアによるオーバードライブエフェクト処理を行う。具体的には図2(A)では、差分画像データIMK−IMJが正の値であるため、オーバードライブエフェクト処理後の画像データIMODKをIMKよりも大きな値に設定し、正方向へのオーバードライブエフェクト処理を行う。また図2(B)では差分画像データIMK−IMJが負の値であるため、オーバードライブエフェクト処理後の画像データIMODKをIMKよりも小さな値に設定し、負方向へのオーバードライブエフェクト処理を行う。そしてオーバードライブエフェクト処理後の画像データを表示バッファに書き込み、表示部190に出力する。   Therefore, in this embodiment, such a problem is solved by performing overdrive effect processing by software. That is, normally, image data (original image data) generated by drawing an object is output to the display unit 190 as it is. On the other hand, in this embodiment, overdrive effect processing by software as post-filter processing is performed on image data generated by drawing an object. Specifically, in FIG. 2A, since the difference image data IMK-IMJ is a positive value, the image data IMODK after the overdrive effect processing is set to a value larger than IMK, and the overdrive in the positive direction is performed. Perform effect processing. In FIG. 2B, since the difference image data IMK-IMJ has a negative value, the image data IMODK after the overdrive effect processing is set to a value smaller than IMK, and the overdrive effect processing in the negative direction is performed. . Then, the image data after the overdrive effect processing is written into the display buffer and output to the display unit 190.

このようにすれば、表示部190がハードウェアのオーバードライブ回路を備えていなくても、液晶等の応答速度を向上でき、残像感を低減できる。   In this way, even if the display unit 190 does not include a hardware overdrive circuit, the response speed of the liquid crystal or the like can be improved and the afterimage can be reduced.

なお本実施形態のオーバードライブエフェクト処理とは異なる処理として、フリッカーフリー等のために用いられるぼかし処理(ブラー処理)がある。このぼかし処理では図2(C)に示すように、第J、第Kのフレームでの画像データIMJ、IMKをブレンドして、IMJとIMKの中間の画像データIMBKを生成する。   Note that there is a blurring process (blurring process) used for flicker free or the like as a process different from the overdrive effect process of the present embodiment. In this blurring process, as shown in FIG. 2C, image data IMJ and IMK in the Jth and Kth frames are blended to generate intermediate image data IMBK between IMJ and IMK.

これに対してオーバードライブエフェクト処理では図2(C)に示すように、IMKを越えたIMODK=IMK+(IMK−IMJ)×K1の画像データを生成する。即ち、現在のフレームの画像データIMKと前のフレームの画像データIMJの差分画像データIMK−IMJを求め、差分画像データIMK−IMJにエフェクト強度係数K1(α値)を乗算したものを、現在のフレームの画像データIMKに加算する処理を行って、IMODKを生成する。このようにすれば、IMKを越えたIMODKが目標値として設定されるため、液晶の反応速度が遅い場合でも、表示部190における対応する画素の輝度を、IMKに応じた輝度に設定できるようになる。   On the other hand, in the overdrive effect process, as shown in FIG. 2C, image data of IMODK = IMK + (IMK−IMJ) × K1 exceeding the IMK is generated. That is, the difference image data IMK-IMJ between the image data IMK of the current frame and the image data IMJ of the previous frame is obtained, and the difference image data IMK-IMJ multiplied by the effect intensity coefficient K1 (α value) A process of adding to the frame image data IMK is performed to generate IMODK. In this way, since IMODK exceeding IMK is set as the target value, the luminance of the corresponding pixel in the display unit 190 can be set to luminance according to IMK even when the reaction speed of the liquid crystal is slow. Become.

2.2 オーバードライブエフェクト処理の詳細
次に本実施形態のオーバードライブエフェクト処理の詳細について図3、図4の動作フロー図を用いて説明する。例えばオブジェクトOBが図5(A)(B)、図6(A)に示すように移動したとする。なお図5(A)(B)、図6(A)は、各々、第1のフレーム(広義には第Jのフレーム)、第2のフレーム(広義には第Kのフレーム)、第3のフレーム(広義には第Lのフレーム)での画像である。
2.2 Details of Overdrive Effect Processing Next, details of the overdrive effect processing of the present embodiment will be described with reference to operation flowcharts of FIGS. For example, it is assumed that the object OB has moved as shown in FIGS. 5 (A), 5 (B), and 6 (A). 5A, 6B, and 6A are respectively a first frame (Jth frame in a broad sense), a second frame (Kth frame in a broad sense), and a third frame. It is an image in a frame (Lth frame in a broad sense).

ここで画像データ(色データ、輝度)の最大値を「100」とし、最小値を「0」とした場合に、オブジェクトOBの画像データの値は中間色である「70」になっており、背景領域の画像データの値は中間色である「50」になっている。そして、このオブジェクトOBを高速に移動させて、液晶表示装置の表示部190に表示すると、図6(B)に示すような残像が発生してしまう。即ちオブジェクトOBが移動すると、図6(B)のA1に示す部分の輝度は、背景領域の画像データである「50」に対応する輝度になるはずであるが、液晶の応答速度が遅いため、「50」に対応する輝度よりも大きな輝度になってしまう。この結果、A1に示す部分に残像が発生する。A2に示す部分についても同様である。   Here, when the maximum value of the image data (color data, luminance) is “100” and the minimum value is “0”, the value of the image data of the object OB is “70”, which is an intermediate color, and the background. The value of the image data in the area is “50” which is an intermediate color. When the object OB is moved at a high speed and displayed on the display unit 190 of the liquid crystal display device, an afterimage as shown in FIG. 6B is generated. That is, when the object OB moves, the luminance of the portion indicated by A1 in FIG. 6B should be the luminance corresponding to “50” that is the image data of the background area, but the response speed of the liquid crystal is slow. The luminance is larger than the luminance corresponding to “50”. As a result, an afterimage is generated in the portion indicated by A1. The same applies to the portion indicated by A2.

このような残像の発生を防止するために、本実施形態では、図3に示すオーバードライブエフェクト処理を行っている。   In order to prevent the occurrence of such an afterimage, in this embodiment, the overdrive effect process shown in FIG. 3 is performed.

例えば第2のフレームでは、現在のフレームである第2のフレーム(第Kのフレーム)の画像データIM2から、前(過去)のフレームである第1のフレーム(第Jのフレーム)の画像データIM1を減算する差分処理を行う(ステップS1)。このようにすれば、例えば図5(A)(B)のようにオブジェクトOBが移動した場合に、図7(A)のような差分画像データ(差分マスク、差分プレーン)IM2−IM1が生成される。   For example, in the second frame, from the image data IM2 of the second frame (Kth frame) that is the current frame, the image data IM1 of the first frame (Jth frame) that is the previous (past) frame. Difference processing for subtracting is performed (step S1). In this way, for example, when the object OB moves as shown in FIGS. 5A and 5B, difference image data (difference mask, difference plane) IM2-IM1 as shown in FIG. 7A is generated. The

即ち図7(A)のB1に示す部分では、画像データがIM1=70からIM2=50に変化しているため、差分画像データはIM2−IM1=50−70=−20になる。またB2に示す部分では、IM1=70、IM2=70というように画像データが変化していないため、IM2−IM1=0になる。またB3に示す部分では、画像データがIM1=50からIM2=70に変化しているため、IM2−IM1=70−50=20になる。   That is, in the portion indicated by B1 in FIG. 7A, since the image data has changed from IM1 = 70 to IM2 = 50, the difference image data is IM2-IM1 = 50-70 = -20. In the portion indicated by B2, since the image data has not changed such as IM1 = 70 and IM2 = 70, IM2−IM1 = 0. In the portion indicated by B3, since the image data has changed from IM1 = 50 to IM2 = 70, IM2-IM1 = 70-50 = 20.

次に、差分画像データIM2−IM1にオーバードライブ用のエフェクト強度係数K1(α値)を乗算する処理を行い、(IM2−IM1)×K1を生成する(ステップS2)。   Next, a process of multiplying the difference image data IM2-IM1 by an overdrive effect intensity coefficient K1 (α value) is performed to generate (IM2-IM1) × K1 (step S2).

例えば図7(B)では、エフェクト強度係数がK1=0.5であり、このエフェクト強度係数K1が図7(A)の差分画像データに乗算されるため、C1、C2、C3に示す部分での画像データは、各々、「−10」、「0」、「10」になる。   For example, in FIG. 7B, the effect intensity coefficient is K1 = 0.5, and this effect intensity coefficient K1 is multiplied by the difference image data in FIG. 7A, so that the portions indicated by C1, C2, and C3 are shown. The image data is “−10”, “0”, and “10”, respectively.

次に、(IM2−IM1)×K1を、現在のフレームである第2のフレームの画像データIM2に対して加算する処理を行い、IM2+(IM2−IM1)×K1を生成する(ステップS3)。そして生成されたオーバードライブエフェクト処理後の画像データIMOD2=IM2+(IM2−IM1)×K1を表示部190に出力する。   Next, a process of adding (IM2−IM1) × K1 to the image data IM2 of the second frame that is the current frame is performed to generate IM2 + (IM2−IM1) × K1 (step S3). Then, the generated image data IMOD2 = IM2 + (IM2-IM1) × K1 after the overdrive effect processing is output to the display unit 190.

例えば図8(A)のD1に示す部分では、背景領域の画像データIM2=50に対して、図7(B)のC1に示す部分の画像データ(IM2−IM1)×K1=−10が加算されるため、オーバードライブエフェクト処理後の画像データはIMOD2=40になる。また図8(A)のD2に示す部分では、オブジェクトOBの画像データIM2=70に対して、図7(B)のC2に示す部分の画像データ(IM2−IM1)×K1=0が加算されるため、オーバードライブエフェクト処理後の画像データはIMOD2=70になる。また図8(A)のD3に示す部分では、オブジェクトOBの画像データIM2=70に対して、図7(B)のC3に示す部分の画像データ(IM2−IM1)×K1=10が加算されるため、オーバードライブエフェクト処理後の画像データはIMOD2=80になる。図8(A)に示すようなオーバードライブエフェクト処理後の画像データを表示部190に出力することで、残像感を低減できる。   For example, in the portion indicated by D1 in FIG. 8A, the image data (IM2-IM1) × K1 = −10 of the portion indicated by C1 in FIG. 7B is added to the image data IM2 = 50 in the background region. Therefore, the image data after the overdrive effect processing is IMOD2 = 40. Further, in the portion indicated by D2 in FIG. 8A, the image data (IM2-IM1) × K1 = 0 of the portion indicated by C2 in FIG. 7B is added to the image data IM2 = 70 of the object OB. Therefore, the image data after the overdrive effect processing is IMOD2 = 70. Further, in the portion indicated by D3 in FIG. 8A, the image data (IM2-IM1) × K1 = 10 of the portion indicated by C3 in FIG. 7B is added to the image data IM2 = 70 of the object OB. Therefore, the image data after the overdrive effect processing is IMOD2 = 80. By outputting the image data after the overdrive effect processing as shown in FIG. 8A to the display unit 190, the afterimage feeling can be reduced.

例えば図6(B)のA1に示す部分では、表示部190に出力される画像データは、背景領域の画像データである「50」になっているが、液晶の応答速度が遅いため、残像が発生している。これに対して本実施形態では、図8(B)のD1に示す部分において、背景領域の画像データ「50」よりも小さな画像データ「40」が表示部190に出力される。従って、D1の部分では図2(B)に示す負方向へのオーバードライブエフェクト処理が行われ、図6(B)のA1に示すような残像の発生を軽減できる。   For example, in the part indicated by A1 in FIG. 6B, the image data output to the display unit 190 is “50”, which is the image data of the background area, but the afterimage is generated because the response speed of the liquid crystal is slow. It has occurred. On the other hand, in the present embodiment, image data “40” smaller than the image data “50” of the background area is output to the display unit 190 in the portion indicated by D1 in FIG. Accordingly, in the portion D1, the overdrive effect processing in the negative direction shown in FIG. 2B is performed, and the occurrence of an afterimage as shown in A1 in FIG. 6B can be reduced.

次の第3のフレームでは、第3のフレーム(第Lのフレーム)の画像データIM3から、第2のフレーム(第Kのフレーム)の画像データIM2を減算する差分処理を行う(ステップS4)。そして、得られた差分画像データIM3−IM2にオーバードライブ用のエフェクト強度係数K1を乗算する処理を行う(ステップS5)。   In the next third frame, a difference process is performed to subtract the image data IM2 of the second frame (Kth frame) from the image data IM3 of the third frame (Lth frame) (step S4). Then, a process of multiplying the obtained difference image data IM3-IM2 by an overdrive effect intensity coefficient K1 is performed (step S5).

次に、生成された(IM3−IM2)×K1を、第3のフレームの画像データIM3に対して加算する処理を行う(ステップS6)。そして生成されたオーバードライブエフェクト処理後の画像データIMOD3=IM3+(IM3−IM2)×K1を表示部190に出力する。   Next, a process of adding the generated (IM3-IM2) × K1 to the image data IM3 of the third frame is performed (step S6). Then, the generated image data IMOD3 = IM3 + (IM3−IM2) × K1 after the overdrive effect processing is output to the display unit 190.

ところで、液晶の応答速度が極めて遅い場合には、1フレーム分の差分画像データに基づくオーバードライブエフェクト処理では、残像の軽減に不十分な場合がある。   By the way, when the response speed of the liquid crystal is extremely slow, the overdrive effect processing based on the difference image data for one frame may be insufficient for reducing the afterimage.

そこで図4の動作フローでは、過去のフレームでの差分画像データに基づき得られる差分和らげ処理用の画像データを保存しておき、現在のフレームでの差分画像データと、保存しておいた差分和らげ処理用の画像データとに基づいて、オーバードライブエフェクト処理を行っている。   Therefore, in the operation flow of FIG. 4, the image data for difference reduction processing obtained based on the difference image data in the past frame is saved, and the difference image data in the current frame and the saved difference reduction data are saved. Overdrive effect processing is performed based on the image data for processing.

例えば図4に示すように、第2のフレームでは、差分処理(ステップS11)、乗算処理(ステップS12)を行って、(IM2−IM1)×K1を生成する。そして、この(IM2−IM1)×K1に対して、差分和らげ処理用のエフェクト強度係数を乗算して、差分和らげ処理用の画像データ(IM2−IM1)×K2を生成する(ステップS13)。ここでK1>K2となっている。そして生成された差分和らげ処理用の画像データ(IM2−IM1)×K2は保存される。   For example, as shown in FIG. 4, in the second frame, difference processing (step S11) and multiplication processing (step S12) are performed to generate (IM2-IM1) × K1. Then, this (IM2−IM1) × K1 is multiplied by the effect intensity coefficient for difference reduction processing to generate image data (IM2−IM1) × K2 for difference reduction processing (step S13). Here, K1> K2. Then, the generated image data (IM2-IM1) × K2 for difference easing processing is stored.

例えば図8(B)では、図7(B)のC1、C2、C3に示す画像データ「−10]、「0」、「10」に対して、差分和らげ処理用のエフェクト強度係数が乗算されて、E1、E2、E3に示すような差分和らげ処理用の画像データ「−2」、「0」、「2」が生成されている。なお図7(A)の差分画像データから差分和らげ処理用の画像データを生成するようにしてもよい。   For example, in FIG. 8B, the image data “−10”, “0”, and “10” shown in C1, C2, and C3 in FIG. 7B are multiplied by the effect intensity coefficient for difference reduction processing. Thus, image data “−2”, “0”, and “2” for difference smoothing processing as indicated by E1, E2, and E3 are generated. It should be noted that image data for difference easing processing may be generated from the difference image data in FIG.

次の第3のフレームでは、差分処理を行って、図9(A)に示すような差分画像データを生成する(ステップS15)。そしてオーバードライブ用のエフェクト強度係数の乗算処理を行って、図9(B)に示すような画像データ(IM3−IM2)×K1を生成する(ステップS16)。   In the next third frame, difference processing is performed to generate difference image data as shown in FIG. 9A (step S15). Then, the overdrive effect intensity coefficient is multiplied to generate image data (IM3-IM2) × K1 as shown in FIG. 9B (step S16).

次に、生成された画像データ(IM3−IM2)×K1に対して、保存しておいた差分和らげ処理用の画像データ(IM2−IM1)×K2を加算(或いは減算)する処理を行い、(IM3−IM2)×K1+(IM2−IM1)×K2を生成する(ステップS17)。即ち図9(B)の画像データに、図8(B)の差分和らげ処理用の画像データを加算(或いは減算)する。これにより図10(A)に示すような画像データ(マスク)が生成される。即ちF1に示す部分では0−2=−2になり、F2に示す部分では−10+0=−10になり、F3に示す部分では−10+2=−8になる。またF4に示す部分では、0+2=2になり、F5に示す部分では10+0=10になる。   Next, a process of adding (or subtracting) the stored image data (IM2-IM1) × K2 for difference reduction processing to the generated image data (IM3-IM2) × K1, IM3-IM2) * K1 + (IM2-IM1) * K2 is generated (step S17). That is, the image data for difference smoothing processing in FIG. 8B is added (or subtracted) to the image data in FIG. 9B. As a result, image data (mask) as shown in FIG. 10A is generated. That is, 0-2 = -2 in the portion indicated by F1, -10 + 0 = -10 in the portion indicated by F2, and -10 + 2 = -8 in the portion indicated by F3. In the portion indicated by F4, 0 + 2 = 2, and in the portion indicated by F5, 10 + 0 = 10.

次に、生成された(IM3−IM2)×K1+(IM2−IM1)×K2を、第3のフレームの画像データIM3に対して加算する処理を行う(ステップS18)。そして生成されたオーバードライブエフェクト処理後の画像データIMOD3=IM3+(IM3−IM2)×K1+(IM2−IM1)×K2を表示部190に出力する。即ち図10(B)に示すようなオーバードライブエフェクト処理後の画像データIMOD3を出力する。また(IM3−IM2)×K1+(IM2−IM1)×K2に対して差分和らげ処理用のエフェクト強度係数を乗算する処理を行う(ステップS19)。   Next, the generated (IM3−IM2) × K1 + (IM2−IM1) × K2 is added to the image data IM3 of the third frame (step S18). Then, the generated image data IMOD3 = IM3 + (IM3−IM2) × K1 + (IM2−IM1) × K2 after the overdrive effect processing is output to the display unit 190. That is, the image data IMOD3 after the overdrive effect processing as shown in FIG. Further, a process of multiplying (IM3−IM2) × K1 + (IM2−IM1) × K2 by an effect intensity coefficient for difference reduction processing is performed (step S19).

図4に示すような差分和らげ処理を行えば、過去の差分画像データの効果が和らげて適用されるオーバードライブエフェクト処理を実現できる。即ち、液晶の応答速度が極めて遅い場合に、この差分和らげ処理を行わないと、図10(B)のG1に示す部分に残像が残る可能性がある。これに対して、差分和らげ処理を行えばG1等に示す部分でのオーバードライブエフェクト処理も実現できる。例えばG1に示す部分では、負方向に「−2」のオーバードライブエフェクト処理が行われて、残像の発生が低減される。   If the difference reduction process as shown in FIG. 4 is performed, an overdrive effect process to which the effect of the past difference image data is applied can be realized. In other words, when the response speed of the liquid crystal is extremely slow, an afterimage may remain in a portion indicated by G1 in FIG. On the other hand, if the difference easing process is performed, an overdrive effect process at a portion indicated by G1 or the like can be realized. For example, in the portion indicated by G1, overdrive effect processing of “−2” is performed in the negative direction, and the occurrence of afterimages is reduced.

なお図4では、差分和らげ処理用の画像データとして(IM2−IM1)×K2を保存しているが、本実施形態はこれに限定されない。即ち、保存する差分和らげ処理用の画像データは、差分画像データIM2−IM1に基づき得られる画像データであればよく、例えば差分画像データIM2−IM1そのものを保存したり、差分画像データにオーバードライブ用のエフェクト強度係数を乗算した(IM2−IM1)×K1を保存してもよい。   In FIG. 4, (IM2−IM1) × K2 is stored as the image data for difference smoothing processing, but the present embodiment is not limited to this. In other words, the image data for difference softening processing to be stored may be image data obtained based on the difference image data IM2-IM1, for example, the difference image data IM2-IM1 itself is stored, or the difference image data is used for overdrive. (IM2−IM1) × K1 obtained by multiplying the effect intensity coefficients may be stored.

また本実施形態のオーバードライブエフェクト処理は、画像プレーン単位で行ってもよいし、ピクセル単位で行ってもよい。例えば図11にピクセル単位で行う場合のオーバードライブエフェクト処理の例を示す。   Further, the overdrive effect processing of the present embodiment may be performed in units of image planes or in units of pixels. For example, FIG. 11 shows an example of overdrive effect processing in the case where the processing is performed in pixel units.

まず、処理対象となるピクセルの現在のフレームでの画像データと前のフレームでの画像データとの差分値を求める(ステップS21)。そして差分値が0か否かを判断し(ステップS22)、差分値が0である場合には、現在のフレームでの画像データを、表示バッファの対応するピクセルに書き込む(ステップS23)。一方、差分値が0ではない場合には、差分値に基づいてオーバードライブエフェクト処理を行い、オーバードライブエフェクト処理後の画像データを求める(ステップS24)。そしてオーバードライブエフェクト処理後の画像データを、表示バッファの対応するピクセルに書き込む(ステップS25)。次に、全てのピクセルについての処理が完了したか否かを判断し(ステップS26)、完了していない場合にはステップS21に戻り次のピクセルの処理に移行する。一方、完了した場合には処理を終了する。   First, a difference value between the image data in the current frame of the pixel to be processed and the image data in the previous frame is obtained (step S21). Then, it is determined whether or not the difference value is 0 (step S22). If the difference value is 0, the image data in the current frame is written in the corresponding pixel of the display buffer (step S23). On the other hand, if the difference value is not 0, overdrive effect processing is performed based on the difference value, and image data after the overdrive effect processing is obtained (step S24). Then, the image data after the overdrive effect processing is written into the corresponding pixel of the display buffer (step S25). Next, it is determined whether or not the processing has been completed for all the pixels (step S26). If not, the processing returns to step S21 and proceeds to the processing for the next pixel. On the other hand, if it is completed, the process is terminated.

また図3、図4ではエフェクト強度係数が一定値であるとして説明したが、本実施形態はこれに限定されず、エフェクト強度係数を可変値にしてもよい。例えば、差分画像データの値(絶対値)が大きくなるほど大きくなるエフェクト強度係数(α値)に基づいて、オーバードライブエフェクト処理を行ってもよい。   3 and 4, the effect intensity coefficient is described as being a constant value. However, the present embodiment is not limited to this, and the effect intensity coefficient may be a variable value. For example, overdrive effect processing may be performed based on an effect intensity coefficient (α value) that increases as the value (absolute value) of difference image data increases.

具体的には図12に示すような差分画像データ値とエフェクト強度係数(α値)を関連づけるテーブルを用意する。そして求められた差分画像データ値に基づいて図12のテーブルからエフェクト強度係数を参照する。そして図3のステップS2、S5や図4のステップS12、S16等では、参照されたエフェクト強度係数を差分画像データに乗算する。このようにすれば、例えば差分画像データ値が大きくなればなるほど、オーバードライブエフェクト処理の効果が大きくなる。従って液晶の応答速度が遅い場合にも、残像等の発生を最小限に抑えることが可能になる。   Specifically, a table associating the difference image data value with the effect intensity coefficient (α value) as shown in FIG. 12 is prepared. Based on the obtained difference image data value, the effect intensity coefficient is referred to from the table of FIG. Then, in steps S2 and S5 in FIG. 3, steps S12 and S16 in FIG. 4, etc., the referenced effect intensity coefficient is multiplied by the difference image data. In this way, for example, as the difference image data value increases, the effect of the overdrive effect processing increases. Therefore, even when the response speed of the liquid crystal is slow, it is possible to minimize the occurrence of afterimages.

2.3 オーバードライブエフェクト処理の実現手法
次に本実施形態のオーバードライブエフェクト処理の実現手法について説明する。この実現手法ではαブレンディング処理を行ってオーバードライブエフェクト処理を実現している。即ちエフェクト強度係数としてα値を用いる。更に具体的には、第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいてオブジェクトを描画することで生成された画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行う。
2.3 Method for Realizing Overdrive Effect Processing Next, a method for realizing overdrive effect processing according to the present embodiment will be described. In this implementation method, α blending processing is performed to realize overdrive effect processing. That is, the α value is used as the effect intensity coefficient. More specifically, based on the image data IMK generated in the Kth frame, the image data IMJ generated by drawing the object in the Jth (K> J) frame, and the α value α. , IMK + (IMK−IMJ) × α is blended.

例えば図13(A)において、第1のフレーム(第Jのフレーム)では、オブジェクトを描画することで第1のフレームでの画像データIM1を生成する。次の第2のフレーム(第Kのフレーム)では、オブジェクトを描画することで第2のフレームでの画像データIM2を生成する。そして画像データIM2、IM1とα値αとに基づいて、αブレンディング処理を行うことで、オーバードライブエフェクト処理が行われた画像データIMOD2=IM2+(IM2−IM1)×αの画像データを生成する。そして生成された画像データIMOD2を表示部に出力する。   For example, in FIG. 13A, in the first frame (Jth frame), the image data IM1 in the first frame is generated by drawing an object. In the next second frame (Kth frame), the image data IM2 in the second frame is generated by drawing the object. Based on the image data IM2 and IM1 and the α value α, α blending processing is performed to generate image data IMOD2 = IM2 + (IM2−IM1) × α on which overdrive effect processing has been performed. Then, the generated image data IMOD2 is output to the display unit.

この実現手法によれば、元画像データに対してαブレンディング処理を行うだけで、オーバードライブエフェクト処理が行われた画像データを生成できる。従って、処理負荷が軽いという利点がある。   According to this realization method, the image data subjected to the overdrive effect process can be generated only by performing the α blending process on the original image data. Therefore, there is an advantage that the processing load is light.

即ち図14に示すように、頂点等にα値が設定された画面サイズ又は分割画面サイズのプリミティブ面PL(スプライト、ポリゴン)に、画像データIM2(IMK)のテクスチャをマッピングする。そして、テクスチャがマッピングされたプリミティブ面PLを、画像データIM1(IMJ)が描画されているバッファ(例えば表示バッファ)に対してαブレンディング描画することで、オーバードライブエフェクト処理が行われた画像データIMOD2=IM2+(IM2−IM1)×αを生成する。このようにすれば、例えば1回のテクスチャマッピングでオーバードライブエフェクト処理を実現でき、処理負荷を軽減できる。また、通常、この種の画像生成システムはテクスチャマッピング機能を有している。従って、本実施形態の実現手法によれば、表示部がハードウェアのオーバードライブ回路を有していなくても、このテクスチャマッピング機能を有効利用してオーバードライブエフェクト処理を実現できるという利点がある。   That is, as shown in FIG. 14, the texture of the image data IM2 (IMK) is mapped to a primitive surface PL (sprite, polygon) having a screen size or a divided screen size in which an α value is set at a vertex or the like. Then, the image data IMOD2 on which the overdrive effect processing has been performed is performed by subjecting the primitive surface PL to which the texture is mapped to α blending to a buffer (for example, a display buffer) in which the image data IM1 (IMJ) is drawn. = IM2 + (IM2-IM1) × α is generated. In this way, for example, overdrive effect processing can be realized by one texture mapping, and the processing load can be reduced. In general, this type of image generation system has a texture mapping function. Therefore, according to the realization method of the present embodiment, there is an advantage that even if the display unit does not have a hardware overdrive circuit, overdrive effect processing can be realized by effectively using this texture mapping function.

さて、αブレンディング処理は、半透明処理やぼかし(ブラー)処理のために用意されている。即ち図2(C)において、画像データIMKとIMJの中間の画像データIMBKを求めるために用意される。従って、画像生成システムのブレンディング回路において、IM2+(IM2−IM1)×αという式を設定できない場合があり、このような画像生成システムでは、IMOD2=IM2+(IM2−IM1)×αで表されるオーバードライブエフェクト処理を実現することが難しい。   The α blending process is prepared for a translucent process and a blur process. That is, in FIG. 2C, it is prepared for obtaining image data IMBK intermediate between the image data IMK and IMJ. Therefore, in the blending circuit of the image generation system, there is a case where the formula IM2 + (IM2−IM1) × α cannot be set. In such an image generation system, overexpression represented by IMOD2 = IM2 + (IM2−IM1) × α. It is difficult to realize drive effect processing.

例えば画像生成システムにおいて許容されるαブレンディングの式が、加算αブレンディングの式であるCS×A+CD×Bと、減算αブレンディングの式であるCS×A−CD×Bであったとする。   For example, let us say that the α blending expression allowed in the image generation system is CS × A + CD × B, which is an addition α blending expression, and CS × A−CD × B, which is a subtraction α blending expression.

この場合に図13(B)の手法では、αブレンディングの式として、CS×A−CD×Bの減算αブレンディングの式を設定する。また設定値ASの2倍の値がソースα値Aとして設定される2倍値モードでASを設定する。具体的にはAS=(1+α)/2に設定する。また設定値BSが固定のディスティネーションα値Bとして設定される固定値モードでBSを設定する。具体的には、ディスティネーションα値のレジスタにBS=αを設定する。またソース色CSとしてIM2を設定し、ディスティネーション色CDとしてIM1を設定する。   In this case, in the method of FIG. 13B, a CS × A−CD × B subtractive α blending equation is set as the α blending equation. Also, AS is set in a double value mode in which a value twice the set value AS is set as the source α value A. Specifically, AS = (1 + α) / 2 is set. The BS is set in a fixed value mode in which the set value BS is set as a fixed destination α value B. Specifically, BS = α is set in the register of the destination α value. Also, IM2 is set as the source color CS, and IM1 is set as the destination color CD.

このようにしてαブレンディング処理を行えば、
CS×A−CD×B=CS×(2×AS)−CD×BS
=CS×(1+α)−CD×α
=CS+(CS−CD)×α
=IM2+(IM2−IM1)×α
となるため、オーバードライブエフェクト処理を実現できる。即ち画像生成システムのαブレンディングの式としてIM2+(IM2−IM1)×αの式が用意されていなくても、CS×A−CD×Bで表される一般的な減算αブレンディングの式を利用して、オーバードライブエフェクト処理を実現できる。
If α blending is performed in this way,
CS * A-CD * B = CS * (2 * AS) -CD * BS
= CS × (1 + α) −CD × α
= CS + (CS-CD) × α
= IM2 + (IM2-IM1) × α
Therefore, overdrive effect processing can be realized. In other words, even if the formula of IM2 + (IM2-IM1) × α is not prepared as an α blending formula of the image generation system, a general subtractive α blending formula represented by CS × A−CD × B is used. Overdrive effect processing can be realized.

また本実施形態のオーバードライブエフェクト処理はトリプルバッファを用いて実現してもよい。   Further, the overdrive effect processing of the present embodiment may be realized using a triple buffer.

例えば図15において、第1のフレーム(第Jのフレーム)では、オブジェクト(1又は複数のオブジェクト)をバッファ2(画像バッファ)に描画することで、画像データIM1(IMJ)を生成する。   For example, in FIG. 15, in the first frame (Jth frame), image data IM1 (IMJ) is generated by drawing an object (one or a plurality of objects) in the buffer 2 (image buffer).

次の第2のフレーム(第Kのフレーム)では、オブジェクトをバッファ1に描画して画像データIM2(IMK)を生成する。そして、生成された画像データIM2と、バッファ2に書き込まれている第1のフレームでの画像データIM1と、α値αとに基づいて、αブレンディング処理を行う。そしてオーバードライブエフェクト処理後の画像データIMOD2=IM2+(IM2−IM1)×αをバッファ2に書き込む。   In the next second frame (Kth frame), the object is drawn in the buffer 1 to generate image data IM2 (IMK). Then, α blending is performed based on the generated image data IM2, the image data IM1 in the first frame written in the buffer 2, and the α value α. Then, the image data IMOD2 = IM2 + (IM2-IM1) × α after the overdrive effect processing is written in the buffer 2.

次の第3のフレーム(第Lのフレーム)では、オブジェクトをバッファ3に描画して画像データIM3(IML)を生成する。そして、生成された画像データIM3と、バッファ1に書き込まれている第2のフレームでの画像データIM2と、α値αとに基づいて、αブレンディング処理を行う。そしてオーバードライブエフェクト処理後の画像データIMOD3=IM3+(IM3−IM2)×αをバッファ1に書き込む。   In the next third frame (Lth frame), an object is drawn in the buffer 3 to generate image data IM3 (IML). Then, α blending is performed based on the generated image data IM3, the image data IM2 in the second frame written in the buffer 1, and the α value α. Then, the image data IMOD3 = IM3 + (IM3−IM2) × α after the overdrive effect processing is written into the buffer 1.

図16に示すように次の第4のフレーム(第Mのフレーム)では、オブジェクトをバッファ2に描画して画像データIM4(IMM)を生成する。そして生成された画像データIM4と、バッファ3に書き込まれている第3のフレームでの画像データIM3と、α値αとに基づいて、αブレンディング処理を行う。そしてオーバードライブエフェクト処理後の画像データIMOD4=IM4+(IM4−IM3)×αをバッファ3に書き込む。   As shown in FIG. 16, in the next fourth frame (Mth frame), an object is drawn in the buffer 2 to generate image data IM4 (IMM). Then, α blending processing is performed based on the generated image data IM4, the image data IM3 in the third frame written in the buffer 3, and the α value α. Then, the image data IMOD4 = IM4 + (IM4-IM3) × α after the overdrive effect processing is written into the buffer 3.

図15、図16の手法によれば、3つのバッファ1、2、3を用意し、これらの各バッファ1、2、3の役割(描画バッファ、表示バッファ)を、各フレーム毎に順次入れ替えている。例えば第3のフレームでは、バッファ3が、オブジェクトが描画される描画バッファ(バックバッファ)に設定され、バッファ2が、表示部に出力される画像データが書き込まれる表示バッファ(フロントバッファ)に設定される。また第4のフレームでは、バッファ2が描画バッファに設定され、バッファ1が表示バッファに設定される。   15 and 16, three buffers 1, 2, and 3 are prepared, and the roles (drawing buffer and display buffer) of these buffers 1, 2, and 3 are sequentially switched for each frame. Yes. For example, in the third frame, the buffer 3 is set as a drawing buffer (back buffer) in which an object is drawn, and the buffer 2 is set as a display buffer (front buffer) in which image data output to the display unit is written. The In the fourth frame, the buffer 2 is set as a drawing buffer, and the buffer 1 is set as a display buffer.

このようにバッファ1、2、3の役割を順次入れ替えるようにすれば、バッファ間での画像データの無駄なコピー処理が不要になり、処理回数が減るため、処理負荷を軽減できる。   If the roles of the buffers 1, 2, and 3 are sequentially switched in this way, useless copy processing of image data between the buffers becomes unnecessary, and the number of processes is reduced, so that the processing load can be reduced.

なおオーバードライブエフェクト処理の実現手法として、ダブルバッファを用いる手法が考えられる。この手法では例えば、現在のフレームでの描画画像データと、前のフレームでのオーバードライブエフェクト処理後の画像データとの差分処理を行い、オーバードライブエフェクト処理を実現する。しかしながら、この手法では、オーバードライブエフェクト処理のエフェクト強度が強くなると、画面にジャギー等が発生する可能性がある。   As a method for realizing overdrive effect processing, a method using a double buffer is conceivable. In this method, for example, the difference process between the drawing image data in the current frame and the image data after the overdrive effect process in the previous frame is performed to realize the overdrive effect process. However, with this method, if the effect strength of the overdrive effect process is increased, jaggy or the like may occur on the screen.

これに対してトリプルバッファを用いる手法によれば、前のフレームでの描画画像データを保存することができ、現在のフレームでの描画画像データとこの保存しておいた描画画像データとの差分処理を行うことができる。従って正確な差分画像データを得ることができ、ジャギー等の発生を効果的に防止できる。   On the other hand, according to the technique using the triple buffer, the drawing image data in the previous frame can be saved, and the difference between the drawing image data in the current frame and the saved drawing image data is processed. It can be performed. Accordingly, accurate difference image data can be obtained, and the occurrence of jaggies and the like can be effectively prevented.

また図15、図16ではバッファ1、2、3の役割を順次入れ替える手法により、オーバードライブエフェクト処理を実現しているが、本実施形態はこれに限定されない。例えば、描画バッファ、表示バッファの他に差分値バッファを設け、この差分値バッファに差分画像データIMK−IMJを書き込む手法により、オーバードライブエフェクト処理を実現してもよい。   In FIGS. 15 and 16, overdrive effect processing is realized by a method in which the roles of the buffers 1, 2, and 3 are sequentially switched, but the present embodiment is not limited to this. For example, the overdrive effect process may be realized by providing a difference value buffer in addition to the drawing buffer and the display buffer and writing the difference image data IMK-IMJ in the difference value buffer.

次に図17、図18のフローチャートを用いて、本実施形態の実現手法の詳細な処理について説明する。   Next, detailed processing of the realization method of the present embodiment will be described using the flowcharts of FIGS. 17 and 18.

まずバッファ1を描画先に設定する(ステップS31)。そしてジオメトリ処理を行い(ステップS32)、バッファ1にジオメトリ処理後(透視変換後)のオブジェクトを描画する(ステップS33)。   First, the buffer 1 is set as a drawing destination (step S31). Then, geometry processing is performed (step S32), and the object after geometry processing (after perspective transformation) is drawn in the buffer 1 (step S33).

次にバッファ2を描画先に設定する(ステップS34)。そしてバッファ1の画像データをテクスチャに設定し(ステップS35)、テクスチャのα値を無効にするように設定する(ステップS36)。   Next, the buffer 2 is set as a drawing destination (step S34). Then, the image data in the buffer 1 is set to the texture (step S35), and the α value of the texture is set to be invalidated (step S36).

次に図13(B)で説明したように、αブレンディングの式CS×A−CD×Bを設定する(ステップS37)。即ち減算αブレンディングの式に設定する。また固定値モードでB=BS=αに設定する(ステップS38)。また2倍値モードでA=2×AS=1+αを、スプライト(プリミティブ面)のα値として設定する(ステップS39)。   Next, as described with reference to FIG. 13B, α blending formula CS × A−CD × B is set (step S37). That is, the subtraction α blending equation is set. In the fixed value mode, B = BS = α is set (step S38). In the double value mode, A = 2 × AS = 1 + α is set as the α value of the sprite (primitive surface) (step S39).

次に図14で説明したように、分割画面サイズ(或いは画面サイズ)のスプライトにバッファ1のテクスチャをマッピングし、1フレーム前の画像データが描画されているバッファ2に対し、設定されたαブレンディングの式に従ってスプライトを描画する(ステップS40)。そしてバッファ2の画像を表示部に表示する(ステップS41)。   Next, as described with reference to FIG. 14, the texture of the buffer 1 is mapped to the sprite having the divided screen size (or screen size), and the set α blending is performed on the buffer 2 in which the image data one frame before is drawn. A sprite is drawn according to the equation (step S40). Then, the image in the buffer 2 is displayed on the display unit (step S41).

次に、バッファ3をオブジェクトの描画バッファに設定し、バッファ1を表示バッファに設定して、ステップS31〜S41と同様の処理を行う(ステップS42〜S52)。次に、バッファ2をオブジェクトの描画バッファに設定し、バッファ3を表示バッファに設定して、ステップS31〜S41と同様の処理を行う(ステップS53〜S63)。このようにすることで、図15、図16で説明したようにトリプルバッファを利用したオーバードライブエフェクト処理を実現できる。   Next, the buffer 3 is set as an object drawing buffer, the buffer 1 is set as a display buffer, and the same processing as steps S31 to S41 is performed (steps S42 to S52). Next, the buffer 2 is set as an object drawing buffer, the buffer 3 is set as a display buffer, and the same processing as steps S31 to S41 is performed (steps S53 to S63). By doing so, overdrive effect processing using a triple buffer can be realized as described with reference to FIGS.

2.4 特定領域へのオーバードライブエフェクト処理
ハードウェアのオーバードライブ回路を用いてオーバードライブを行うと、表示画面の全ての領域に対してオーバードライブが掛かってしまう。
2.4 Overdrive effect processing to a specific area When overdrive is performed using a hardware overdrive circuit, overdrive is applied to all areas of the display screen.

ところが、ゲームによっては、画面内の特定のオブジェクトについてのみ、残像感を軽減できれば十分な場合がある。例えば画面内で高速に移動するキャラクタなどのオブジェクトや、残像が発生しやすい形状のオブジェクト(例えば並んで配置される柱状オブジェクト等)についてだけ、残像感を軽減できれば、十分な場合がある。このような場合に、オーバードライブエフェクト処理の対象をこのようなオブジェクトに絞れば、処理負荷の軽減を図れる可能性がある。   However, depending on the game, it may be sufficient if the afterimage feeling can be reduced only for a specific object in the screen. For example, it may be sufficient if the afterimage feeling can be reduced only for an object such as a character that moves at high speed in the screen, or an object having a shape in which an afterimage is likely to occur (for example, columnar objects arranged side by side). In such a case, if the target of overdrive effect processing is limited to such objects, the processing load may be reduced.

そこで図19(A)では、表示部の表示領域のうちの特定の領域200の画像データに対してのみ、オーバードライブエフェクト処理を行うようにしている。こうすれば、特定領域200以外では、オーバードライブエフェクト処理を行わなくて済む。従って例えばピクセルシェーダー手法によりオーバードライブエフェクト処理を実現した場合などにおいて、処理負荷を軽減することが可能になる。またオーバードライブエフェクト処理が不要な場所に、不必要にオーバードライブエフェクト処理が掛かってしまう事態も防止できる。   Therefore, in FIG. 19A, overdrive effect processing is performed only on image data in a specific area 200 in the display area of the display unit. In this way, it is not necessary to perform overdrive effect processing outside the specific area 200. Therefore, for example, when overdrive effect processing is realized by a pixel shader technique, it is possible to reduce the processing load. Further, it is possible to prevent the situation where the overdrive effect processing is unnecessarily applied to a place where the overdrive effect processing is unnecessary.

図19(A)の特定領域200は、描画バッファに描画するオブジェクトに基づき設定することができる。具体的には、複数のオブジェクト(例えば透視変換後のオブジェクト)を描画することで画像データを生成する場合には、複数のオブジェクトのうちの特定のオブジェクト(モデルオブジェクト)を内包する領域に対して、オーバードライブエフェクト処理を行うようにする。例えば図19(B)では、特定のオブジェクトOBを内包する領域200を設定する。具体的には、オブジェクト(透視変換後のオブジェクト)の頂点座標(制御点の座標)に基づいて、領域200を設定し、この領域200に対してオーバードライブエフェクト処理を行う。   The specific area 200 in FIG. 19A can be set based on an object to be drawn in the drawing buffer. Specifically, in the case where image data is generated by drawing a plurality of objects (for example, objects after perspective transformation), an area containing a specific object (model object) among the plurality of objects Execute overdrive effect processing. For example, in FIG. 19B, an area 200 containing a specific object OB is set. Specifically, an area 200 is set based on the vertex coordinates (control point coordinates) of the object (the object after perspective transformation), and overdrive effect processing is performed on the area 200.

なお、オブジェクトに対して簡易オブジェクトが設定される場合には、簡易オブジェクト(透視変換後の簡易オブジェクト)の頂点座標に基づいて、オーバードライブエフェクト処理を行う領域200を設定してもよい。即ちゲームによっては、オブジェクトに対して、その形状を簡易化した簡易オブジェクト(オブジェクトよりも頂点数が少なく、オブジェクトに追従して移動するオブジェクト)が設定される場合がある。例えば銃弾やパンチなどの攻撃がオブジェクトにヒットしたか否かのチェックは、簡易オブジェクトと銃弾やパンチとのヒットチェックを行うことで実現される。そして簡易オブジェクトの頂点座標に基づいて領域200を設定すれば、簡易オブジェクトの頂点数は少ないため、処理負荷を軽減できる。   Note that, when a simple object is set for an object, an area 200 for performing overdrive effect processing may be set based on the vertex coordinates of the simple object (simple object after perspective transformation). That is, depending on the game, a simple object (an object that has fewer vertices than the object and moves following the object) may be set for the object. For example, whether or not an attack such as a bullet or punch hits an object is realized by performing a hit check between a simple object and a bullet or punch. If the area 200 is set based on the vertex coordinates of the simple object, the processing load can be reduced because the number of vertices of the simple object is small.

図19(B)の領域200の設定は、具体的には以下の手法により実現できる。まず、オブジェクトOB(或いは簡易オブジェクト)を内包するバウンディングボックスBB(バウンディングボリューム)を生成する。このバウンディングボックスBBは、オブジェクトOBのスクリーン座標系での頂点(透視変換後のOBの頂点)のX座標、Y座標を求め、これらの頂点のX座標の最小値XMIN、最大値XMAXと、Y座標の最小値YMIN、最大値YMAXを求めることで生成できる。なお、余裕を持たせるために、バウンディングボックスBBの大きさを、図19(B)よりも若干だけ広げた大きさに設定してもよい。   The setting of the area 200 in FIG. 19B can be specifically realized by the following method. First, a bounding box BB (bounding volume) containing the object OB (or simple object) is generated. This bounding box BB obtains the X coordinate and Y coordinate of the vertex (the vertex of OB after perspective transformation) in the screen coordinate system of the object OB, and the minimum value XMIN, maximum value XMAX of the X coordinate of these vertexes, and Y It can be generated by obtaining the minimum value YMIN and the maximum value YMAX of the coordinates. In order to provide a margin, the size of the bounding box BB may be set slightly larger than that in FIG.

そして生成されたバウンディングボックスBBにより図14のプリミティブ面PLを設定する。次に、このプリミティブ面PLに対して、画像データIM2のテクスチャをマッピングする。そしてテクスチャがマッピングされたプリミティブ面PLを、画像データIM1(IMOD1)が描画されているバッファに対してαブレンディング描画することで、オーバードライブエフェクト処理が行われた画像データを生成する。   Then, the primitive plane PL shown in FIG. 14 is set by the generated bounding box BB. Next, the texture of the image data IM2 is mapped to this primitive plane PL. Then, the primitive surface PL to which the texture is mapped is α blended with respect to the buffer in which the image data IM1 (IMOD1) is drawn, thereby generating image data on which the overdrive effect processing has been performed.

なお領域200の設定は図19(B)に示すようなバウンディングボックスを用いる手法に限定されない。例えば表示領域内において、同じ位置にある領域を、常に、オーバードライブエフェクト処理を行う領域200として設定してもよい。   Note that the setting of the region 200 is not limited to the method using the bounding box as shown in FIG. For example, an area at the same position in the display area may be always set as the area 200 for performing the overdrive effect process.

2.5 調整画面、モード設定画面
家庭用ゲーム装置では、ゲーム装置本体に対して様々なタイプの表示部が接続される可能性がある。例えばブラウン管テレビが接続されたり、液晶テレビが接続される。またオーバードライブ回路を内蔵する液晶テレビが接続されたり、内蔵しない液晶テレビが接続される。また液晶テレビは、製品によって液晶の応答速度が遅いものや速いものがある。また携帯型ゲーム装置においても、同じ製品であっても、液晶画面の仕様が変更される場合がある。また携帯型ゲーム装置が、外部モニタであるブラウン管テレビや液晶テレビに接続される場合もある。
2.5 Adjustment screen, mode setting screen In a home game device, various types of display units may be connected to the game device body. For example, a cathode ray tube television or a liquid crystal television is connected. In addition, a liquid crystal television with a built-in overdrive circuit is connected, or a liquid crystal television without a built-in circuit is connected. Some LCD TVs have slow or fast liquid crystal response speeds. Also, in the portable game device, the specifications of the liquid crystal screen may be changed even for the same product. In some cases, the portable game device is connected to an external monitor, such as a cathode ray tube television or a liquid crystal television.

このような場合に、オーバードライブエフェクト処理のα値(エフェクト強度)が固定値であると、オーバードライブエフェクト処理が不十分なため残像が残ったり、過度なオーバードライブエフェクト処理によりチラツキ(振動)が発生するおそれがある。またオーバードライブエフェクト処理の有効、無効を設定できないと、オーバードライブエフェクト処理を必要としない表示部なのに、オーバードライブエフェクト処理が掛かってしまう事態が生じる。   In such a case, if the α value (effect intensity) of the overdrive effect processing is a fixed value, the overdrive effect processing is insufficient and an afterimage remains, or flicker (vibration) occurs due to excessive overdrive effect processing. May occur. If the overdrive effect process cannot be enabled or disabled, the overdrive effect process may occur even though the display unit does not require the overdrive effect process.

そこで図20(A)(B)では、オーバードライブエフェクト処理のα値を調整するための調整画面や、オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面を表示するようにしている。   20A and 20B, an adjustment screen for adjusting the α value of the overdrive effect processing and a mode setting screen for setting whether or not to enable the overdrive effect processing are displayed. I have to.

例えば図20(A)では、中間色CN1に設定された調整画面の背景領域210(調整ウィンドウ)上で、中間色CN2に設定されたオブジェクトOBが移動する。このように背景領域210、オブジェクトOBを、原色ではない中間色に設定すれば、残像が目立つようになり、オーバードライブエフェクト処理のα値の調整に好適な調整画面を提供できる。   For example, in FIG. 20A, the object OB set to the intermediate color CN2 moves on the background area 210 (adjustment window) of the adjustment screen set to the intermediate color CN1. As described above, if the background area 210 and the object OB are set to an intermediate color that is not a primary color, an afterimage becomes conspicuous, and an adjustment screen suitable for adjusting the α value in overdrive effect processing can be provided.

プレーヤは、オブジェクトOBの画像を見ながら、画面上に表示された調整スライダー212を操作部により動かして、オーバードライブエフェクト処理のα値(エフェクト強度)を調整する。例えばプレーヤは、オブジェクトOBの残像が大きいと感じたら、調整スライダー212を右側に移動させて、オーバードライブエフェクト処理のエフェクト強度を大きくなるようなα値に設定する。一方、オブジェクトOBの残像がそれほど大きくなく、オーバードライブの効果が大きすぎると感じたら、調整スライダー212を左側に移動させて、オーバードライブエフェクト処理のエフェクト強度が小さくなるようなα値に設定する。そしてこのようにして調整されたα値(エフェクト強度)は、画像生成システムの記憶部やメモリーカード等の携帯型情報記憶装置に保存される。そして、ゲーム画面においては、この保存されたα値(エフェクト強度)に基づいて、オーバードライブエフェクト処理が行われることになる。   While viewing the image of the object OB, the player moves the adjustment slider 212 displayed on the screen with the operation unit to adjust the α value (effect intensity) of the overdrive effect process. For example, when the player feels that the afterimage of the object OB is large, the player moves the adjustment slider 212 to the right side and sets the α value so that the effect intensity of the overdrive effect process is increased. On the other hand, if the afterimage of the object OB is not so large and the effect of overdrive is felt to be too great, the adjustment slider 212 is moved to the left to set the α value so that the effect intensity of the overdrive effect process is reduced. The α value (effect intensity) adjusted in this way is stored in a portable information storage device such as a storage unit or a memory card of the image generation system. In the game screen, overdrive effect processing is performed based on the stored α value (effect intensity).

なお調整画面の表示手法は図20(A)に限定されない。例えば図20(A)では円形状のオブジェクトを移動させているが、円以外の形状(例えば柱形状)のオブジェクトを移動させてもよい。また複数のオブジェクトを移動させるようにしてもよい。またこのようなオブジェクトを表示せずに、調整スライダー212(調整値を指定するための表示物)だけを表示するようにしてもよい。また背景領域210やオブジェクトOBに設定される中間色も、様々な色を採用できる。例えば背景領域210やオブジェクトOBの画像を、2色以上の中間色を有する画像にしてもよい。   Note that the display method of the adjustment screen is not limited to FIG. For example, although a circular object is moved in FIG. 20A, an object having a shape other than a circle (for example, a column shape) may be moved. A plurality of objects may be moved. Alternatively, only the adjustment slider 212 (display object for specifying the adjustment value) may be displayed without displaying such an object. Various colors can be adopted as the intermediate color set for the background area 210 and the object OB. For example, the image of the background area 210 or the object OB may be an image having two or more intermediate colors.

図20(B)のモード設定画面は、ゲームにおける各種設定を行うための画面である。例えばゲーム音の設定(音色、音量、ステレオ/モノラルの設定)、操作部の設定(ボタンやレバーの割り当ての設定)、画像表示の設定などを行うための画面である。   The mode setting screen in FIG. 20B is a screen for performing various settings in the game. For example, it is a screen for setting game sounds (tone color, volume, stereo / monaural settings), operation unit settings (button and lever assignment settings), image display settings, and the like.

図20(B)のモード設定画面では、プレーヤは操作部を操作して、オーバードライブエフェクト処理の有効(オン)、無効(オフ)を設定できる。そしてオーバードライブエフェクト処理を有効にする設定(選択)が行われた場合には、ゲーム画面においてオーバードライブエフェクト処理が行われるようになる。   On the mode setting screen of FIG. 20B, the player can set the overdrive effect processing to be valid (on) or invalid (off) by operating the operation unit. When the setting (selection) for enabling the overdrive effect process is performed, the overdrive effect process is performed on the game screen.

なおモード設定画面の表示手法は図20(B)に限定されない。例えば、オーバードライブエフェクト処理の有効、無効の設定を、図20(A)の調整画面において行えるようにしてもよい。この場合には例えば、図20(A)の調整スライダー212が一番左側に移動した場合に、オーバードライブエフェクト処理が無効になるようにすればよい。また、オーバードライブエフェクト処理のエフェクト強度の調整を、モード設定画面において行えるようにしてもよい。この場合には例えば、図20(A)の調整スライダー212を図20(B)のモード設定画面に表示すればよい。   Note that the display method of the mode setting screen is not limited to FIG. For example, the setting for enabling / disabling overdrive effect processing may be performed on the adjustment screen of FIG. In this case, for example, when the adjustment slider 212 in FIG. 20A is moved to the leftmost side, the overdrive effect process may be invalidated. Further, the effect intensity of the overdrive effect process may be adjusted on the mode setting screen. In this case, for example, the adjustment slider 212 in FIG. 20A may be displayed on the mode setting screen in FIG.

3.ハードウェア構成
図21に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
3. Hardware Configuration FIG. 21 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセラレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of the compressed image data and sound data and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエイリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納されている。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されている。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されているCD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The CD drive 980 accesses a CD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部の処理はハードウェアとプログラムの両方により実現ででき、この場合、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ900、902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ900、902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   The processing of each part of this embodiment can be realized by both hardware and a program. In this case, the information storage medium stores a program for causing the hardware (computer) to function as each part of this embodiment. . More specifically, the program instructs the processors 900, 902, 904, 906, 910, and 930, which are hardware, to pass data if necessary. Each processor 900, 902, 904, 906, 910, 930 implements the processing of each unit of the present invention based on the instruction and the passed data.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第J、第K、第Lのフレーム等)と共に記載された用語(第1、第2、第3のフレーム等)は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or the drawings, terms (first, second, third frames, etc.) described at least once together with different terms (J, K, L, etc.) having a broader meaning or the same meaning are used. The different terms can be used anywhere in the specification or drawings.

またオーバードライブエフェクト処理の実現手法も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明のオーバードライブエフェクト処理は、表示部が液晶表示装置ではない場合にも適用可能である。   Further, the method for realizing the overdrive effect processing is not limited to that described in the present embodiment, and methods equivalent to these are also included in the scope of the present invention. The overdrive effect processing of the present invention is also applicable when the display unit is not a liquid crystal display device.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレイヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 図2(A)(B)(C)はオーバードライブエフェクト処理の原理の説明図。2A, 2B, and 2C are explanatory diagrams of the principle of overdrive effect processing. オーバードライブエフェクト処理を説明する動作フロー。An operation flow for explaining overdrive effect processing. 差分和らげ処理を用いたオーバードライブエフェクト処理を説明する動作フロー。The operation | movement flow explaining the overdrive effect process using a difference softening process. 図5(A)(B)はオブジェクトの残像発生の説明図。FIGS. 5A and 5B are explanatory diagrams of the generation of an afterimage of an object. 図6(A)(B)はオブジェクトの残像発生の説明図。6 (A) and 6 (B) are explanatory diagrams of occurrence of an afterimage of an object. 図7(A)(B)はオーバードライブエフェクト処理の説明図。7A and 7B are explanatory diagrams of overdrive effect processing. 図8(A)(B)はオーバードライブエフェクト処理の説明図。8A and 8B are explanatory diagrams of overdrive effect processing. 図9(A)(B)はオーバードライブエフェクト処理の説明図。9A and 9B are explanatory diagrams of overdrive effect processing. 図10(A)(B)はオーバードライブエフェクト処理の説明図。10A and 10B are explanatory diagrams of overdrive effect processing. ピクセル単位で行うオーバードライブエフェクト処理のフローチャート。The flowchart of the overdrive effect process performed per pixel. 差分画像データ値に基づきエフェクト強度係数を変化させる手法の説明図。Explanatory drawing of the method of changing an effect intensity coefficient based on a difference image data value. 図13(A)(B)はオーバードライブエフェクト処理の実現手法の説明図。FIGS. 13A and 13B are explanatory diagrams of a method for realizing overdrive effect processing. プリミティブ面にテクスチャをマッピングしてαブレンディング描画する手法の説明図。Explanatory drawing of the method of mapping (alpha) blending drawing by mapping a texture on a primitive surface. トリプルバッファを利用した実現手法の説明図。Explanatory drawing of the implementation method using a triple buffer. トリプルバッファを利用した実現手法の説明図。Explanatory drawing of the implementation method using a triple buffer. オーバードライブエフェクト処理の実現手法のフローチャート。The flowchart of the implementation method of an overdrive effect process. オーバードライブエフェクト処理の実現手法のフローチャート。The flowchart of the implementation method of an overdrive effect process. 図19(A)(B)は表示領域の特定領域に対してオーバードライブエフェクト処理を行う手法の説明図。19A and 19B are explanatory diagrams of a method for performing overdrive effect processing on a specific area of the display area. 図20(A)(B)はオーバードライブエフェクト処理の調整画面、モード設定画面の例。20A and 20B are examples of an adjustment screen and mode setting screen for overdrive effect processing. ハードウェア構成例。Hardware configuration example.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、116 表示制御部、120 描画部、
122 オーバードライブエフェクト処理部、130 音生成部、160 操作部、
170 記憶部、171、172、173 第1、第2、第3のバッファ、
174 テクスチャ記憶部、176 Zバッファ、180 情報記憶媒体、
190 表示部、192 音出力部、194 携帯型情報記憶装置、196 通信部
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 116 display control unit, 120 drawing unit,
122 overdrive effect processing unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 171, 172, 173 first, second, third buffer,
174 texture storage unit, 176 Z buffer, 180 information storage medium,
190 display unit, 192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (12)

画像を生成するためのプログラムであって、
オブジェクトを描画して画像データを生成する描画部と、
生成された画像データに対してオーバードライブエフェクト処理を行い、表示部に出力するための画像データを生成するオーバードライブエフェクト処理部として、
コンピュータを機能させ、
前記オーバードライブエフェクト処理部は、
第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいてオブジェクトを描画することで生成された画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行うことで、オーバードライブエフェクト処理が行われた画像データを生成することを特徴とするプログラム。
A program for generating an image,
A drawing unit that draws an object and generates image data;
As an overdrive effect processing unit that performs overdrive effect processing on the generated image data and generates image data for output to the display unit,
Make the computer work,
The overdrive effect processing unit
Based on the image data IMK generated in the Kth frame, the image data IMJ generated by drawing an object in the J (K> J) frame, and the α value α, IMK + (IMK−IMJ ) A program that generates image data subjected to overdrive effect processing by performing α blending processing of × α.
請求項1において、
前記オーバードライブエフェクト処理部は、
α値が設定された画面サイズ又は分割画面サイズのプリミティブ面に、前記画像データIMKのテクスチャをマッピングし、テクスチャがマッピングされた前記プリミティブ面を、前記画像データIMJが描画されているバッファに対してαブレンディング描画することを特徴とするプログラム。
In claim 1,
The overdrive effect processing unit
A texture of the image data IMK is mapped to a primitive surface having a screen size or a divided screen size in which an α value is set, and the primitive surface to which the texture is mapped is mapped to a buffer in which the image data IMJ is drawn. Program characterized by alpha blending drawing.
請求項1又は2において、
前記オーバードライブエフェクト処理部は、
設定値ASの2倍の値がソースα値Aとして設定される2倍値モードでAS=(1+α)/2を設定し、設定値BSが固定のディスティネーションα値Bとして設定される固定値モードでBS=αを設定し、IMK×A−IMJ×B=IMK×(2×AS)−IMJ×BS=IMK×(1+α)−IMJ×αの減算αブレンディング描画を行うことを特徴とするプログラム。
In claim 1 or 2,
The overdrive effect processing unit
In the double value mode in which a value twice the set value AS is set as the source α value A, AS = (1 + α) / 2 is set, and the set value BS is set as a fixed destination α value B. BS = α is set in the mode, and IMK × A−IMJ × B = IMK × (2 × AS) −IMJ × BS = IMK × (1 + α) −IMJ × α is subtracted α blending drawing. program.
請求項1乃至3のいずれかにおいて、
前記オーバードライブエフェクト処理部は、
第Kのフレームでは、
オブジェクトを第1のバッファに描画して画像データIMKを生成し、生成された画像データIMKと、第2のバッファに書き込まれている第Jのフレームでの画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを、第2のバッファに書き込み、
第Lのフレームでは、
オブジェクトを第3のバッファに描画して画像データIMLを生成し、生成された画像データIMLと、第1のバッファに書き込まれている第Kのフレームでの画像データIMKと、α値αとに基づいて、IML+(IML−IMK)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを、第1のバッファに書き込み、
第M(M>L>K)のフレームでは、
オブジェクトを第2のバッファに描画して画像データIMMを生成し、生成された画像データIMMと、第3のバッファに書き込まれている第Lのフレームでの画像データIMLと、α値αとに基づいて、IMM+(IMM−IML)×αのαブレンディング処理を行い、オーバードライブエフェクト処理が行われた画像データを、第3のバッファに書き込むことを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The overdrive effect processing unit
In the Kth frame,
The object is drawn in the first buffer to generate the image data IMK. The generated image data IMK, the image data IMJ in the Jth frame written in the second buffer, and the α value α Based on this, the α blending process of IMK + (IMK−IMJ) × α is performed, and the image data subjected to the overdrive effect process is written to the second buffer,
In the Lth frame,
The object is drawn in the third buffer to generate the image data IML. The generated image data IML, the image data IMK in the Kth frame written in the first buffer, and the α value α Based on this, IML + (IML−IMK) × α is blended, and the image data subjected to the overdrive effect processing is written to the first buffer.
In the Mth (M>L> K) frame,
The object is drawn in the second buffer to generate the image data IMM. The generated image data IMM, the image data IML in the Lth frame written in the third buffer, and the α value α Based on this, a program that performs α blending processing of IMM + (IMM-IML) × α and writes the image data subjected to the overdrive effect processing to the third buffer.
請求項1乃至4のいずれかにおいて、
前記オーバードライブエフェクト処理部は、
表示部の表示領域のうちの特定の領域の画像データに対してのみ、前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The overdrive effect processing unit
A program that performs the overdrive effect processing only on image data in a specific area of a display area of a display unit.
請求項1乃至5のいずれかにおいて、
前記描画部は、
複数のオブジェクトを描画することで画像データを生成し、
前記オーバードライブエフェクト処理部は、
複数のオブジェクトのうちの特定のオブジェクトを内包する領域に対して、前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The drawing unit
Generate image data by drawing multiple objects,
The overdrive effect processing unit
A program characterized in that the overdrive effect processing is performed on an area including a specific object among a plurality of objects.
請求項6において、
前記オーバードライブエフェクト処理部は、
オブジェクトの頂点座標、或いはオブジェクトに対して簡易オブジェクトが設定される場合には簡易オブジェクトの頂点座標に基づいて、前記オーバードライブエフェクト処理を行う前記領域を設定することを特徴とするプログラム。
In claim 6,
The overdrive effect processing unit
A program characterized in that the region for performing the overdrive effect processing is set based on vertex coordinates of an object or, when a simple object is set for the object, based on the vertex coordinates of the simple object.
請求項1乃至7のいずれかにおいて、
前記オーバードライブエフェクト処理のα値を調整するための調整画面の表示制御を行う表示制御部として、
コンピュータを機能させ、
前記オーバードライブエフェクト処理部は、
前記調整画面においてエフェクト強度の調整が行われた場合に、調整により得られたα値に基づいて前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
As a display control unit that performs display control of an adjustment screen for adjusting the α value of the overdrive effect processing,
Make the computer work,
The overdrive effect processing unit
When the effect intensity is adjusted on the adjustment screen, the overdrive effect processing is performed based on the α value obtained by the adjustment.
請求項8において、
前記表示制御部は、
第1の中間色に設定された調整画面の背景領域上で、第2の中間色に設定されたオブジェクトを移動させる表示制御を行うことを特徴とするプログラム。
In claim 8,
The display control unit
A program for performing display control for moving an object set to a second intermediate color on a background area of an adjustment screen set to a first intermediate color.
請求項1乃至9のいずれかにおいて、
前記オーバードライブエフェクト処理を有効にするか否かを設定するためのモード設定画面の表示制御を行う表示制御部として、
コンピュータを機能させ、
前記オーバードライブエフェクト処理部は、
前記モード設定画面において前記オーバードライブエフェクト処理を有効にする設定が行われた場合に、前記オーバードライブエフェクト処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 9,
As a display control unit that performs display control of a mode setting screen for setting whether to enable the overdrive effect processing,
Make the computer work,
The overdrive effect processing unit
The program for performing the overdrive effect processing when the setting for enabling the overdrive effect processing is performed on the mode setting screen.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至10のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 10 is stored. 画像を生成する画像生成システムであって、
オブジェクトを描画して画像データを生成する描画部と、
生成された画像データに対してオーバードライブエフェクト処理を行い、表示部に出力するための画像データを生成するオーバードライブエフェクト処理部とを含み、
前記オーバードライブエフェクト処理部は、
第Kのフレームで生成された画像データIMKと、第J(K>J)のフレームにおいてオブジェクトを描画することで生成された画像データIMJと、α値αとに基づいて、IMK+(IMK−IMJ)×αのαブレンディング処理を行うことで、オーバードライブエフェクト処理が行われた画像データを生成することを特徴とする画像生成システム。
An image generation system for generating an image,
A drawing unit that draws an object and generates image data;
Including an overdrive effect processing unit that performs overdrive effect processing on the generated image data and generates image data for output to the display unit,
The overdrive effect processing unit
Based on the image data IMK generated in the Kth frame, the image data IMJ generated by drawing an object in the J (K> J) frame, and the α value α, IMK + (IMK−IMJ The image generation system is characterized by generating image data subjected to overdrive effect processing by performing α blending processing of × α.
JP2005210539A 2005-07-20 2005-07-20 Program, information storage medium, and image generation system Expired - Fee Related JP4195023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005210539A JP4195023B2 (en) 2005-07-20 2005-07-20 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005210539A JP4195023B2 (en) 2005-07-20 2005-07-20 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2007026325A true JP2007026325A (en) 2007-02-01
JP4195023B2 JP4195023B2 (en) 2008-12-10

Family

ID=37786965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005210539A Expired - Fee Related JP4195023B2 (en) 2005-07-20 2005-07-20 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4195023B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609276B2 (en) 2005-07-20 2009-10-27 Namco Bandai Games Inc. Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device
WO2020166206A1 (en) * 2019-02-13 2020-08-20 株式会社エクシヴィ Image processing device and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609276B2 (en) 2005-07-20 2009-10-27 Namco Bandai Games Inc. Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device
US8013865B2 (en) 2005-07-20 2011-09-06 Namco Bandai Games Inc. Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device
WO2020166206A1 (en) * 2019-02-13 2020-08-20 株式会社エクシヴィ Image processing device and program

Also Published As

Publication number Publication date
JP4195023B2 (en) 2008-12-10

Similar Documents

Publication Publication Date Title
JP4693159B2 (en) Program, information storage medium, and image generation system
JP2006318389A (en) Program, information storage medium, and image generation system
US7479961B2 (en) Program, information storage medium, and image generation system
JP4717622B2 (en) Program, information recording medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2007141082A (en) Program, texture data structure, information storage medium, and image generation system
JP4868586B2 (en) Image generation system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
US6982717B2 (en) Game apparatus, storage medium and computer program
JP2004334661A (en) Image generating system, program, and information storage medium
JP4195023B2 (en) Program, information storage medium, and image generation system
JP4229332B2 (en) Program, information storage medium, and image generation system
JP4159082B2 (en) Image generation system, program, and information storage medium
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4843010B2 (en) Program, information storage medium, and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2010033302A (en) Image generation system, program and information storage medium
JP2008077406A (en) Image generation system, program, and information storage medium
JP4521811B2 (en) Program, information storage medium, and image generation system
JP4680670B2 (en) Program, information storage medium, and image generation system
JP2006277490A (en) Program, information storage medium and image generation system
JP4693153B2 (en) Image generation system, program, and information storage medium
JP2005157541A (en) Program, information storage medium, and image generating system
JP2006244011A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080917

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080924

R150 Certificate of patent or registration of utility model

Ref document number: 4195023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees