JP3779620B2 - Image processing program - Google Patents

Image processing program Download PDF

Info

Publication number
JP3779620B2
JP3779620B2 JP2002008553A JP2002008553A JP3779620B2 JP 3779620 B2 JP3779620 B2 JP 3779620B2 JP 2002008553 A JP2002008553 A JP 2002008553A JP 2002008553 A JP2002008553 A JP 2002008553A JP 3779620 B2 JP3779620 B2 JP 3779620B2
Authority
JP
Japan
Prior art keywords
image
frame
light emitting
processing
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002008553A
Other languages
Japanese (ja)
Other versions
JP2003216964A (en
Inventor
文人 宮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Group Corp
Original Assignee
Konami Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corp filed Critical Konami Corp
Priority to JP2002008553A priority Critical patent/JP3779620B2/en
Publication of JP2003216964A publication Critical patent/JP2003216964A/en
Application granted granted Critical
Publication of JP3779620B2 publication Critical patent/JP3779620B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理プログラムに関するものである。
【0002】
【従来の技術】
画像処理技術において、ブラー処理というものがある。これは対象となるオブジェクトを暈かす処理である。またこのブラー処理を動画に適用することで、複数のフレームの画像を用いて、この複数のフレーム間で動いた物体(以下、注目物体)の動きの軌跡を表現することができる。具体的には、現在表示しようとするフレームにおける注目物体の画像は通常通りに表示し、この画像に、過去のフレームにおける注目物体の画像を、過去の画像ほど透明度を上げて(α値を下げて)合成表示する。これにより、現在表示しようとするフレームにおいて、注目物体と共に、過去に動いた軌跡をぼかして表示することができる。
【0003】
一方、コンピュータを用いてセルアニメーションを描画する場合に、透過光表現というものがある。これは、コンピュータ上のアニメーション画像において透明感のある光を表現する方法である。
【0004】
【発明が解決しようとする課題】
上記アニメーション画像には発光している領域(たとえば、発光している車のヘットライト、発光している看板、発光している街頭等を表示している領域)が存在する場合がある。このような領域を表現するには図2に示すように、発光体の領域201周辺に透明感のある光202(すなわち透過光)を表示させることが好ましい。これは実際には、観察者と発光体との距離、空気中の湿度等により、発光体がぼけて見えることに起因する。
【0005】
本発明はこのような点を考慮して成されたものであり、発光領域に対してのみブラー処理を施し、発光領域周辺に透過光を表現することを目的とする。
【0006】
【課題を解決するための手段】
本発明の目的を達成するために、例えば本発明の画像処理プログラムは以下の構成を備える。
【0007】
すなわち、複数のフレームからなる連続画像であって、発光領域を含む画像に対する画像処理をコンピュータに実行させるための画像処理プログラムであって、
注目フレームの画像における発光領域に対してブラー処理を施すブラー処理工程と、
前記注目フレームよりも従前のフレームの画像に含まれる発光領域の画像を構成している画素の透明度を上げる処理を行い、当該処理の際、前記注目フレームに対してより過去のフレーム程、透明度の上げる量を大きくする透明度制御工程と、
前記透明度制御工程で処理された各フレームの画像を、前記ブラー処理工程でブラー処理を施された前記注目フレームの画像に合成する合成工程のプログラムとを含み、
前記合成工程で得られた画像を前記コンピュータが有する表示部に表示させることを特徴とする。
【0011】
【発明の実施の形態】
以下添付図面を参照して、本発明の好適な実施形態について詳細に説明する。なお、本発明の画像処理プログラムは、アニメーション画像のうち発光する領域(発光領域)に対してのみブラー処理を施す。これにより、発光領域の周辺に透過光を表現することができ、その結果、発光領域の周辺を発光領域の色で暈かすことができる。また、動画像において、各画像間で画像内における発光領域の位置が変化した場合、その位置の変化の軌跡を、過去の発光領域ほど透明度を高く表現する。以下の実施形態では上記アニメーション画像をゲーム画面の画像に適用した場合について説明するが、これに限定されるものではない。
【0012】
[第1の実施形態]
図1に本実施形態における画像処理プログラムを実行するゲーム装置の基本構成を示す。図1は本実施形態におけるゲーム装置の基本構成を示すブロック図である。101はCPUで、RAM102やROM105に格納されたプログラムやデータ等を用いてゲーム装置全体の制御を行うと共に、後述の画像処理を実行する。102はRAMで、外部記憶装置109内に格納されたゲーム用プログラム110やゲーム用データ111(詳細は後述)を読み込むエリアを備えると共に、CPU101が各種の処理を実行する際に用いるワークエリアも備える。また、RAM102は表示する各フレーム毎のゲーム画面を格納するフレームバッファとして機能する第1のバッファ102aと、後述の第2のバッファ102bとを備える。
【0013】
103は操作部で、ゲーム中のキャラクタやカーソルなどの移動を指示する指示部103aや、決定やキャンセルなどの指示を入力するボタン103b、103cを備える。104は通信I/Fで、他のゲーム装置とケーブルを介して接続する為のI/Fとして機能する。105はROMで、本ゲーム装置全体の制御を行うプログラム(例えば本ゲーム装置のブートプログラム)やデータ(例えば本ゲーム装置の設定データ)等を格納する。106は表示部で、CRTや液晶画面により構成されており、ゲームに関する画面(ゲーム中の画面やゲームにおける各種の設定を行う画面)を表示する。
【0014】
107はサウンド処理装置で、ゲーム用データ111に含まれるサウンドデータに基づいてBGMや効果音を生成し、スピーカ108に生成したBGMや効果音などを出力する。109は外部記憶装置で、CD−ROMやROMカセットなどにより構成されており、ゲーム用プログラム110、ゲーム用データ111、そしてユーザデータ112を格納する。格納されているデータは必要に応じてRAM102に読み出される。ゲーム用プログラム110はゲーム全体の制御を行うプログラムである。
【0015】
111はゲーム用データで、ゲーム画面を構成する各オブジェクト(ゲーム中に登場するキャラクタやゲームフィールド等)の画像を生成するためのデータや、上述のサウンドデータ等を含む。112はユーザデータで、プレーヤの過去のゲーム戦績などに関するデータである。113は上述の各部を繋ぐバスである。
【0016】
上記構成を備えるゲーム装置において、発光領域を含むゲーム画面を表示部106に表示する際に行われる処理について以下、説明する。図3に、発光領域を含むゲーム画面を示す。同図において300は建物の画像である。一方、301乃至304は建物の窓の画像であって、発光領域として表示するためにα値を一定値θ以下に設定した画像である。なお、発光領域内の画像301乃至304を構成する各画素にも所定の色が割り当てられているものとする。また、ゲーム画面において画像301乃至304以外の部分についてはα値はθよりも大きいとする。
【0017】
図6に、図3に示したゲーム画面(現在のフレーム)を表示部106に表示するまでの処理の流れを示す。まず図3に示したゲーム画面を第1のバッファ102aに描画すると共に、ゲーム画面のデータ(ゲーム画面に登場する各モデル(車や建物など)のデータ)を参照して、同画面においてα値が一定値θ以下の領域、すなわち画像301乃至304のみを第2のバッファ102bの第1のエリア601にコピーする。そして第1のエリア601にコピーされた画像に対してブラー処理(後述)を施すことで、画像301乃至304を暈かした画像301a乃至304aを生成する。生成された画像301a乃至304aは第1のエリア601に保存される。
【0018】
また、第2のバッファ102bの第2のエリア602には、一つ前のフレームにおける処理済みの画像(画像301b乃至304b)が保存されている(詳細は後述)。よってこれらの画像301b乃至304bのα値を下げ(画像の透明度を上げ)、第1のエリア601に転送し、第1のエリア601に保存されている画像に合成することで、フレーム間におけるブラー処理(以下、モーションブラー処理)を実現した画像301c乃至304cを生成することができる。
【0019】
そしてこれらの画像301c乃至304c、すなわち第1のエリア601に保存されている画像群を第1のバッファ102aに転送すると共に、第2のバッファ102b第2のエリア602にも転送する。第1のバッファ102aでは転送された画像群を画像301乃至304に合成させ、窓の部分が暈けた建物の画像を生成する。そして生成したこの画像を表示部106に表示する。また、画像301c乃至304cを第2のエリア602に転送することで、次のフレームにおけるモーションブラー処理を実行するに際し、これらの画像301c乃至304cを使用することができる。
【0020】
以上の処理は各フレーム毎に行われる。これによってゲーム画面内で発光領域に対してのみブラー処理を行うことができ、その結果、発光領域周辺に対して透過光表現を実現することができ、発光領域を暈かすことができる。また、各フレーム間でゲーム画面内において発光領域の位置が変化した場合にも、その位置の変化の軌跡を、過去の発光領域ほど透明度を高く表現することができる。
【0021】
次に、上記ブラー処理について説明する。図4にブラー処理に用いるパターンを示す。
【0022】
同図(a)は後述の処理の基本となるパターン(パターン0)で、中心の1画素とこの画素の上下、左右に隣接する4画素の合計5画素により構成されている。次に、このパターン0を中心として、左右上下に同じパターン0を配置することで、同図(b)に示すパターン(パターン1)が形成される。同様に、パターン1を中心として、左右上下に同じパターン1を配置することで、同図(c)に示すパターン(パターン2)が形成される。このようにして、パターンnを中心として左右上下に同じパターンnを配置することでパターン(n+1)を再帰的に生成する。
【0023】
そして、以上の再帰的な処理を所定回数行った結果得られるパターンm(mは1以上の整数)を、発光領域に描画する。例えば、m=2の場合(同図(c)に示すパターン2を用いる場合)、パターンmの中心の画素(同図(c)では画素401)を発光領域を構成する各画素の位置に配置し、パターン2の集合により、発光領域を構成する。
【0024】
図5(a)〜(c)を参照して、8画素×8画素の領域に対してパターン1を用いてブラー処理を示す場合について説明する。同図(a)はブラー処理を施す対象領域(8画素×8画素)を示す図であり、同図(b)はパターン1を示す図であり、同図(c)は同図(a)に示した領域において2画素毎にパターン1を配置した結果を示す図である。同図(c)に示すとおり、同図(a)に示した領域をパターン1を構成する各画素の粗密により表現することができ、その結果、同図(a)に示した領域を暈かした画像を生成することができる。
【0025】
なお、ブラー処理に用いるパターンを構成する各画素の色は、ブラー処理を行う対象の発光領域を構成する画素の色(第1のバッファからコピーされた画像の色)にする。これにより、発光領域の色で発光領域を暈かすことが可能となる。また、ブラー処理に用いるパターンを構成する各画素の色はこれに限定されるものではなく、新たに設定した色を用いても良い。この場合、発光領域を構成する画素に予め色を設定しなくても良い。
【0026】
図7に、上述の画像処理(ブラー処理)のフローチャートを示す。なお、図7に示したフローチャートに従ったプログラムは上記ゲーム用プログラム111のサブルーチンとして機能し、必要に応じて実行される。
【0027】
まず、1フレームのゲーム画面を第1のバッファ102aに描画する(ステップS701)。次に、第1のバッファ102aに描画されたゲーム画面のデータを参照して、α値が一定値θ以下の領域の画像を第2のバッファ102bの第1のエリア601に転送する(ステップS702)。そして、第1のエリア601に転送された画像群に対して上記パターンを用いてブラー処理を施す(ステップS703)。そして第2のバッファ102bの第2のエリア602に保存されている1フレーム前のブラー処理を施された画像群を、ブラー処理を施された画像群、即ち第1のエリア601に保存されている画像群に合成する(ステップS704)。そして合成後の画像、即ち第1のエリア601に保存されている画像群を、第1のバッファ102aに保存されているゲーム画面に合成する(ステップS705)。そして上記処理により生成され、第1のバッファ102aに保存されているゲーム画面を表示部106に出力する(ステップS706)。以上の処理が終了すると、処理をゲーム本体の処理に戻す。
【0028】
以上の説明により、本実施形態の画像処理プログラムによって、発光領域に対してのみブラー処理を施すことができ、その結果、発光領域周辺に透過光を表現することができる。
【0029】
[第2の実施形態]
尚、第1の実施形態では説明を簡単にするために、1フレーム前のモーションブラー処理済みの画像のみを保存しているとしたが、所定数前までのモーションブラー処理済みの画像を保存しておき、過去のフレームの画像ほどα値を下げて第1のエリア601に保存されている画像に合成することで、より滑らかなモーションブラー処理結果を得ることができる。
【0030】
また、過去のフレームの画像ほど透明度を上げる処理については、α値を下げる処理以外にも、例えば、過去のフレームの画像を構成する画素の間引き率を、過去のフレームの画像ほど上げる等の処理を用いても良い。
【0031】
又、図6に示した一連の処理に用いた各バッファはこれに限定されるものではない。たとえば第1の実施形態では、第2のバッファ102b内に第1のエリアと第2のエリアを設けていたが、例えば夫々を第3のバッファ、第4のバッファとして第2のバッファ102bの外部に設けても良い。
【0032】
[第3の実施形態]
以上の処理(例えば図7に示したフローチャートの一部、もしくは全部に従った処理)をプログラムとしてCD−R、ROMやDVD−ROM、MO等の記憶媒体に記憶させ、この記憶媒体に記憶されているプログラムをコンピュータに読み込ませる(インストール、もしくはコピーさせる)ことで、このコンピュータは以上の処理を行うことができる。よって、この記憶媒体も本発明の範疇にあることは明白である。
【0033】
また、上記実施形態で説明した画像処理は以下の構成を備える画像処理装置でも実現可能である。すなわち、複数のフレームからなる連続画像であって、発光領域を含む画像に対して画像処理を行う画像処理装置であって、注目フレームの画像において、発光領域の画像に対してブラー処理を施すブラー処理手段と、注目フレームよりも従前のフレームの画像であって、ブラー処理手段によりブラー処理を施された画像を保存するメモリ手段と、メモリ手段に保存されている画像の透明度を制御する透明度制御手段と、透明度制御手段により透明度を制御された画像を、ブラー処理手段によりブラー処理された画像に合成する合成手段とを備え、合成手段により得られた画像を注目フレームの画像として所定の表示手段に出力することを特徴とする画像処理装置により上記実施形態で説明した一連の処理を行うことができるので、上記構成を備える画像処理装置は本発明の範疇にあることは明確である。
【0034】
また、上記実施形態で説明した画像処理は以下の構成を備える画像処理装置でも実現可能である。すなわち、複数のフレームからなる連続画像であって、発光領域を含む画像に対して画像処理を行う画像処理装置であって、注目フレームの画像を保存する第1のメモリと、第1のメモリに保存されている注目フレームの画像のうち、発光領域の画像を保存する第2のメモリと、第2のメモリに保存されている画像に対してブラー処理を施すブラー処理手段と、注目フレームよりも従前のフレームの画像であって、ブラー処理手段によりブラー処理を施された画像を保存する第3のメモリと、第3のメモリに保存されている画像の透明度を制御する透明度制御手段と、透明度制御手段により透明度を制御された画像を、ブラー処理手段によりブラー処理を施され、第2のメモリに保存されている画像に合成すると共に、合成後の画像を第3のメモリに出力する第1の合成手段と、第1の合成手段により得られた画像を第1メモリに保存されている注目フレームの画像に合成する第2の合成手段とを備え、第2の合成手段により得られた画像を注目フレームの画像として所定の表示部に出力することを特徴とする画像処理装置により上記実施形態で説明した一連の処理を行うことができるので、上記構成を備える画像処理装置は本発明の範疇にあることは明確である。
【0035】
【発明の効果】
以上の説明により、本発明によって発光領域に対してのみブラー処理を施し、発光領域周辺に透過光を表現することができる。
【図面の簡単な説明】
【図1】本発明の実施形態における画像処理プログラムを実行するゲーム装置の基本構成を示すブロック図である。
【図2】発光領域を説明する図である。
【図3】発光領域を含むゲーム画面を示す図である。
【図4】ブラー処理に用いるパターンを示す図である。
【図5】(a)はブラー処理を施す対象領域(8画素×8画素)を示す図であり、(b)はパターン1を示す図であり、(c)は(a)に示した領域において2画素毎にパターン1を配置した結果を示す図である。
【図6】図3に示したゲーム画面(現在のフレーム)を表示部106に表示するまでの処理の流れを示す。
【図7】本発明の第1の実施形態における画像処理(ブラー処理)のフローチャートである。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing program.
[0002]
[Prior art]
In image processing technology, there is a blur process. This is a process of blurring the target object. In addition, by applying this blur process to a moving image, it is possible to represent the trajectory of an object that has moved between the plurality of frames (hereinafter referred to as an object of interest) using images of a plurality of frames. Specifically, the image of the object of interest in the frame to be displayed at present is displayed as usual, and the image of the object of interest in the past frame is displayed on this image with the transparency increased (the α value is decreased as the past image is displayed). And display composite. This makes it possible to blur and display the trajectory that has moved in the past together with the object of interest in the frame to be displayed at present.
[0003]
On the other hand, when drawing a cell animation using a computer, there is a transmitted light expression. This is a method of expressing transparent light in an animation image on a computer.
[0004]
[Problems to be solved by the invention]
The animation image may have a light emitting area (for example, a light emitting car headlight, a light emitting signboard, a light emitting street display area, or the like). In order to express such a region, it is preferable to display light 202 having transparency (that is, transmitted light) around the region 201 of the light emitter as shown in FIG. This is actually due to the fact that the light emitter appears blurred due to the distance between the observer and the light emitter, the humidity in the air, and the like.
[0005]
The present invention has been made in consideration of such points, and an object of the present invention is to perform blurring processing only on the light emitting region and to express transmitted light around the light emitting region.
[0006]
[Means for Solving the Problems]
In order to achieve the object of the present invention, for example, an image processing program of the present invention comprises the following arrangement.
[0007]
That is, an image processing program for causing a computer to execute image processing on a continuous image composed of a plurality of frames and including a light emitting area,
A blur processing step of performing blur processing on the light emitting area in the image of the frame of interest;
A process of increasing the transparency of the pixels constituting the image of the light emitting area included in the image of the previous frame than the frame of interest is performed, and at the time of the process, the past frame is more transparent than the frame of interest. A transparency control step to increase the amount to be increased;
A synthesis step program for synthesizing the image of each frame processed in the transparency control step with the image of the target frame subjected to the blur processing in the blur processing step,
The image obtained in the synthesis step is displayed on a display unit included in the computer.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings. Note that the image processing program of the present invention performs blur processing only on a light emitting area (light emitting area) in an animation image. Thereby, the transmitted light can be expressed around the light emitting region, and as a result, the periphery of the light emitting region can be faded with the color of the light emitting region. Further, in the moving image, when the position of the light emitting area in the image changes between the images, the locus of the change in the position is expressed with higher transparency as the past light emitting area. In the following embodiment, a case where the animation image is applied to an image on a game screen will be described, but the present invention is not limited to this.
[0012]
[First Embodiment]
FIG. 1 shows a basic configuration of a game device that executes an image processing program in the present embodiment. FIG. 1 is a block diagram showing a basic configuration of a game device in the present embodiment. Reference numeral 101 denotes a CPU that controls the entire game apparatus using programs, data, and the like stored in the RAM 102 and the ROM 105, and executes image processing to be described later. A RAM 102 has an area for reading a game program 110 and game data 111 (details will be described later) stored in the external storage device 109 , and also has a work area used when the CPU 101 executes various processes. . The RAM 102 also includes a first buffer 102a that functions as a frame buffer that stores a game screen for each frame to be displayed, and a second buffer 102b described later.
[0013]
An operation unit 103 includes an instruction unit 103a for instructing movement of a character or a cursor during the game, and buttons 103b and 103c for inputting instructions such as determination and cancellation. Reference numeral 104 denotes a communication I / F, which functions as an I / F for connecting to another game device via a cable. A ROM 105 stores a program (for example, a boot program for the game apparatus) for controlling the entire game apparatus, data (for example, setting data for the game apparatus), and the like. A display unit 106 includes a CRT and a liquid crystal screen, and displays a screen related to the game (a screen during the game and a screen for performing various settings in the game).
[0014]
A sound processing device 107 generates BGM and sound effects based on sound data included in the game data 111 and outputs the generated BGM and sound effects to the speaker 108. Reference numeral 109 denotes an external storage device configured by a CD-ROM, a ROM cassette, or the like, and stores a game program 110, game data 111, and user data 112. The stored data is read to the RAM 102 as necessary. The game program 110 is a program that controls the entire game.
[0015]
Reference numeral 111 denotes game data, which includes data for generating an image of each object (such as a character and a game field appearing in the game) constituting the game screen, the above-described sound data, and the like. Reference numeral 112 denotes user data, which is data relating to past game results of the player. A bus 113 connects the above-described units.
[0016]
In the game device having the above-described configuration, processing that is performed when a game screen including a light emitting area is displayed on the display unit 106 will be described below. FIG. 3 shows a game screen including a light emitting area. In the figure, 300 is an image of a building. On the other hand, reference numerals 301 to 304 denote building window images, in which an α value is set to a certain value θ or less for display as a light emitting area. It is assumed that a predetermined color is also assigned to each pixel constituting the images 301 to 304 in the light emitting area. Further, it is assumed that the α value is larger than θ for portions other than the images 301 to 304 on the game screen.
[0017]
FIG. 6 shows a flow of processing until the game screen (current frame) shown in FIG. 3 is displayed on the display unit 106. First, the game screen shown in FIG. 3 is drawn in the first buffer 102a and the game screen data (data of each model (car, building, etc.) appearing on the game screen) is referred to. Are copied to the first area 601 of the second buffer 102b, that is, only the areas 301 to 304, ie, the images 301 to 304 are copied. Then, blurring processing (described later) is performed on the image copied to the first area 601 to generate images 301a to 304a in which the images 301 to 304 are blurred. The generated images 301a to 304a are stored in the first area 601.
[0018]
In the second area 602 of the second buffer 102b, processed images (images 301b to 304b) in the previous frame are stored (details will be described later). Therefore, the α value of these images 301b to 304b is lowered (the transparency of the image is increased), transferred to the first area 601, and synthesized with the image stored in the first area 601, thereby blurring between frames. Images 301c to 304c that realize processing (hereinafter referred to as motion blur processing) can be generated.
[0019]
These images 301c to 304c, that is, the image group stored in the first area 601 are transferred to the first buffer 102a and also transferred to the second buffer 102b and the second area 602. In the first buffer 102a, the transferred image group is combined with the images 301 to 304 to generate an image of a building with a window portion. The generated image is displayed on the display unit 106. Also, by transferring the images 301c to 304c to the second area 602, these images 301c to 304c can be used when executing the motion blur processing in the next frame.
[0020]
The above processing is performed for each frame. As a result, blur processing can be performed only on the light emitting area in the game screen, and as a result, transmitted light expression can be realized around the light emitting area, and the light emitting area can be blurred. Further, even when the position of the light emitting area changes in the game screen between the frames, the locus of the change in the position can be expressed with higher transparency as the past light emitting area.
[0021]
Next, the blur process will be described. FIG. 4 shows a pattern used for blur processing.
[0022]
FIG. 5A shows a pattern (pattern 0) that is a basis of processing to be described later, and is composed of a central pixel and four pixels adjacent to the upper, lower, left, and right sides of this pixel. Next, by arranging the same pattern 0 on the left, right, and top with the pattern 0 as a center, the pattern (pattern 1) shown in FIG. Similarly, by arranging the same pattern 1 on the left, right, top and bottom with the pattern 1 as the center, the pattern (pattern 2) shown in FIG. In this way, the pattern (n + 1) is recursively generated by arranging the same pattern n on the left, right, top and bottom with the pattern n as the center.
[0023]
Then, a pattern m (m is an integer of 1 or more) obtained as a result of performing the above recursive processing a predetermined number of times is drawn in the light emitting area. For example, when m = 2 (when the pattern 2 shown in FIG. 2C is used), the pixel at the center of the pattern m (the pixel 401 in FIG. 1C) is arranged at the position of each pixel constituting the light emitting region. Then, a set of patterns 2 constitutes a light emitting area.
[0024]
With reference to FIGS. 5A to 5C, description will be given of a case where blur processing is performed using pattern 1 for an area of 8 pixels × 8 pixels. FIG. 4A is a diagram showing a target region (8 pixels × 8 pixels) to be subjected to blur processing, FIG. 4B is a diagram showing a pattern 1, and FIG. It is a figure which shows the result of having arrange | positioned the pattern 1 for every 2 pixels in the area | region shown in FIG. As shown in FIG. 4C, the area shown in FIG. 1A can be expressed by the density of each pixel constituting the pattern 1, and as a result, the area shown in FIG. Images can be generated.
[0025]
Note that the color of each pixel constituting the pattern used for the blur processing is set to the color of the pixel (the color of the image copied from the first buffer) constituting the light emitting area to be subjected to the blur processing. This makes it possible to blur the light emitting area with the color of the light emitting area. Further, the color of each pixel constituting the pattern used for the blur processing is not limited to this, and a newly set color may be used. In this case, it is not necessary to set a color in advance for the pixels constituting the light emitting area.
[0026]
FIG. 7 shows a flowchart of the above-described image processing (blur processing). The program according to the flowchart shown in FIG. 7 functions as a subroutine of the game program 111 and is executed as necessary.
[0027]
First, a one-frame game screen is drawn in the first buffer 102a (step S701). Next, with reference to the game screen data drawn in the first buffer 102a, an image of an area having an α value equal to or smaller than a certain value θ is transferred to the first area 601 of the second buffer 102b (step S702). ). Then, blur processing is performed on the image group transferred to the first area 601 using the above pattern (step S703). Then, the image group that has been subjected to the blur processing one frame before and stored in the second area 602 of the second buffer 102b is stored in the image group that has been subjected to the blur processing, that is, the first area 601. The image group is synthesized (step S704). Then, the combined image, that is, the image group stored in the first area 601 is combined with the game screen stored in the first buffer 102a (step S705). Then, the game screen generated by the above process and stored in the first buffer 102a is output to the display unit 106 (step S706). When the above process ends, the process returns to the process of the game main body.
[0028]
As described above, the blur processing can be performed only on the light emitting area by the image processing program of the present embodiment, and as a result, transmitted light can be expressed around the light emitting area.
[0029]
[Second Embodiment]
In the first embodiment, for the sake of simplicity, it is assumed that only the image that has been subjected to the motion blur processing one frame before is stored. However, the images that have been subjected to the motion blur processing up to a predetermined number of times are stored. In addition, a smoother motion blur processing result can be obtained by lowering the α value of the past frame images and combining them with the images stored in the first area 601.
[0030]
In addition to the process of lowering the α value, the process of increasing the transparency as the image of the past frame increases, for example, the process of increasing the thinning rate of the pixels constituting the image of the past frame as the image of the past frame. May be used.
[0031]
Further, the buffers used for the series of processes shown in FIG. 6 are not limited to this. For example, in the first embodiment, the first area and the second area are provided in the second buffer 102b. However, for example, the third buffer and the fourth buffer are respectively provided outside the second buffer 102b. May be provided.
[0032]
[Third Embodiment]
The above processing (for example, processing according to part or all of the flowchart shown in FIG. 7) is stored as a program in a storage medium such as a CD-R, ROM, DVD-ROM, or MO, and stored in this storage medium. This computer can perform the above processing by causing the computer to read (install or copy) the program. Therefore, it is clear that this storage medium is also within the scope of the present invention.
[0033]
The image processing described in the above embodiment can also be realized by an image processing apparatus having the following configuration. That is, an image processing apparatus that performs image processing on an image including a plurality of frames and that includes a light emitting area, and that performs blur processing on the image of the light emitting area in the image of the frame of interest. A processing unit; a memory unit that stores an image of a previous frame before the target frame, the image being subjected to blur processing by the blur processing unit; and a transparency control that controls the transparency of the image stored in the memory unit And means for synthesizing the image whose transparency is controlled by the transparency control means with the image subjected to the blur processing by the blur processing means, and the predetermined display means using the image obtained by the synthesizing means as the image of the frame of interest Since the series of processing described in the above embodiment can be performed by an image processing device characterized in that Image processing apparatus including the it is clear that in the scope of the present invention.
[0034]
The image processing described in the above embodiment can also be realized by an image processing apparatus having the following configuration. That is, an image processing device that performs image processing on a continuous image composed of a plurality of frames and including an emission region, the first memory storing the image of the frame of interest, and the first memory A second memory for storing the image of the light emitting area among the images of the attention frame stored; a blur processing means for performing a blur process on the image stored in the second memory; and A third memory for storing an image of a previous frame, which has been subjected to blur processing by the blur processing means, transparency control means for controlling the transparency of the image stored in the third memory, and transparency The image whose transparency is controlled by the control means is subjected to the blur processing by the blur processing means, and is combined with the image stored in the second memory, and the combined image is converted into the third image. First combining means for outputting to the memory, and second combining means for combining the image obtained by the first combining means with the image of the frame of interest stored in the first memory. An image processing apparatus that outputs the image obtained by the means as an image of a frame of interest to a predetermined display unit can perform the series of processes described in the above-described embodiment. It is clear that the device is within the scope of the present invention.
[0035]
【The invention's effect】
As described above, according to the present invention, it is possible to perform the blur process only on the light emitting region and to express the transmitted light around the light emitting region.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a basic configuration of a game device that executes an image processing program according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a light emitting region.
FIG. 3 is a diagram showing a game screen including a light emitting area.
FIG. 4 is a diagram showing patterns used for blur processing.
5A is a diagram showing a target region (8 pixels × 8 pixels) to be subjected to blur processing, FIG. 5B is a diagram showing a pattern 1, and FIG. 5C is a region shown in FIG. It is a figure which shows the result of having arrange | positioned the pattern 1 for every 2 pixels.
6 shows a flow of processing until the game screen (current frame) shown in FIG. 3 is displayed on the display unit 106. FIG.
FIG. 7 is a flowchart of image processing (blur processing) according to the first embodiment of the present invention.

Claims (2)

複数のフレームからなる連続画像であって、発光領域を含む画像に対する画像処理をコンピュータに実行させるための画像処理プログラムであって、
注目フレームの画像における発光領域に対してブラー処理を施すブラー処理工程と、
前記注目フレームよりも従前のフレームの画像に含まれる発光領域の画像を構成している画素の透明度を上げる処理を行い、当該処理の際、前記注目フレームに対してより過去のフレーム程、透明度の上げる量を大きくする透明度制御工程と、
前記透明度制御工程で処理された各フレームの画像を、前記ブラー処理工程でブラー処理を施された前記注目フレームの画像に合成する合成工程のプログラムとを含み、
前記合成工程で得られた画像を前記コンピュータが有する表示部に表示させることを特徴とする画像処理プログラム。
A continuous image including a plurality of frames, an image processing program for executing the image processing against the image containing the light-emitting region to the computer,
A blur processing step of performing blur processing on the light emitting area in the image of the frame of interest;
A process of increasing the transparency of the pixels constituting the image of the light emitting area included in the image of the previous frame than the frame of interest is performed, and at the time of the process, the past frame is more transparent than the frame of interest. A transparency control step to increase the amount to be increased ;
A synthesis step program for synthesizing the image of each frame processed in the transparency control step with the image of the target frame subjected to the blur processing in the blur processing step,
An image processing program for displaying an image obtained in the synthesis step on a display unit included in the computer .
前記ブラー処理工程は、
所定のパターンを所定の配置に再帰的に配置することで得られるパターンを、発光領域内に配置することを特徴とする請求項1に記載の画像処理プログラム。
In the blur processing step,
The image processing program according to claim 1, wherein a pattern obtained by recursively arranging a predetermined pattern in a predetermined arrangement is arranged in the light emitting area.
JP2002008553A 2002-01-17 2002-01-17 Image processing program Expired - Fee Related JP3779620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002008553A JP3779620B2 (en) 2002-01-17 2002-01-17 Image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002008553A JP3779620B2 (en) 2002-01-17 2002-01-17 Image processing program

Publications (2)

Publication Number Publication Date
JP2003216964A JP2003216964A (en) 2003-07-31
JP3779620B2 true JP3779620B2 (en) 2006-05-31

Family

ID=27646783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002008553A Expired - Fee Related JP3779620B2 (en) 2002-01-17 2002-01-17 Image processing program

Country Status (1)

Country Link
JP (1) JP3779620B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210398251A1 (en) * 2018-12-19 2021-12-23 Koninklijke Philips N.V. A mirror assembly

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616220B2 (en) 2003-12-23 2009-11-10 Intel Corporation Spatio-temporal generation of motion blur
JP2020135004A (en) * 2019-02-13 2020-08-31 株式会社エクシヴィ Image processing device and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104959B2 (en) * 1983-12-28 1995-11-13 株式会社日立製作所 Growth model display
JP4067138B2 (en) * 1994-06-07 2008-03-26 株式会社セガ Game device
JP2881389B2 (en) * 1995-05-16 1999-04-12 日本アイ・ビー・エム株式会社 Automatic mesh generation method and system
JP3380979B2 (en) * 1997-04-04 2003-02-24 富士通株式会社 Video generation apparatus and method, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210398251A1 (en) * 2018-12-19 2021-12-23 Koninklijke Philips N.V. A mirror assembly
US12175634B2 (en) * 2018-12-19 2024-12-24 Koninklijke Philips N.V. Mirror assembly

Also Published As

Publication number Publication date
JP2003216964A (en) 2003-07-31

Similar Documents

Publication Publication Date Title
KR20010042671A (en) Image displaying device, image processing device, image displaying system
JP2000107447A (en) Video game device, game image display method, and recording medium
JPH07328228A (en) Game device
JPH10143129A (en) Device and method for displaying figure image
JP2001307126A (en) Method and device for plotting image, recording medium and program
JP3352982B2 (en) Rendering method and device, game device, and computer-readable recording medium for storing program for rendering three-dimensional model
JP2002024849A (en) Three-dimensional image processing device and readable recording medium with three-dimensional image processing program recorded thereon
JP3779620B2 (en) Image processing program
JP3502796B2 (en) 3D model display method and apparatus in video game, game apparatus, and computer-readable recording medium storing 3D model display program for video game
JP2017111719A (en) Video processing device, video processing method and video processing program
JPH10295934A (en) Video game device and changing method of texture of model
JP3231029B2 (en) Rendering method and device, game device, and computer-readable recording medium storing program for rendering three-dimensional model
JP3990258B2 (en) Image generation system, program, and information storage medium
EP1258836B1 (en) Image forming method, and computer program for forming image
JP4161613B2 (en) Image processing method
JP2002269582A (en) Game information, information storage medium, and game device
JP2001273519A (en) Game system, picture plotting method for this system, and computer-readable recording medium for storing program for game
JP2000259822A (en) Transparent synthesizing method of image
JP3168781B2 (en) Image and audio processing device
CN114266855A (en) Light effect simulation method and device of dot matrix screen and electronic equipment
JP2002230577A (en) Game device and information storage medium
JP2004205738A (en) Apparatus, program, and method for musical sound generation
JP3061704B2 (en) Information processing device
JP3652586B2 (en) Image drawing system
JP2004246877A (en) Program projecting image onto game character, game machine incorporating program, storage medium storing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051003

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20051007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060302

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20060427

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090310

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090310

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090310

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140310

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees