JP2001239053A - Cross fade processing method, video game device, and computer-readable storage medium recording video game program - Google Patents

Cross fade processing method, video game device, and computer-readable storage medium recording video game program

Info

Publication number
JP2001239053A
JP2001239053A JP2000055000A JP2000055000A JP2001239053A JP 2001239053 A JP2001239053 A JP 2001239053A JP 2000055000 A JP2000055000 A JP 2000055000A JP 2000055000 A JP2000055000 A JP 2000055000A JP 2001239053 A JP2001239053 A JP 2001239053A
Authority
JP
Japan
Prior art keywords
image
fade
value
sequentially
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000055000A
Other languages
Japanese (ja)
Inventor
Yasuhiro Yamamoto
泰弘 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Co Ltd filed Critical Square Co Ltd
Priority to JP2000055000A priority Critical patent/JP2001239053A/en
Publication of JP2001239053A publication Critical patent/JP2001239053A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To adjust the color tone of a display image during the implementation of cross fade and to increase the degree of freedom on the period adjustment or the like of fade-in and fade-out. SOLUTION: An αa value and a mask image are specified at first (S21, S23), then blending is implemented at the αa value for the perspectively converted two-dimensional image stored in a frame buffer and the mask image (S25), and a generated first composite image is drawn in the frame buffer (S27). An αb value and a fade-in image are specified (S29, S31), then α-blending is implemented at the αb value for the first composite image stored in the frame buffer and the fade-in image (S33), and a generated second composite image is drawn in the frame buffer (S35). The second composite image is displayed on a display screen. Various composite modes of the perspectively converted two-dimensional image and the fade-in image can be freely set by changing the αa value and the αb value according to the prescribed curve becoming 0 at the prescribed timing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、ビデオゲーム用の
画像処理に関し、より詳しくはビデオゲームにおけるク
ロスフェード処理に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to image processing for video games, and more particularly to cross-fade processing in video games.

【0002】[0002]

【従来の技術】クロスフェード(Cross Fade)処理と
は、表示中のある画像を徐々にフェードアウトさせつ
つ、同時に別の画像を徐々にフェードインさせて、両者
をオーバーラップさせながら表示中のある画像を別の画
像に変更する画像処理技術である。例えば、映画のエン
ディング部分において、それまでの映像と、黒地に「F
in」と白で書かれた画像とをクロスフェード処理を行
う場合には、映像が徐々に暗くなり、そこに「Fin」
という文字が白く浮き出てくる。最終的には黒地に「F
in」と白で書かれた画像が表示される。
2. Description of the Related Art Cross-fade processing is a process in which an image being displayed is gradually faded out while another image is gradually faded in at the same time. Is an image processing technique for changing the image to another image. For example, in the ending portion of a movie, the previous image and the black background “F
When cross-fade processing is performed between the image written in white and the image written in white, the image gradually becomes darker, and “Fin” is displayed there.
The word “white” emerges. Eventually, "F"
An image written in white is displayed.

【0003】例えば特開平10−295934号公報に
は、2つの立体モデルの画像を、互いの画像の透明度を
相補的に変えて重ね合わせることを繰り返すことによ
り、一方のテクスチャから他方のテクスチャに移り変わ
っていく立体モデルを得るような方法が開示されてい
る。相補的とは、合計を1.0とした場合には、一方を
0.3とした時には他方を0.7とし、一方を0.4と
した時には他方を0.6とするものである。
For example, Japanese Patent Application Laid-Open No. H10-295934 discloses that one texture is changed to another texture by repeatedly superimposing images of two stereo models while changing the transparency of each image complementarily. A method for obtaining a moving three-dimensional model is disclosed. The term "complementary" means that when the sum is 1.0, when one is 0.3, the other is 0.7, and when one is 0.4, the other is 0.6.

【0004】[0004]

【発明が解決しようとする課題】当該公報記載の方法に
よれば、互いの画像の透明度を相補的に変えることによ
り表示画像を連続的に変化させることができる。しか
し、移り変わり前後の2つの画像を直接合成しているた
め、2つの画像の合成時の明度が相補的になってしま
う。明度が相補的であると、クロスフェード中の画像の
色合いやフェードイン、フェードアウトの時間調整等の
変化過程を画像毎に個別に調整することが難しい。今日
では合成すべき2つの画像の明度を個別に調整できるこ
とが望まれている。
According to the method described in this publication, the displayed image can be continuously changed by complementarily changing the transparency of each image. However, since the two images before and after the transition are directly combined, the brightness at the time of combining the two images becomes complementary. If the brightness is complementary, it is difficult to individually adjust the change process such as the color tone of the image during the cross-fade and the time adjustment of the fade-in and fade-out for each image. Today, it is desired that the brightness of two images to be synthesized can be adjusted individually.

【0005】本発明は上記のような問題に鑑みてなされ
たものであって、色合いの調整や、フェードイン、フェ
ードアウトの時間調整等を個別に設定することができる
技術を提供することを目的とする。
The present invention has been made in view of the above-described problems, and has as its object to provide a technique capable of individually setting a hue adjustment, a fade-in / fade-out time adjustment, and the like. I do.

【0006】[0006]

【課題を解決するための手段】本発明の第1の態様に係
る、ビデオゲームにおけるクロスフェード処理方法は、
ビデオゲームの進行過程における任意のタイミング以
降、透視変換により順次生成されるゲーム画像と当該ゲ
ーム画像の色を調整するための調整用画像(例えば実施
例におけるマスク画像)とを、上記タイミングからの経
過時間に応じて値が変化される第1の合成比率(例えば
実施例におけるαa値)に従って合成し、第1の合成画
像を順次取得する第1ステップと、第1ステップで順次
取得される第1の合成画像と当該第1の合成画像とクロ
スフェードさせるフェードイン画像とを、上記タイミン
グからの経過時間に応じて値が変化される第2の合成比
率(例えば実施例におけるαb値)に従って合成し、第
2の合成画像を順次取得する第2ステップと、第2ステ
ップで順次取得される第2の合成画像を表示する第3ス
テップとを含む。
According to a first aspect of the present invention, there is provided a crossfade processing method in a video game, comprising:
After an arbitrary timing in the progress of the video game, a game image sequentially generated by the perspective transformation and an adjustment image (for example, a mask image in the embodiment) for adjusting the color of the game image are changed from the above timing. A first step of sequentially obtaining a first synthesized image by synthesizing according to a first synthesizing ratio (for example, αa value in the embodiment) whose value changes according to time, and a first step sequentially obtaining in the first step And a fade-in image to be cross-fade with the first synthesized image according to a second synthesis ratio (for example, αb value in the embodiment) whose value changes according to the elapsed time from the above timing. , A second step of sequentially acquiring the second composite image, and a third step of displaying the second composite image sequentially acquired in the second step.

【0007】第1の合成比率も第2の合成比率も、上記
任意のタイミングからの経過時間に応じて値が変化する
ので、第1の合成画像及び第2の合成画像の色合い調
整、フェードイン、フェードアウトの期間調整等を自由
に行うことができるようになる。これによりクロスフェ
ード実施中における表示画像の演出的な効果を高めるこ
とができるようになる。
[0007] Since the values of both the first composite ratio and the second composite ratio change according to the elapsed time from the above-mentioned arbitrary timing, the color adjustment of the first composite image and the second composite image, the fade-in, and the like. It is possible to freely adjust the fade-out period. This makes it possible to enhance the effect of the display image during the crossfade.

【0008】上で述べた第2の合成画像を取得する第2
ステップを、第1ステップで順次取得される第1の合成
画像と当該第1の合成画像とクロスフェードさせるフェ
ードイン画像とを、上記タイミングから所定時間第1の
合成画像のみを表示させるような値が保持され且つ所定
時間後の経過時間に応じて値が変化される第2の合成比
率に従って合成し、第2の合成画像を順次取得するステ
ップとするような構成も可能である
[0008] The second method for acquiring the second composite image described above.
The step is such that the first composite image sequentially acquired in the first step and the fade-in image to be cross-fade with the first composite image are set to values such that only the first composite image is displayed for a predetermined time from the above timing. May be held according to a second synthesis ratio in which the value is changed and the value is changed according to the elapsed time after a predetermined time, and a second synthesized image is sequentially acquired.

【0009】このような構成によりフェードイン画像の
フェードイン・タイミングを所定時間遅らせることがで
きるようになる。すなわち、フェードイン画像のフェー
ドインのタイミングを自由に設定できる。
With this configuration, the fade-in timing of the fade-in image can be delayed by a predetermined time. That is, the fade-in timing of the fade-in image can be freely set.

【0010】上で述べた第1の合成画像を取得する第1
ステップを、ビデオゲームの進行過程における任意のタ
イミング以降、透視変換により順次生成されるゲーム画
像と当該ゲーム画像の色を調整するための調整用画像と
を、上記タイミングからの経過時間に応じて値が変化さ
れる、画素毎の第1の合成比率に従って画素毎に合成
し、第1の合成画像を順次取得するステップとすること
も可能である。
The first method for obtaining the first composite image described above
A step is to set a game image sequentially generated by perspective transformation and an adjustment image for adjusting the color of the game image after an arbitrary timing in the progress of the video game in accordance with the elapsed time from the above timing. May be changed in such a manner that each pixel is synthesized according to a first synthesis ratio for each pixel, and a first synthesized image is sequentially obtained.

【0011】第1の合成比率は画素毎に異なる場合もあ
れば、全画素同じ場合もある。画素毎に第1の合成比率
を予め設定しておく場合もあれば、各画素の第1の合成
比率を計算により処理時に決定する場合もある。また、
第2の合成比率を第1の合成比率と同じように画素毎に
用意する場合もある。
The first combination ratio may be different for each pixel, or may be the same for all pixels. The first combination ratio may be set in advance for each pixel, or the first combination ratio of each pixel may be determined at the time of processing by calculation. Also,
In some cases, the second combination ratio is prepared for each pixel in the same manner as the first combination ratio.

【0012】また上で述べた第1の合成画像を取得する
第1ステップを、予め用意された1又は複数のポリゴン
を描画することにより調整用画像を取得するステップを
含むような構成とすることも可能である。本発明におい
て使用される調整用画像には様々な画像を使用すること
ができる。
[0012] The first step of obtaining the first composite image described above may include a step of obtaining an adjustment image by drawing one or a plurality of polygons prepared in advance. Is also possible. Various images can be used for the adjustment image used in the present invention.

【0013】さらに第1の合成画像を取得する第1ステ
ップを、座標指定により定まる領域を所定の配色にて描
画することにより調整用画像を取得するステップを含む
ような構成も可能である。
Further, the first step of obtaining the first composite image may include a step of obtaining an adjustment image by drawing an area determined by the coordinate designation with a predetermined color scheme.

【0014】上で述べた第1の合成画像を取得する第1
ステップを、調整用画像に対応する領域(例えば矩形)
の所定位置の複数の画素(例えば矩形の頂点)に設定さ
れる第1の合成比率を補間することにより、領域内に含
まれる画素毎の第1の合成比率を算出するステップを含
むような構成とすることも可能である。
The first method for acquiring the first composite image described above
Step is the area (for example, rectangle) corresponding to the adjustment image
A step of calculating a first combination ratio for each pixel included in the region by interpolating a first combination ratio set for a plurality of pixels (e.g., vertexes of a rectangle) at a predetermined position. It is also possible to use

【0015】本発明の第1の態様に係るビデオゲームに
おけるクロスフェード処理方法をコンピュータに実行さ
せるプログラムを作成することは可能である。その際、
第1の態様に対する上記のような変形は、当該プログラ
ムに対しても応用可能である。本発明に係るプログラム
は、例えばCD−ROM(Compact Disc - Read OnlyMe
mory)、DVD(Digital Versatile Disc)、フロッピ
ーディスク、メモリカートリッジ、メモリ、ハードディ
スクなどの記録媒体又は記憶装置に格納される。記録媒
体又は記憶装置に格納されるプログラムをコンピュータ
に読み込ませることで以下で述べるビデオゲーム装置を
実現できる。また、記録媒体によって本発明に係るプロ
グラムをソフトウエア製品として装置と独立して容易に
配布、販売することができるようになる。さらに、コン
ピュータなどのハードウエアを用いて本発明に係るプロ
グラムを実行することにより、コンピュータ等のハード
ウエアで本発明の画像処理技術が容易に実施できるよう
になる。
[0015] It is possible to create a program for causing a computer to execute the crossfade processing method in a video game according to the first aspect of the present invention. that time,
The above-described modification to the first embodiment is applicable to the program. The program according to the present invention is, for example, a CD-ROM (Compact Disc-Read OnlyMe).
mory), a DVD (Digital Versatile Disc), a floppy disk, a memory cartridge, a memory, a hard disk, and other recording media or storage devices. The video game device described below can be realized by causing a computer to read a program stored in a recording medium or a storage device. Further, the recording medium allows the program according to the present invention to be easily distributed and sold as a software product independently of the device. Further, by executing the program according to the present invention using hardware such as a computer, the image processing technique of the present invention can be easily implemented using hardware such as a computer.

【0016】本発明の第2の態様に係るビデオゲーム装
置は、ビデオゲームの進行過程における任意のタイミン
グ以降、透視変換により順次生成されるゲーム画像と当
該ゲーム画像の色を調整するための調整用画像とを、上
記タイミングからの経過時間に応じて値が変化される第
1の合成比率に従って合成し、第1の合成画像を順次取
得する第1合成画像取得手段と、第1合成画像取得手段
により順次取得される前記第1の合成画像と当該第1の
合成画像とクロスフェードさせるフェードイン画像と
を、上記タイミングからの経過時間に応じて値が変化さ
れる第2の合成比率に従って合成し、第2の合成画像を
順次取得する第2合成画像取得手段と、第2合成画像取
得手段により順次取得される第2の合成画像を表示する
表示手段とを有する。
A video game apparatus according to a second aspect of the present invention is a video game device for adjusting a game image sequentially generated by a perspective transformation and a color of the game image after an arbitrary timing in the progress of the video game. A first combined image acquiring unit that combines the image and the first combined image according to a first combining ratio in which a value changes according to an elapsed time from the timing, and sequentially acquires the first combined image; Are synthesized in accordance with a second synthesis ratio, the value of which is changed in accordance with the elapsed time from the timing, with the first synthesized image sequentially acquired by the above and a fade-in image to be cross-fade with the first synthesized image. , A second combined image acquiring unit for sequentially acquiring the second combined image, and a display unit for displaying the second combined image sequentially acquired by the second combined image acquiring unit.

【0017】本発明の第2の態様に係るビデオゲーム装
置に対しても、本発明の第1の態様について説明した変
形を応用することができる。
The modifications described for the first aspect of the present invention can be applied to the video game device according to the second aspect of the present invention.

【0018】また本発明の第3の態様に係るビデオゲー
ム装置は、コンピュータと、コンピュータに実行させる
プログラムを記録したコンピュータ読み取り可能な記録
媒体とを有する。そして、上記プログラムは、上記コン
ピュータに、ビデオゲームの進行過程における任意のタ
イミング以降、透視変換により順次生成されるゲーム画
像と当該ゲーム画像の色を調整するための調整用画像と
を、上記タイミングからの経過時間に応じて値が変化さ
れる第1の合成比率に従って合成し、第1の合成画像を
順次取得する第1合成画像取得処理と、第1合成画像取
得処理において順次取得される第1の合成画像と当該第
1の合成画像とクロスフェードさせるフェードイン画像
とを、上記タイミングからの経過時間に応じて値が変化
される第2の合成比率に従って合成し、第2の合成画像
を順次取得する第2合成画像生成処理と、第2合成画像
取得処理において順次取得される第2の合成画像を表示
する表示処理と、を実行させる。
A video game device according to a third aspect of the present invention has a computer and a computer-readable recording medium on which a program to be executed by the computer is recorded. Then, the program causes the computer to transmit a game image sequentially generated by perspective transformation and an adjustment image for adjusting the color of the game image from an arbitrary timing in the progressing process of the video game from the timing. Are synthesized according to a first synthesis ratio whose value changes according to the elapsed time of the first synthesized image, and a first synthesized image obtaining process for sequentially obtaining the first synthesized image, and a first synthesized image obtaining process sequentially obtained in the first synthesized image obtaining process And a fade-in image to be cross-fade with the first synthesized image according to a second synthesis ratio in which a value changes according to an elapsed time from the timing, and the second synthesized image is sequentially formed. A second composite image generation process to be acquired and a display process to display second composite images sequentially acquired in the second composite image acquisition process are executed.

【0019】本発明の第3の態様に係るビデオゲーム装
置に対しても、本発明の第1の態様について説明した変
形を応用することができる。
The modification described for the first aspect of the present invention can be applied to the video game apparatus according to the third aspect of the present invention.

【0020】[0020]

【発明の実施の形態】本発明をコンピュータ・プログラ
ムにより実施する場合において当該コンピュータ・プロ
グラムを実行する家庭用ゲーム機101の一例を図1に
示す。家庭用ゲーム機101は、例えば内部バス119
に接続されたCPU(Central Processing Unit)10
3、ROM(Read Only Memory)104、RAM(Rand
om Access Memory)105、HDD(Hard Disk Driv
e)107、サウンド処理部109、グラフィックス処
理部111、CD−ROMドライブ113、通信インタ
ーフェース115、及びインターフェース部117を備
える。グラフィックス処理部111は、フレームバッフ
ァ112を備える。フレームバッファ112はVRAM
(Video RAM)と示す場合もある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an example of a consumer game machine 101 that executes the computer program when the present invention is implemented by a computer program. The home game machine 101 includes, for example, an internal bus 119.
(Central Processing Unit) 10 connected to
3. ROM (Read Only Memory) 104, RAM (Rand
om Access Memory) 105, HDD (Hard Disk Driv)
e) a sound processing unit 109, a graphics processing unit 111, a CD-ROM drive 113, a communication interface 115, and an interface unit 117; The graphics processing unit 111 includes a frame buffer 112. The frame buffer 112 is a VRAM
(Video RAM).

【0021】家庭用ゲーム機101のサウンド処理部1
09及びグラフィックス処理部111は表示画面120
及びスピーカ122を有するTVセット121に接続さ
れている。また、CD−ROMドライブ113には着脱
可能なCD−ROM131が装着される。CD−ROM
131には、本発明にかかるゲームプログラム133及
びデータ135が記録されている。通信インターフェー
ス115はネットワーク151と通信媒体141を介し
て接続される。インターフェース部117には、操作ボ
タンを備えたキーパッド161及びメモリカード171
が接続される。
Sound processing unit 1 of home game machine 101
09 and the graphics processing unit 111
And a TV set 121 having a speaker 122. The CD-ROM drive 113 is equipped with a removable CD-ROM 131. CD-ROM
131 stores a game program 133 and data 135 according to the present invention. The communication interface 115 is connected to the network 151 via the communication medium 141. The interface unit 117 includes a keypad 161 having operation buttons and a memory card 171.
Is connected.

【0022】CPU103は、ROM104に格納され
たプログラム、及びCD−ROM131上に記録された
ゲームプログラム133を実行し、家庭用ゲーム機10
1の制御を行う。RAM105は、CPU103のワー
クエリアである。HDD107は、例えばCD−ROM
131上に記録されたゲームプログラム133及びデー
タ135を保管するための記憶領域である。メモリカー
ド171は、ゲームプログラム133により参照される
データを保存するための記憶領域である。サウンド処理
部109は、CPU103により実行されているプログ
ラムがサウンド出力を行うよう指示している場合に、そ
の指示を解釈して、TVセット121にサウンド信号を
出力する。そして、サウンド信号はTVセット121の
スピーカ122からサウンドとして出力される。
The CPU 103 executes the program stored in the ROM 104 and the game program 133 recorded on the CD-ROM 131, and
1 is performed. The RAM 105 is a work area of the CPU 103. The HDD 107 is, for example, a CD-ROM
A storage area for storing the game program 133 and data 135 recorded on the storage 131. The memory card 171 is a storage area for storing data referred to by the game program 133. When the program executed by the CPU 103 instructs to output sound, the sound processing unit 109 interprets the instruction and outputs a sound signal to the TV set 121. Then, the sound signal is output from the speaker 122 of the TV set 121 as a sound.

【0023】グラフィックス処理部111は、CPU1
03から出力される描画命令に従って、画像データを生
成してフレームバッファ112に書き込む。そして、書
き込んだ画像データを表示画面120に表示するための
信号をTVセット121に出力する。CD−ROMドラ
イブ113は、CD−ROM131上のゲームプログラ
ム133及びデータ135を読み出す。通信インターフ
ェース115は、通信媒体141を介してネットワーク
151に接続され、他のコンピュータ等との間で行われ
るデータ通信の入出力制御を行う。インターフェース部
117は、キーパッド161からの入力をRAM105
に出力し、CPU103がキーパッド161からの入力
を解釈して演算処理を実施する。
The graphics processing unit 111 includes a CPU 1
In accordance with the drawing command output from the image processing unit 03, image data is generated and written into the frame buffer 112. Then, a signal for displaying the written image data on the display screen 120 is output to the TV set 121. The CD-ROM drive 113 reads the game program 133 and data 135 on the CD-ROM 131. The communication interface 115 is connected to the network 151 via the communication medium 141 and controls input / output of data communication performed with another computer or the like. The interface unit 117 receives an input from the keypad 161 and stores it in the RAM 105.
, And the CPU 103 interprets the input from the keypad 161 to execute the arithmetic processing.

【0024】本発明に係るゲームプログラム133及び
データ135は最初例えばCD−ROM131に記録さ
れている。そして、ゲームプログラム133及びデータ
135は実行時にCD−ROMドライブ113により読
み出されて、RAM105にロードされる。なお、CD
−ROM131に記録されている本発明に係るゲームプ
ログラム133及びデータ135を、予めCD−ROM
ドライブ113により読み出し、HDD107に格納し
ておくようにしてもよい。HDD107に本発明に係る
ゲームプログラム及びデータ108が格納されている場
合には、HDD107からRAM105にゲームプログ
ラム及びデータ108がロードされる。
The game program 133 and the data 135 according to the present invention are initially recorded on the CD-ROM 131, for example. Then, the game program 133 and the data 135 are read out by the CD-ROM drive 113 at the time of execution, and loaded into the RAM 105. CD
The game program 133 and the data 135 according to the present invention recorded in the ROM 131 are stored in a CD-ROM in advance.
The data may be read by the drive 113 and stored in the HDD 107. When the game program and data 108 according to the present invention are stored in the HDD 107, the game program and data 108 are loaded from the HDD 107 into the RAM 105.

【0025】CPU103はRAM105にロードされ
た、本発明に係るゲームプログラム133及びデータ1
35を処理し、描画命令をグラフィックス処理部111
に出力する。なお、中間的なデータはRAM105に記
憶される。グラフィックス処理部111はCPU103
からの描画命令に従って処理を行い、画像データをフレ
ームバッファ112に書き込み、表示画面120に表示
するための信号をTVセット121に出力する。
The CPU 103 loads the game program 133 and data 1 according to the present invention loaded into the RAM 105.
35, and renders the drawing command to the graphics processing unit 111.
Output to The intermediate data is stored in the RAM 105. The graphics processing unit 111 is a CPU 103
The image data is written to the frame buffer 112, and a signal to be displayed on the display screen 120 is output to the TV set 121.

【0026】以上のような家庭用ゲーム機101におい
て実行される本発明に係るゲームプログラムのアルゴリ
ズム及び使用されるデータについて以下で詳しく述べ
る。
The algorithm of the game program according to the present invention executed on the above-mentioned consumer game machine 101 and the data used will be described in detail below.

【0027】図2乃至図4を用いて本発明で使用される
データの説明を行う。
The data used in the present invention will be described with reference to FIGS.

【0028】図2は本発明に係るゲームプログラム実行
中におけるRAM105の状態を示す模式図である。R
AM105には、プログラム記憶領域1051、関連デ
ータ記憶領域1053、ワークエリア1057が設けら
れている。プログラム記憶領域1051には本発明に係
るゲームプログラムが記憶されている。関連データ記憶
領域1053には図3で説明するクロスフェード設定テ
ーブル1055が記憶されている。
FIG. 2 is a schematic diagram showing a state of the RAM 105 during execution of the game program according to the present invention. R
The AM 105 is provided with a program storage area 1051, a related data storage area 1053, and a work area 1057. The program storage area 1051 stores a game program according to the present invention. The crossfade setting table 1055 described with reference to FIG. 3 is stored in the related data storage area 1053.

【0029】ワークエリア1057には、マスク画像1
059とフェードイン画像1065が記憶されている。
マスク画像1059は、透視変換済みのフェードアウト
させる二次元画像と合成するための画像である。なお透
視変換済みのフェードアウトさせる二次元画像は、フレ
ームバッファ112に描画される。マスク画像1059
は通常複数用意されており、ここではマスク画像M1
(1061)及びマスク画像M2(1063)が示され
ている。但しマスク画像1059は1つであってもよ
い。フェードイン画像1065は、フェードインさせる
画像であって、フェードアウトさせる二次元画像とマス
ク画像1059との合成画像と二度目の合成を行うため
の画像である。フェードイン画像1065も通常複数用
意されており、ここではフェードイン画像F1(106
7)及びフェードイン画像F2(1069)が示されて
いる。但しフェードイン画像1065も1つであっても
よい。
The work area 1057 contains a mask image 1
059 and a fade-in image 1065 are stored.
The mask image 1059 is an image to be combined with the perspective-transformed two-dimensional image to be faded out. The perspective-transformed two-dimensional image to be faded out is drawn in the frame buffer 112. Mask image 1059
Are usually prepared in plural, and here, the mask image M1
(1061) and the mask image M2 (1063). However, the number of the mask image 1059 may be one. The fade-in image 1065 is an image to be faded in, and is an image for performing the second synthesis with a composite image of the mask image 1059 and the two-dimensional image to be faded out. Usually, a plurality of fade-in images 1065 are also prepared, and here, the fade-in image F1 (106
7) and the fade-in image F2 (1069). However, the number of the fade-in image 1065 may be one.

【0030】図3は関連データ記憶領域1053に含ま
れるクロスフェード設定テーブル1055を示してい
る。クロスフェード設定テーブル1055は、クロスフ
ェードポイント毎に使用されるマスク画像のIDとフェ
ードイン画像のIDと、後に述べるαa値の関数と、後
に述べるαb値の関数とを記憶するためのテーブルであ
る。よって、クロスフェード設定テーブル1055に
は、マスク画像IDの列201と、フェードイン画像I
Dの列203と、αa関数の欄209と、αb関数の欄2
11とが設けられている。図3の例では、クロスフェー
ドポイント1(205)に対応するマスク画像IDはM
1であり、フェードイン画像IDはF1である。また、
クロスフェードポイント1(205)に対応するαa関
数はFa1(t)であり、αb関数はFb1(t)である。このよ
うに、αa関数及びαb関数も時間tの関数であることが
分かる。なお、後に述べるが時間tが経過時間tを意味
する。またクロスフェードポイント2(207)に対応
するマスク画像IDはM2であり、フェードイン画像I
DはF2である。クロスフェードポイント2(207)
に対応するαa関数はFa2(t)であり、αb関数はFb2(t)
である。
FIG. 3 shows a crossfade setting table 1055 included in the related data storage area 1053. The crossfade setting table 1055 is a table for storing an ID of a mask image and an ID of a fade-in image used for each crossfade point, a function of an αa value described later, and a function of an αb value described later. . Therefore, in the crossfade setting table 1055, the column 201 of the mask image ID and the fade-in image I
D column 203, αa function column 209, αb function column 2
11 are provided. In the example of FIG. 3, the mask image ID corresponding to the crossfade point 1 (205) is M
1, and the fade-in image ID is F1. Also,
The αa function corresponding to crossfade point 1 (205) is Fa1 (t), and the αb function is Fb1 (t). Thus, it can be seen that the αa function and the αb function are also functions of the time t. As described later, the time t means the elapsed time t. The mask image ID corresponding to the cross fade point 2 (207) is M2, and the fade-in image I
D is F2. Crossfade point 2 (207)
Is α2 (t) and αb function is Fb2 (t)
It is.

【0031】後に述べる本発明に係るゲームプログラム
133のアルゴリズムにおいて、クロスフェードを行う
タイミングがくると、ゲームプログラム133中のクロ
スフェードポイント番号が判別される。判別されたクロ
スフェードポイント番号がクロスフェード設定テーブル
1055内で検索され、使用するマスク画像ID及びフ
ェードイン画像IDが取得される。これらIDを使用し
て、ワークエリア上のマスク画像1059及びフェード
イン画像1065が取得される。
In the algorithm of the game program 133 according to the present invention, which will be described later, when the timing for performing the crossfade comes, the crossfade point number in the game program 133 is determined. The determined crossfade point number is searched in the crossfade setting table 1055, and the mask image ID and the fade-in image ID to be used are obtained. Using these IDs, a mask image 1059 and a fade-in image 1065 on the work area are obtained.

【0032】なお、クロスフェード設定テーブル105
5は一例であって、テーブル状に上で述べたような情報
を保持しなくともよい。例えば本発明に係るゲームプロ
グラム133上に記述されていてもよい。
The crossfade setting table 105
5 is an example, and it is not necessary to hold the information described above in a table shape. For example, it may be described on the game program 133 according to the present invention.

【0033】本発明において使用される他のデータとし
てはα値がある。α値は、αブレンディングで用いられ
る透明度を表す値である。本発明においてα値には、透
視変換済みのフェードアウトさせる二次元画像とマスク
画像1059との合成(αブレンディング)に使用され
るαaと、一回目の合成結果に係る第1の合成画像とフ
ェードイン画像との合成(αブレンディング)に使用さ
れるαbとがある。
As another data used in the present invention, there is an α value. The α value is a value representing the transparency used in α blending. In the present invention, the α value includes αa used for synthesizing (α blending) the masked image 1059 and the perspective-transformed two-dimensional image to be faded out, and the first synthesized image related to the first synthesis result and the fade-in. There is αb used for synthesis with an image (α blending).

【0034】これらαa及びαb値は本発明に係るクロス
フェード設定テーブル1055に定義されている。ま
た、これらαa及びαb値はクロスフェードポイント毎に
設定される。
These αa and αb values are defined in the crossfade setting table 1055 according to the present invention. The αa and αb values are set for each crossfade point.

【0035】図4にαa及びαb値の時間変化の一例を示
すグラフを示す。図4に示されたグラフにおいて縦軸は
α値の大きさを示しており、横軸は時間(単位は秒)を
示している。α値は0〜1の実数である。クロスフェー
ド処理開始時刻を0.0秒とする。αa値は図4におい
て実線301で示されており、クロスフェード処理開始
時刻(0.0秒)の1.0からクロスフェード処理終了
時刻(4.0秒)の0.0まで直線的に減少している。
FIG. 4 is a graph showing an example of the time change of the αa and αb values. In the graph shown in FIG. 4, the vertical axis indicates the magnitude of the α value, and the horizontal axis indicates time (unit is seconds). The α value is a real number from 0 to 1. The crossfade processing start time is set to 0.0 seconds. The αa value is indicated by a solid line 301 in FIG. 4 and linearly decreases from 1.0 at the crossfade processing start time (0.0 seconds) to 0.0 at the crossfade processing end time (4.0 seconds). are doing.

【0036】一方、αb値は図4において点線303で
示されており、クロスフェード処理開始時刻(0秒)か
ら0.5秒間は1.0のまま保持されている。その後
0.5秒から2.5秒までαb値は直線的に減少してい
る。さらに2.5秒から4.0秒までαb値は0.0に
保持される。
On the other hand, the αb value is indicated by a dotted line 303 in FIG. 4, and is maintained at 1.0 for 0.5 second from the crossfade processing start time (0 second). Thereafter, the αb value decreases linearly from 0.5 seconds to 2.5 seconds. Further, the αb value is kept at 0.0 from 2.5 seconds to 4.0 seconds.

【0037】以上のようなαa及びαb値が定義されてい
る場合には、クロスフェード期間は0.0秒から4秒の
間である。また、フェードイン期間は0.5秒から4.
0秒の間である。フェードアウト期間は0.0秒から
4.0秒の間である。
When the above αa and αb values are defined, the crossfade period is between 0.0 seconds and 4 seconds. In addition, the fade-in period is 0.5 seconds to 4.
It is between 0 seconds. The fade-out period is between 0.0 and 4.0 seconds.

【0038】ここでαブレンディングについて簡単に説
明しておく。入力画像Aのある画素の色をRGB三原色
で表したときに(Ar,Ag,Ab)とし、入力画像Bの
対応する画素の色を同じくRGB三原色で表したとき
(Br,Bg,Bb)とする。α値をαとすると、出力画
像Cの対応する画素の色(Cr,Cg,Cb)は以下のよ
うな式で表される。 Cr=(Ar−Br)α+Br=Arα+(1−α)Br (1−1) Cg=(Ag−Bg)α+Bg=Agα+(1−α)Bg (1−2) Cb=(Ab−Bb)α+Bb=Abα+(1−α)Bb (1−3) 以上を画像単位で単純化して説明すると以下のようにな
る。 C=(A−B)α+B=Aα+(1−α)B (2)
Here, α blending will be briefly described. When the color of a certain pixel of the input image A is represented by three primary colors of RGB (Ar, Ag, Ab), and the color of the corresponding pixel of the input image B is also represented by three primary colors of RGB (Br, Bg, Bb). I do. Assuming that the α value is α, the color (Cr, Cg, Cb) of the corresponding pixel of the output image C is expressed by the following equation. Cr = (Ar-Br) α + Br = Arα + (1-α) Br (1-1) Cg = (Ag-Bg) α + Bg = Agα + (1-α) Bg (1-2) Cb = (Ab-Bb) α + Bb = Ab .alpha. + (1-.alpha.) Bb (1-3) The above is simplified for each image and described as follows. C = (AB) α + B = Aα + (1−α) B (2)

【0039】(実施の形態1)以上述べたようなデータ
を本発明では用いる。実施の形態1におけるゲームプロ
グラム133の処理について説明する前に、実施の形態
1に係る動作の原理について図5乃至図9を用いて説明
しておく。
(Embodiment 1) The data described above is used in the present invention. Before describing the processing of the game program 133 in the first embodiment, the principle of the operation according to the first embodiment will be described with reference to FIGS.

【0040】図5にはフェードアウトさせる透視変換済
みの二次元画像2001を示している。二次元画像20
01には黒いリングが含まれている。図6にはマスク画
像2003を示している。マスク画像2003は全面黒
である。図7にはフェードイン画像2005を示してい
る。フェードイン画像2005には黒地に白のENDの
文字が埋め込まれている。
FIG. 5 shows a perspective-transformed two-dimensional image 2001 to be faded out. Two-dimensional image 20
01 includes a black ring. FIG. 6 shows a mask image 2003. The mask image 2003 is entirely black. FIG. 7 shows a fade-in image 2005. In the fade-in image 2005, white END characters are embedded on a black background.

【0041】例えばαa値を0.5として図5の二次元
画像2001と図6のマスク画像2003とに対してα
ブレンディングを行うと、図8のような第1の合成画像
2007を得る。第1の合成画像2007のうち黒いリ
ング以外の下地部分2007aはマスク画像2003よ
り薄い灰色になる。黒いリングの部分は、元となるマス
クも二次元画像2001の黒いリングも黒なので、余り
変わらない。
For example, when the αa value is set to 0.5, the two-dimensional image 2001 in FIG. 5 and the mask image 2003 in FIG.
When the blending is performed, a first composite image 2007 as shown in FIG. 8 is obtained. The base portion 2007a other than the black ring in the first composite image 2007 becomes lighter gray than the mask image 2003. The black ring portion does not change much because the original mask and the black ring of the two-dimensional image 2001 are also black.

【0042】αa値を1.0から0.0へ変化させる
と、第1の合成画像2007は、二次元画像2001か
らマスク画像2003へ変化する。これは、二次元画像
2001を(2)式のAとし、マスク画像2003を
(2)式のBとすれば明らかである。
When the αa value is changed from 1.0 to 0.0, the first composite image 2007 changes from the two-dimensional image 2001 to the mask image 2003. This is clear when the two-dimensional image 2001 is represented by A in Expression (2) and the mask image 2003 is represented by B in Expression (2).

【0043】第1回目のαブレンデインングは透視変換
済みの二次元画像2001の輝度調整が主な目的であ
る。特にマスク画像2003が図6のように全面黒のよ
うな場合には、αa値が減少するようなαブレンディン
グを実施することにより二次元画像2001の輝度値が
次第に落ちて行く。
The main purpose of the first α-blending is to adjust the luminance of the perspective-transformed two-dimensional image 2001. In particular, when the mask image 2003 is entirely black as shown in FIG. 6, the brightness value of the two-dimensional image 2001 gradually decreases by performing α blending such that the αa value decreases.

【0044】透視変換後の二次元画像の輝度を調整する
場合、より精密な輝度調整の方法としては、例えば光源
の設定を変更して光源計算をやり直す手法がある。しか
しこの手法では輝度を調整するための演算量が増大して
しまう。
When adjusting the luminance of the two-dimensional image after the perspective transformation, as a more precise method of adjusting the luminance, for example, there is a method of changing the setting of the light source and recalculating the light source. However, this method increases the amount of calculation for adjusting the luminance.

【0045】これに対して透視変換後の二次元画像20
01とマスク画像とのαブレンディングは、二次元画像
2001の輝度調整を簡単に行うことができ、輝度調整
に要する演算量を抑えることができる。
On the other hand, the perspective transformed two-dimensional image 20
Α blending between 01 and the mask image makes it possible to easily adjust the brightness of the two-dimensional image 2001, and to reduce the amount of calculation required for the brightness adjustment.

【0046】次に、αb値を0.5として図8の第1の
合成画像2007と図7のフェードイン画像2005と
に対してαブレンデインングを行うと、図9のような第
2の合成画像2009を得る。第2の合成画像2009
のうち下地の部分2009aは、フェードイン画像20
05の下地が黒なので、第1の合成画像2007の下地
部分2007aよりも濃い灰色になっている。リングの
部分は、第1の合成画像2007においても黒でフェー
ドイン画像2005の下地も黒なので黒のままである。
フェードイン画像2005において白いENDという文
字は、第1の合成画像2007の下地に影響されて、第
2の合成画像2009の下地部分2009aよりは薄い
灰色となっている。
Next, when the αb value is set to 0.5 and α blending is performed on the first composite image 2007 of FIG. 8 and the fade-in image 2005 of FIG. 7, the second composite image shown in FIG. 9 is obtained. A composite image 2009 is obtained. Second synthetic image 2009
Of the background 2009a is the fade-in image 20
Since the background of 05 is black, it is darker gray than the background 2007 a of the first composite image 2007. The ring portion remains black because the first composite image 2007 is also black and the base of the fade-in image 2005 is also black.
In the fade-in image 2005, white END is affected by the background of the first composite image 2007 and is lighter gray than the background portion 2009a of the second composite image 2009.

【0047】αb値を1.0から0.0に変化させる
と、第2の合成画像2009は、第1の合成画像200
7からフェードイン画像2005に変化する。これは第
1の合成画像2007を(2)式のAとし、フェードイ
ン画像2005を(2)のBとすれば明らかである。
When the αb value is changed from 1.0 to 0.0, the second synthesized image 2009 becomes the first synthesized image 200
7 to a fade-in image 2005. This is clear when the first synthesized image 2007 is represented by A in Expression (2) and the fade-in image 2005 is represented by B in Expression (2).

【0048】この第2の合成画像2009が表示画面1
20に表示される画像である。第2のαブレンディング
は主に二次元画像2001とフェードイン画像2005
の間接的な合成が目的となっている。αa及びαb値をそ
れぞれ1.0から0.0に変化させれば、結果的に二次
元画像2001からフェードイン画像2005に次第に
変化するようになる。変化の過程は、αa値及びαb値の
時間変化を制御することにより調整することができる。
The second composite image 2009 is displayed on the display screen 1
20 is an image displayed on the screen. The second alpha blending is mainly performed on the two-dimensional image 2001 and the fade-in image 2005.
It is intended for indirect synthesis of. If the αa and αb values are changed from 1.0 to 0.0, respectively, the two-dimensional image 2001 is gradually changed to the fade-in image 2005 as a result. The process of the change can be adjusted by controlling the time change of the αa value and the αb value.

【0049】すなわち、最初に図5の二次元画像200
1が表示画面120に表示される。αa及びαb値が0.
5となれば図9の第2の合成画像2009が表示画面1
20に表示される。最後にαa及びαb値が0.0になれ
ば図7のフェードイン画像2005が表示画面120に
表示される。
That is, first, the two-dimensional image 200 shown in FIG.
1 is displayed on the display screen 120. αa and αb values are 0.
5, the second composite image 2009 of FIG.
20 is displayed. Finally, when the αa and αb values become 0.0, the fade-in image 2005 of FIG. 7 is displayed on the display screen 120.

【0050】以上のような前提を元にして実施の形態1
にかかる処理フローを説明する。
Embodiment 1 based on the above assumptions
Will be described.

【0051】CPU103は、起動時に、ROM104
等に記憶されているオペレーティングシステムに基づ
き、CD−ROMドライブ113を介してCD−ROM
131から画像処理やゲームの実行に必要なゲームプロ
グラム133やデータ135を読み出し、RAM105
に転送させる。そして、CPU103は、RAM105
に転送されたゲームプログラム133を実行することに
より、以下に記載する処理を実現する。
At the time of startup, the CPU 103
And the like, based on the operating system stored in the CD-ROM drive 113 via the CD-ROM drive 113.
A game program 133 and data 135 necessary for image processing and game execution are read from the
To transfer. Then, the CPU 103
By executing the game program 133 transferred to the server, the processing described below is realized.

【0052】なお、家庭用ゲーム装置101で行われる
制御及び処理の中には、CPU103以外の回路がCP
U103と協働して実際の制御及び処理を行っている場
合もある。説明の便宜上、以下では、CPU103が関
係する制御及び処理は、CPU103が直接的に実行し
ているものとして説明する。
In the control and processing performed by the home game apparatus 101, circuits other than the CPU 103 include CPs.
Actual control and processing may be performed in cooperation with U103. For convenience of explanation, control and processing related to the CPU 103 will be described below assuming that the CPU 103 is directly executing the control and processing.

【0053】また、画像処理やゲームを実行するために
必要なゲームプログラム133やデータ135は、実際
にはCPU103からの命令に従って処理の進行状況に
応じて順次CD−ROM131から読み出されてRAM
105に転送される。しかし、以下に示す説明では、発
明の理解を容易にするため、CD−ROM131からの
データの読み出しや、RAM105への転送に関する記
述は省略している。
The game program 133 and the data 135 necessary for executing the image processing and the game are read out from the CD-ROM 131 sequentially according to the progress of the processing in accordance with the instruction from the CPU 103 and read out from the RAM.
Transferred to 105. However, in the following description, descriptions relating to data reading from the CD-ROM 131 and transfer to the RAM 105 are omitted to facilitate understanding of the invention.

【0054】もし画像処理やゲームを実行するために必
要なゲームプログラム133やデータ135がHDD1
07に格納されている場合には、CPU103からの命
令に従って処理の進行状況に応じて順次HDD107か
ら読み出されてRAM105に転送される。しかし、以
下に示す説明では、上で述べたのと同様の理由で、HD
D107からのデータの読み出しや、RAM105への
転送に関する記述は省略している。
If the game program 133 and the data 135 necessary for executing the image processing and the game are stored in the HDD 1
07, the data is sequentially read from the HDD 107 and transferred to the RAM 105 in accordance with the processing progress according to the instruction from the CPU 103. However, in the following description, for the same reason as described above, the HD
A description of reading data from D107 and transferring data to RAM 105 is omitted.

【0055】図10に実施の形態1に係る表示処理のメ
インフローを示す。最初に、今現在表示周期であるかが
判断される(ステップS1)。画像は表示画面120に
通常1秒間に30フレーム又は60フレーム表示される
ので、表示周期であるフレーム間隔は1/30秒又は1
/60秒となる。今現在表示周期でなければゲーム終了
かどうか判断される(ステップS17)。ゲーム終了で
あれば処理を終了し、ゲーム終了でなければステップS
1に戻る。
FIG. 10 shows a main flow of the display processing according to the first embodiment. First, it is determined whether it is the present display cycle (step S1). Since an image is normally displayed on the display screen 120 at 30 frames or 60 frames per second, the frame interval, which is the display cycle, is 1/30 seconds or 1
/ 60 seconds. If it is not the current display cycle, it is determined whether the game is over (step S17). If the game is over, the process is terminated.
Return to 1.

【0056】ステップS1において今現在表示周期であ
ると判断されると、次にゲーム処理が実行される(ステ
ップS3)。ステップS3におけるゲーム処理では、キ
ーパッド161によるユーザの操作入力に応じたゲーム
進行処理が実施される。また、操作入力等に応じて視点
位置の設定や三次元モデルの動作計算等も実行される。
さらに上で述べたように、現在の処理が本実施例に係る
ゲームプログラムに規定されているクロスフェードポイ
ントに到達した場合には、クロスフェード実行フラグが
0から1にセットされる。なお、現時点におけるクロス
フェードポイント番号もRAM105のワークエリア1
057に格納されるものとする。
If it is determined in step S1 that the current display period is currently set, a game process is executed (step S3). In the game process in step S3, a game progress process according to a user's operation input using the keypad 161 is performed. In addition, according to an operation input or the like, setting of a viewpoint position, operation calculation of a three-dimensional model, and the like are also performed.
Further, as described above, when the current process reaches the crossfade point specified in the game program according to the present embodiment, the crossfade execution flag is set from 0 to 1. The current crossfade point number is also stored in work area 1 of RAM 105.
057.

【0057】次にレンダリングが実行される(ステップ
S5)。ステップS5におけるレンダリング処理では、
設定された視点位置及び計算された三次元モデルの形状
及び姿勢等に基づき光源計算及び透視変換が実施され
る。透視変換は、世界座標系のポリゴンの各頂点の座標
値をスクリーン座標系における座標値に変換するもので
ある。そして透視変換後の画像をフレームバッファ11
2に描画する。光源計算は、光源から発せられた仮想的
な光線により生じる陰影(輝度)を計算するものであ
る。これにて透視変換済みの二次元画像がフレームバッ
ファ112に生成されたことになる。
Next, rendering is executed (step S5). In the rendering processing in step S5,
Light source calculation and perspective transformation are performed based on the set viewpoint position and the calculated shape and orientation of the three-dimensional model. The perspective transformation is for transforming the coordinate values of each vertex of a polygon in the world coordinate system into coordinate values in the screen coordinate system. Then, the image after the perspective transformation is stored in the frame buffer 11.
Draw on 2. The light source calculation is to calculate a shadow (luminance) generated by a virtual light ray emitted from the light source. Thus, the perspective-transformed two-dimensional image is generated in the frame buffer 112.

【0058】レンダリングの後にクロスフェード処理の
タイミングであるかが判断される(ステップS7)。ク
ロスフェード処理のタイミングであるか否かはクロスフ
ェード実行フラグが1であるかどうかで判断される。も
し、クロスフェード処理のタイミングでない場合には、
ステップS15に移行し、フレームバッファ112に描
画された透視変換済みの二次元画像が表示される。
After the rendering, it is determined whether it is the timing of the cross-fade processing (step S7). Whether or not the timing of the cross-fade processing is determined is based on whether or not the cross-fade execution flag is “1”. If it is not the timing of crossfade processing,
The process proceeds to step S15, where the perspective transformed two-dimensional image drawn in the frame buffer 112 is displayed.

【0059】一方、クロスフェード処理のタイミングで
あると判断された場合には、図11を用いて詳細に説明
するクロスフェード処理が実行される(ステップS
9)。クロスフェード処理が実行された後、クロスフェ
ード処理を終了させるかを判断する(ステップS1
1)。クロスフェード処理を終了させるか否かの判断
は、クロスフェード処理開始からの経過時間によって行
われる。すなわち、クロスフェード処理開始からの経過
時間が予め定められた終了時間を過ぎたか否かで判断さ
れる。
On the other hand, when it is determined that the timing of the cross-fade processing is reached, the cross-fade processing described in detail with reference to FIG. 11 is executed (step S).
9). After the cross-fade processing is executed, it is determined whether to end the cross-fade processing (step S1).
1). The determination as to whether to end the crossfade processing is made based on the elapsed time from the start of the crossfade processing. That is, it is determined whether or not the elapsed time from the start of the crossfade processing has passed a predetermined end time.

【0060】クロスフェード処理を終了させない場合に
はステップS15に移行する。一方、クロスフェード処
理を終了させる場合には、クロスフェード実行フラグの
値が1から0にリセットされる(ステップS13)。そ
して、表示処理が実行される(ステップS15)。すな
わち、この時点でフレームバッファ112に描画された
画像がTVセット121の表示画面120に表示され
る。
If the cross-fade processing is not to be ended, the flow shifts to step S15. On the other hand, when ending the crossfade processing, the value of the crossfade execution flag is reset from 1 to 0 (step S13). Then, a display process is executed (step S15). That is, at this point, the image drawn in the frame buffer 112 is displayed on the display screen 120 of the TV set 121.

【0061】最後にゲームを終了するか判断される(ス
テップS17)。ゲームを終了させるか否かは、例えば
ユーザがキーパッド161を操作してゲーム終了を命じ
たか又はゲームのストーリ上ゲーム終了の条件が満たさ
れたかに基づき判断される。ゲームを終了させない場合
には、ステップS1に戻る。ゲームを終了させる場合に
は処理を終了させる。
Finally, it is determined whether to end the game (step S17). Whether or not to end the game is determined based on, for example, whether the user has operated the keypad 161 to order the end of the game, or whether a condition for ending the game in the story of the game has been satisfied. If the game is not to be ended, the process returns to step S1. When ending the game, the processing is ended.

【0062】次に図11を用いてクロスフェード処理を
説明する。クロスフェード処理において最初にクロスフ
ェード設定テーブル1055に定義されたαa関数に基
づきαa値が設定される(ステップS21)。αa値は、
上で述べたように透視変換済みの二次元画像とマスク画
像とのαブレンディングに用いられるα値である。αa
値は例えば図4に示したように時間により変化する。
Next, the crossfade processing will be described with reference to FIG. In the crossfade processing, first, an αa value is set based on the αa function defined in the crossfade setting table 1055 (step S21). αa value is
As described above, this is an α value used for α blending of the two-dimensional image after the perspective transformation and the mask image. αa
The value changes with time, for example, as shown in FIG.

【0063】次にマスク画像が指定される(ステップS
23)。この処理は、クロスフェード設定テーブル10
55を参照して、本処理実行時におけるクロスフェード
ポイント番号からマスク画像IDを取得し、当該マスク
画像IDからマスク画像を特定することにより行われ
る。
Next, a mask image is designated (step S
23). This processing is performed in the crossfade setting table 10
Referring to 55, a mask image ID is acquired from the crossfade point number at the time of execution of this processing, and the mask image is specified from the mask image ID.

【0064】その後フレームバッファ112に格納され
ている画像(透視変換済みの二次元画像)とマスク画像
とのαブレンディングが実行される(ステップS2
5)。そしてαブレンディングにより生成された第1の
合成画像をフレームバッファ112に描画する(ステッ
プS27)。透視変換済みの二次元画像を画像Aとしマ
スク画像を画像Bとし第1の合成画像を画像Cすると、
αa値によるαブレンディングは、画像C=(画像A−
画像B)αa+画像Bを生成する処理として表すことが
できる。これにて一回目のαブレンディングが終了す
る。
Thereafter, α-blending of the image stored in the frame buffer 112 (the perspective-transformed two-dimensional image) and the mask image is executed (step S2).
5). Then, the first composite image generated by the α blending is drawn in the frame buffer 112 (step S27). When the perspective-transformed two-dimensional image is image A, the mask image is image B, and the first composite image is image C,
The α blending based on the αa value is obtained by calculating the image C = (image A−
Image B) It can be expressed as a process of generating αa + image B. This completes the first α blending.

【0065】次に第1の合成画像とフェードイン画像と
のαブレンディングに用いるαb値がクロスフェード設
定テーブル1055に定義されたαb関数に基づき設定
される(ステップS29)。αb値も例えば図4に示し
たように時間により変化する。そしてフェードイン画像
が指定される(ステップS31)。この処理は、クロス
フェード設定テーブル1055を参照して、本処理実行
時におけるクロスフェードポイント番号からフェードイ
ン画像IDを取得し、当該フェードイン画像IDからフ
ェードイン画像を特定することにより行われる。
Next, an αb value used for α blending between the first composite image and the fade-in image is set based on the αb function defined in the crossfade setting table 1055 (step S29). The αb value also changes with time, for example, as shown in FIG. Then, a fade-in image is designated (step S31). This process is performed by referring to the cross-fade setting table 1055, acquiring the fade-in image ID from the cross-fade point number at the time of execution of this process, and specifying the fade-in image from the fade-in image ID.

【0066】そしてフレームバッファ112に格納され
ている画像(ここでは第1の合成画像)とフェードイン
画像とのαブレンディングが実行される(ステップS3
3)。そしてαブレンディングにより生成された第2の
合成画像がフレームバッファ112に描画される(ステ
ップS35)。第1の合成画像を画像Aとしフェードイ
ン画像を画像Bとし第2の合成画像を画像Cとすると、
αb値によるαブレンディングは画像C=(画像A−画
像B)αb+画像Bを生成する処理として表すことがで
きる。これにて二回目のαブレンディングが終了する。
Then, α blending of the image (here, the first composite image) stored in the frame buffer 112 and the fade-in image is executed (step S3).
3). Then, the second composite image generated by the α blending is drawn in the frame buffer 112 (step S35). Assuming that the first composite image is image A, the fade-in image is image B, and the second composite image is image C,
The α blending based on the αb value can be expressed as a process of generating image C = (image A−image B) αb + image B. This completes the second α-blending.

【0067】この二回目のαブレンディングの結果であ
る第2の合成画像が図10のステップS15で表示され
る。フレームバッファ112への描画は都合3回行われ
ることになる。
A second composite image as a result of the second α blending is displayed in step S15 of FIG. Drawing on the frame buffer 112 is performed three times for convenience.

【0068】以上のように、本発明の第1の態様におい
ては、ビデオゲームの進行過程におけるクロスフェード
処理開始タイミング以降、透視変換により順次生成され
る二次元画像と当該二次元画像の色を調整するためのマ
スク画像とが、クロスフェード処理開始タイミングから
の経過時間に応じて値が変化されるαa値に従って合成
され、第1の合成画像が順次取得される(ステップS2
5)。
As described above, in the first embodiment of the present invention, after the crossfade processing start timing in the progress of the video game, the two-dimensional images sequentially generated by the perspective transformation and the colors of the two-dimensional images are adjusted. And a mask image to be synthesized according to the αa value whose value changes according to the elapsed time from the start timing of the cross-fade processing, and the first synthesized image is sequentially obtained (step S2).
5).

【0069】そして、第1の合成画像と当該第1の合成
画像とクロスフェードさせるフェードイン画像とが、ク
ロスフェード処理開始タイミングからの経過時間に応じ
て値が変化されるαb値に従って合成され、第2の合成
画像が順次取得される(ステップS27)。その後第2
の合成画像は表示画面120に表示される(ステップS
15)。
Then, the first synthesized image and the fade-in image to be cross-fade with the first synthesized image are synthesized according to the αb value whose value changes according to the elapsed time from the start timing of the cross-fade processing, The second composite images are sequentially obtained (Step S27). Then the second
Is displayed on the display screen 120 (step S
15).

【0070】表示すべき画像を生成するために透視変換
済みの二次元画像とフェードイン画像とを直接合成せず
に、間にマスク画像を入れてαa及びαb値を使用する二
段階の合成を行っている。
Instead of directly synthesizing a perspective-transformed two-dimensional image and a fade-in image to generate an image to be displayed, a two-stage synthesis using a αa and αb value with a mask image interposed is used. Is going.

【0071】これにより、フェードアウトする画像の消
え方、フェードインする画像の現れ方をそれぞれ個別に
設定できるようになる。フェードアウトする画像の消え
始めのタイミングや、フェードインする画像の現れるタ
イミングの設定も任意にできる。
As a result, it is possible to individually set the way of disappearing the fade-out image and the way of appearing the fade-in image. The timing at which the fade-out image starts to disappear and the timing at which the fade-in image appears can be arbitrarily set.

【0072】さらに最終的に表示される合成画像の輝度
や色合い等の色の調整も効果的に行うことができる。よ
って製作者の表現の自由度が増すことになる。
Further, it is possible to effectively adjust the color such as the luminance and the hue of the composite image finally displayed. Therefore, the creator's freedom of expression is increased.

【0073】αa及びαb値を個別に設定できる。表示画
面120における見栄えだけでなく、サウンドとの関係
を考慮して設定することも可能である。図4に示した以
外にも、例えば図12のグラフに示したような値の変化
を採用することも可能である。図12では図4と同じよ
うに、縦軸はα値の値(0〜1の実数)を示しており、
横軸は時間(単位は秒)を示している。図12では実線
305がαa値の変化を示している。一方、点線307
がαb値の変化を示している。図12で分かるように、
αa値はクロスフェード処理開始後直ぐに1.0から直
線的に減少し始め、クロスフェード期間の半ばで0.0
に達してしまう。すなわち、フェードアウトする画像は
クロスフェード期間の半ばで完全に消えてしまう。フェ
ードアウト期間もαa値が0.0に達した時点で終了す
る。
The αa and αb values can be set individually. The setting can be made in consideration of not only the appearance on the display screen 120 but also the relationship with the sound. In addition to the one shown in FIG. 4, it is also possible to adopt a change in the value as shown in the graph of FIG. 12, for example. In FIG. 12, as in FIG. 4, the vertical axis indicates the value of the α value (real number of 0 to 1).
The horizontal axis indicates time (unit is seconds). In FIG. 12, a solid line 305 indicates a change in the αa value. On the other hand, the dotted line 307
Indicates a change in the αb value. As can be seen in FIG.
The αa value starts to decrease linearly from 1.0 immediately after the start of the crossfade processing, and becomes 0.0 in the middle of the crossfade period.
Reach. That is, the image that fades out disappears completely in the middle of the cross-fade period. The fade-out period also ends when the αa value reaches 0.0.

【0074】一方、αb値はαa値が0.5に達するまで
0.0を保持される。αa値が0.5に達すると、1.
0から減少を始める。すなわち、フェードイン期間はα
a値が0.5に達すると開始される。αb値は直線ではな
く、下に凸な曲線に従って減少している。このようにα
値の変化は直線的でなくともよい。曲線的に変化するも
のであってもよい。図12の例のように下に凸でなくと
も上に凸な曲線に従って減少するものであってもよい。
αb値が0.0まで減少するとフェードイン期間が終了
し、併せてクロスフェード期間も終了する。
On the other hand, the value αb is maintained at 0.0 until the value αa reaches 0.5. When the αa value reaches 0.5, 1.
Start decreasing from zero. That is, the fade-in period is α
It starts when the value a reaches 0.5. The αb value is not a straight line but decreases according to a downwardly convex curve. Thus α
The change in the value need not be linear. It may change in a curve. As shown in the example of FIG. 12, the shape may decrease in accordance with an upwardly convex curve instead of being downwardly convex.
When the αb value decreases to 0.0, the fade-in period ends, and the cross-fade period also ends.

【0075】α値の変化曲線は関数によって定義される
としたが、例えばα値のフレーム毎の数値が設定された
テーブルを別途設け当該テーブルを参照するような方式
を採用することも可能である。
Although the change curve of the α value is defined by a function, for example, it is also possible to adopt a method in which a table in which the numerical value of the α value is set for each frame is separately provided and the table is referred to. .

【0076】上でクロスフェードとサウンドとの関係に
ついて触れたが、ビデオゲームにおいてはサウンドと映
像には密接な関係がある。映像とサウンドをうまく同期
させることにより見る者に更なる感動を与えることがで
きる。その際に重要となるポイントが映像とサウンドの
タイミング調整である。
Although the relationship between the cross fade and the sound has been described above, in a video game, the sound and the image have a close relationship. By synchronizing the image and the sound well, the viewer can be further impressed. An important point in that case is the timing adjustment of the video and sound.

【0077】本実施の形態に係るクロスフェード処理方
法を用いた場合、2つの映像のフェード開始、終了、フ
ェード具合等の設定が自由にでき、ゲーム開発時にサウ
ンドとの合成において、タイミング調整や修正が容易に
実施できるようになる。
When the cross-fade processing method according to the present embodiment is used, it is possible to freely set the fade start, end, fade degree, and the like of two images, and to adjust and correct timing in synthesizing sound with a game during game development. Can be easily implemented.

【0078】(実施の形態2)実施の形態1ではαa及
びαb値共にマスク画像及びフェードイン画像の全画素
について同じ値であることを前提としていた。このよう
にすれば、画面全体が均一に透視変換済みの二次元画像
からフェードイン画像にクロスフェードすることにな
る。
(Second Embodiment) In the first embodiment, it is assumed that the αa and αb values are the same for all pixels of the mask image and the fade-in image. In this manner, the entire screen is uniformly cross-faded from the perspective-transformed two-dimensional image to the fade-in image.

【0079】しかし、必ずしもマスク画像及びフェード
イン画像全画素について同じα値を用いる必要は無く、
異なるα値を使用することにより、別の追加的な効果を
得ることができる。
However, it is not always necessary to use the same α value for all pixels of the mask image and the fade-in image.
Another additional effect can be obtained by using different α values.

【0080】例えば、図13に示すようなα値の分布を
採用することができる。図13において濃い方がα値が
小さく(マスク画像の透明度が低い)、薄い方がα値が
大きい(マスク画像の透明度が高い)ことを示してい
る。実施の形態1と同じように、図5の透視変換済みの
二次元画像2001と、図6のマスク画像2003と、
図7のフェードイン画像2005を使用する場合を以下
に述べる。
For example, a distribution of α values as shown in FIG. 13 can be adopted. In FIG. 13, darker values indicate smaller α values (lower transparency of the mask image), and lighter values indicate higher α values (higher transparency of the mask image). As in the first embodiment, the perspective-transformed two-dimensional image 2001 in FIG. 5 and the mask image 2003 in FIG.
The case where the fade-in image 2005 of FIG. 7 is used will be described below.

【0081】図13に示したα値の分布をαa値の分布
として、二次元画像2001とマスク画像2003との
αブレンディングを行えば、図14に示す第1の合成画
像2011を得る。図14の第1の合成画像2011で
は、αa値が画像左上で0となっているため、画像左上
にはマスク画像2003の一部が現れている。画像左上
から画像右下にかけてαa値は徐々に高い値を有するよ
うになるので、マスク画像2003から生ずる黒は徐々
に薄くなっていく。一方、二次元画像2001(黒のリ
ング)は画像左上から右下にかけてαa値が高い値を有
するようになるので、徐々に現れてくる。
If the two-dimensional image 2001 and the mask image 2003 are subjected to α blending using the α value distribution shown in FIG. 13 as the αa value distribution, a first composite image 2011 shown in FIG. 14 is obtained. In the first composite image 2011 of FIG. 14, since the αa value is 0 at the upper left of the image, a part of the mask image 2003 appears at the upper left of the image. Since the αa value gradually increases from the upper left of the image to the lower right of the image, the black generated from the mask image 2003 gradually decreases. On the other hand, the two-dimensional image 2001 (black ring) gradually appears because the αa value has a higher value from the upper left to the lower right of the image.

【0082】第1の合成画像2011とフェードイン画
像2005とに対し、図13に示したα値の分布をαb
値の分布としてαブレンディングを行えば、図15に示
す第2の合成画像2013を得る。第2の合成画像20
13では、αb値が画像左上で0となっているため、画
像左上ではフェードイン画像2005の一部が現れてい
る。特に、フェードイン画像2005に埋め込まれた白
いENDの文字は、αb値が低い間は文字部分2013
aに灰色で描かれる。しかし、文字部分2013aは、
画像右下の方のαb値が高い値を有する部分に移行する
と、第1の合成画像2011が強く現れるようになるた
め消えてしまう。画像右下にかけては、図14の第1の
合成画像2011の右下部分とほぼ同じものが表示され
る。
For the first composite image 2011 and the fade-in image 2005, the distribution of α values shown in FIG.
If α blending is performed as the value distribution, a second composite image 2013 shown in FIG. 15 is obtained. Second composite image 20
In FIG. 13, since the αb value is 0 at the upper left of the image, a part of the fade-in image 2005 appears at the upper left of the image. In particular, a white END character embedded in the fade-in image 2005 has a character portion 2013 while the αb value is low.
It is drawn in gray on a. However, the character portion 2013a is
When the lower right part of the image shifts to a portion having a higher αb value, the first synthesized image 2011 appears so strongly that it disappears. In the lower right part of the image, almost the same as the lower right part of the first composite image 2011 in FIG. 14 is displayed.

【0083】もし、図13に示したようなα値の分布に
おいて画像右下のα値を徐々に下げていけば、図15の
文字部2013aが徐々にENDの文字に近づくと共
に、ENDの文字自体が次第に白くなって行く。さら
に、画像右下の白が徐々に黒くなって行く。最終的に
は、フェードイン画像2005のみが現れるようにな
る。すなわち、最初は図5に示した透視変換済みの二次
元画像2001が表示され、途中図14に示したように
一部ENDの文字が灰色で現れるような合成画像が表示
され、最終的には図7のフェードイン画像2005に移
行する。
If the α value at the lower right of the image is gradually lowered in the distribution of α values as shown in FIG. 13, the character portion 2013a in FIG. 15 gradually approaches the END character and the END character It becomes gradually whiter. Further, the white at the lower right of the image gradually becomes black. Eventually, only the fade-in image 2005 appears. That is, first, the perspectively transformed two-dimensional image 2001 shown in FIG. 5 is displayed, and as shown in FIG. 14, a composite image in which some END characters appear in gray is displayed. The process proceeds to the fade-in image 2005 in FIG.

【0084】α値の分布については図13のような分布
だけでなく、例えば、図16に示すようなα値の分布を
採用することができる。すなわち、マスク画像の4隅の
頂点P0乃至P3の各α値(α0乃至α3)を、0,1,
1,1に設定し、マスク画像内の各画素については頂点
P0乃至P3のα値を補間した値とする。図16ではα値
の等高線を示している。頂点P0から他の頂点P1乃至P
3に向けてα値が徐々に大きくなっていく。すなわち、
マスク画像左上からマスク画像右下にグラデーションが
かけられたようなα値の分布を得ることができる。この
ようなα値の分布を採用すれば、画面左上から画面右下
へ徐々にクロスフェードしていくような画像を表示する
ことができるようになる。
As the distribution of the α values, not only the distribution as shown in FIG. 13 but also, for example, the distribution of the α values as shown in FIG. 16 can be adopted. That is, the α values (α0 to α3) of the vertexes P0 to P3 of the four corners of the mask image are set to 0, 1,
It is set to 1, 1 and each pixel in the mask image is a value obtained by interpolating the α values of the vertices P0 to P3. FIG. 16 shows contour lines of the α value. From vertex P0 to other vertices P1 through P
The α value gradually increases toward 3. That is,
It is possible to obtain a distribution of α values as if gradation was applied from the upper left of the mask image to the lower right of the mask image. If such a distribution of α values is adopted, it is possible to display an image that gradually cross-fade from the upper left of the screen to the lower right of the screen.

【0085】図16のようなα値の分布をαa値の分布
とした場合、頂点P0のα値をαa0と、頂点P1のα値を
αa1と、頂点P2のα値をαa2と、頂点P3のα値をαa3
と記すことにする。一方、図16のようなα値の分布を
αb値の分布とした場合、頂点P0のα値をαb0と、頂点
P1のα値をαb1と、頂点P2のα値をαb2と、頂点P3
のα値をαb3と記すことにする。
[0085] If the distribution of such α values as in Figure 16 was the distribution of .alpha.a value, and .alpha.a 0 to α value of the vertex P0, and .alpha.a 1 the α value of the vertex P1, and .alpha.a 2 the α value of the vertices P2 And the α value of vertex P3 is αa 3
I will write. On the other hand, when the distribution of such α values as in FIG. 16 and the distribution of .alpha.b value, and .alpha.b 0 to α value of the vertex P0, and .alpha.b 1 the α value of the vertex P1, and .alpha.b 2 the α value of the vertices P2, Vertex P3
To the α value to be referred to as αb 3.

【0086】αa0乃至αa3とαb0乃至αb3の時間変化の
一例を図17に示す。図17においては、縦軸がα値
(0乃至1の実数)、横軸が時間(単位は秒)を示して
いる。実線309は頂点P1乃至P3に各々対応するα値
であるαa1乃至αa3の時間変化を示している。これらの
α値はクロスフェード処理開始時間における値1.0か
ら直線的に減少し、時刻4.0秒において0.0まで減
少している。一方、太線313は頂点P0のαa0とαb0
を示している。これらの値はクロスフェード処理開始時
間からクロスフェード期間終了まで一貫して0.0であ
る。
[0086] An example of time change of .alpha.a 0 to .alpha.a 3 and .alpha.b 0 to .alpha.b 3 shown in FIG. 17. In FIG. 17, the vertical axis represents the α value (real number from 0 to 1), and the horizontal axis represents time (unit: seconds). The solid line 309 shows the change with time of .alpha.a 1 to .alpha.a 3 are each corresponding α values at the vertices P1 to P3. These α values decrease linearly from the value 1.0 at the crossfade processing start time, and decrease to 0.0 at time 4.0 seconds. On the other hand, .alpha.a 0 thick line 313 vertices P0 and .alpha.b 0
Is shown. These values are consistently 0.0 from the crossfade processing start time to the end of the crossfade period.

【0087】点線211は頂点P1乃至P3に各々対応す
るα値であるαb1乃至αb3の時間変化を示している。こ
れらα値はクロスフェード処理開始から0.5秒は1.
0のまま変化しないが、時刻0.5秒のα値1.0から
時刻2.5秒のα値0.0まで直線的に減少する。
A dotted line 211 indicates a temporal change of αb 1 to αb 3 corresponding to the vertices P 1 to P 3, respectively. These α values are set to 1. for 0.5 seconds from the start of the crossfade processing.
Although it remains at 0, it does not change, but decreases linearly from the α value of 1.0 at 0.5 seconds to the α value of 0.0 at 2.5 seconds.

【0088】よって図17ではクロスフェード処理開始
時刻から4.0秒までクロスフェード期間であり且つフ
ェードアウト期間となる。一方、時刻0.5秒から時刻
4.0秒までフェードイン期間となる。
Therefore, in FIG. 17, the cross-fade period is from the cross-fade processing start time to 4.0 seconds, and the cross-fade period is a fade-out period. On the other hand, the fade-in period is from 0.5 seconds to 4.0 seconds.

【0089】以上のような前提を元に実施の形態2にか
かる処理フローを説明する。
A processing flow according to the second embodiment will be described based on the above assumptions.

【0090】CPU103は、起動時に、ROM104
等に記憶されているオペレーティングシステムに基づ
き、CD−ROMドライブ113を介してCD−ROM
131から画像処理やゲームの実行に必要なゲームプロ
グラム133やデータ135を読み出し、RAM105
に転送させる。そして、CPU103は、RAM105
に転送されたゲームプログラム133を実行することに
より、以下に記載する処理を実現する。
The CPU 103 activates the ROM 104
And the like, based on the operating system stored in the CD-ROM drive 113 via the CD-ROM drive 113.
A game program 133 and data 135 necessary for image processing and game execution are read from the
To transfer. Then, the CPU 103
By executing the game program 133 transferred to the server, the processing described below is realized.

【0091】なお、家庭用ゲーム装置101で行われる
制御及び処理の中には、CPU103以外の回路がCP
U103と協働して実際の制御及び処理を行っている場
合もある。説明の便宜上、以下では、CPU103が関
係する制御及び処理は、CPU103が直接的に実行し
ているものとして説明する。
Note that some of the control and processing performed by the home game device 101 include circuits other than the CPU
Actual control and processing may be performed in cooperation with U103. For convenience of explanation, control and processing related to the CPU 103 will be described below assuming that the CPU 103 is directly executing the control and processing.

【0092】また、画像処理やゲームを実行するために
必要なゲームプログラム133やデータ135は、実際
にはCPU103からの命令に従って処理の進行状況に
応じて順次CD−ROM131から読み出されてRAM
105に転送される。しかし、以下に示す説明では、発
明の理解を容易にするため、CD−ROM131からの
データの読み出しや、RAM105への転送に関する記
述は省略している。
The game program 133 and the data 135 necessary for executing the image processing and the game are actually read out from the CD-ROM 131 sequentially according to the progress of the processing in accordance with the instruction from the CPU 103 and read out from the RAM.
Transferred to 105. However, in the following description, descriptions relating to data reading from the CD-ROM 131 and transfer to the RAM 105 are omitted to facilitate understanding of the invention.

【0093】もし画像処理やゲームを実行するために必
要なゲームプログラム133やデータ135がHDD1
07に格納されている場合には、CPU103からの命
令に従って処理の進行状況に応じて順次HDD107か
ら読み出されてRAM105に転送される。しかし、以
下に示す説明では、上で述べたのと同様の理由で、HD
D107からのデータの読み出しや、RAM105への
転送に関する記述は省略している。
If the game program 133 and the data 135 necessary for executing the image processing and the game are stored in the HDD 1
07, the data is sequentially read from the HDD 107 and transferred to the RAM 105 in accordance with the processing progress according to the instruction from the CPU 103. However, in the following description, for the same reason as described above, the HD
A description of reading data from D107 and transferring data to RAM 105 is omitted.

【0094】図10に示された実施の形態1に係る表示
処理のメインフローは実施の形態1においても図10に
示された限りにおいて同様である。最初に、今現在表示
周期であるかが判断される(ステップS1)。今現在表
示周期でなければゲーム終了かどうか判断される(ステ
ップS17)。ゲーム終了であれば処理を終了し、ゲー
ム終了でなければステップS1に戻る。
The main flow of the display processing according to the first embodiment shown in FIG. 10 is the same in the first embodiment as long as it is shown in FIG. First, it is determined whether it is the present display cycle (step S1). If it is not the current display cycle, it is determined whether the game is over (step S17). If the game is over, the process ends, and if not, the process returns to step S1.

【0095】ステップS1において今現在表示周期であ
ると判断されると、次にゲーム処理を実行する(ステッ
プS3)。ステップS3におけるゲーム処理では、キー
パッド161によるユーザの操作入力に応じたゲーム進
行処理を実施する。また、操作入力等に応じて視点位置
の設定や三次元モデルの動作計算等も実行される。さら
に上で述べたように、現在の処理が本実施例に係るゲー
ムプログラムに規定されているクロスフェードポイント
に到達した場合には、クロスフェード実行フラグを0か
ら1にセットする。なお、現時点におけるクロスフェー
ドポイント番号もRAM105のワークエリア1057
に格納されるものとする。
If it is determined in step S1 that the current display cycle is currently set, a game process is executed (step S3). In the game process in step S3, a game progress process according to a user's operation input through the keypad 161 is performed. In addition, according to an operation input or the like, setting of a viewpoint position, operation calculation of a three-dimensional model, and the like are also performed. Further, as described above, when the current process reaches the crossfade point specified in the game program according to the present embodiment, the crossfade execution flag is set from 0 to 1. The current crossfade point number is also stored in the work area 1057 of the RAM 105.
Shall be stored in

【0096】次にレンダリングが実行される(ステップ
S5)。ステップS5におけるレンダリング処理では、
設定された視点位置及び計算された三次元モデルの形状
及び姿勢等に基づき光源計算及び透視変換が実施され
る。これにて透視変換済みの二次元画像がフレームバッ
ファ112に生成されたことになる。
Next, rendering is executed (step S5). In the rendering processing in step S5,
Light source calculation and perspective transformation are performed based on the set viewpoint position and the calculated shape and orientation of the three-dimensional model. Thus, the perspective-transformed two-dimensional image is generated in the frame buffer 112.

【0097】レンダリングの後にクロスフェード処理の
タイミングであるかが判断される(ステップS7)。ク
ロスフェード処理のタイミングであるか否かはクロスフ
ェード実行フラグが1であるかどうかで判断される。も
し、クロスフェード処理のタイミングでない場合には、
ステップS15に移行し、フレームバッファ112に描
画された透視変換済みの二次元画像を表示する。
After the rendering, it is determined whether it is the timing of the cross-fade processing (step S7). Whether or not the timing of the cross-fade processing is determined is based on whether or not the cross-fade execution flag is “1”. If it is not the timing of crossfade processing,
The process proceeds to step S15, where the perspective-transformed two-dimensional image drawn in the frame buffer 112 is displayed.

【0098】一方、クロスフェード処理のタイミングで
あると判断された場合には、図18を用いて詳細に説明
するクロスフェード処理が実行される(ステップS
9)。クロスフェード処理を実行した後、クロスフェー
ド処理を終了させるかが判断される(ステップS1
1)。クロスフェード処理を終了させるか否かの判断
は、クロスフェード処理開始からの経過時間によって判
断する。すなわち、クロスフェード処理開始からの経過
時間が予め定められた終了時間を過ぎたか否かで判断さ
れる。
On the other hand, if it is determined that the timing of the cross-fade processing has been reached, the cross-fade processing described in detail with reference to FIG. 18 is executed (step S).
9). After executing the crossfade processing, it is determined whether to end the crossfade processing (step S1).
1). The determination as to whether or not to end the crossfade processing is made based on the elapsed time from the start of the crossfade processing. That is, it is determined whether or not the elapsed time from the start of the crossfade processing has passed a predetermined end time.

【0099】クロスフェード処理を終了させない場合に
はステップS15に移行する。一方、クロスフェード処
理を終了させる場合には、クロスフェード実行フラグの
値が1から0にリセットされる(ステップS13)。そ
して、表示処理が実行される(ステップS15)。すな
わち、この時点でフレームバッファ112に描画された
画像がTVセット121の表示画面120に表示され
る。
If the cross-fade processing is not to be ended, the flow shifts to step S15. On the other hand, when ending the crossfade processing, the value of the crossfade execution flag is reset from 1 to 0 (step S13). Then, a display process is executed (step S15). That is, at this point, the image drawn in the frame buffer 112 is displayed on the display screen 120 of the TV set 121.

【0100】最後にゲームを終了するか判断される(ス
テップS17)。ゲームを終了させるか否かは、例えば
ゲームのストーリ上ゲーム終了の条件が満たされたかに
基づき判断される。ゲームを終了させない場合には、ス
テップS1に戻る。ゲームを終了させる場合には処理を
終了させる。
Finally, it is determined whether to end the game (step S17). Whether or not to end the game is determined, for example, based on whether or not a game ending condition is satisfied in the story of the game. If the game is not to be ended, the process returns to step S1. When ending the game, the processing is ended.

【0101】実施の態様2におけるクロスフェード処理
の詳細を図18を用いて説明する。
The details of the crossfade processing in the second embodiment will be described with reference to FIG.

【0102】クロスフェード処理において最初にαa0
αa1、αa2、αa3の値が設定される(ステップS4
1)。αa0乃至αa3値は、上で述べたように透視変換済
みの二次元画像とマスク画像とのαブレンディングに用
いられるα値である。これらのα値も例えば図17に示
すように時間により変化する。
In the crossfade processing, first, αa 0 ,
The values of αa 1 , αa 2 and αa 3 are set (step S4)
1). The αa 0 to αa 3 values are α values used for α blending of the masked image and the perspective-transformed two-dimensional image as described above. These α values also change with time, for example, as shown in FIG.

【0103】次に、各画素単位のαa値が算出される
(ステップS43)。これはステップS41で設定され
たαa0乃至αa3を補間することにより得ることができ
る。補間処理には例えばグラフィックス処理部111に
含まれる機能を用いることができる。
Next, the αa value for each pixel is calculated (step S43). This can be obtained by interpolating αa 0 to αa 3 set in step S41. For example, a function included in the graphics processing unit 111 can be used for the interpolation processing.

【0104】次にマスク画像が指定される(ステップS
45)。この処理は、クロスフェード設定テーブル10
55を参照して、本処理実行時におけるクロスフェード
ポイント番号からマスク画像IDを取得し、当該マスク
画像IDからマスク画像を特定することにより行われ
る。
Next, a mask image is designated (step S
45). This processing is performed in the crossfade setting table 10
Referring to 55, a mask image ID is acquired from the crossfade point number at the time of execution of this processing, and the mask image is specified from the mask image ID.

【0105】その後フレームバッファ112に格納され
ている画像(透視変換済みの二次元画像)とマスク画像
とのαブレンディングが実行される(ステップS4
7)。そしてαブレンディングにより生成された第1の
合成画像がフレームバッファ112に描画される(ステ
ップS49)。行う処理の内容自体は実施の形態1と同
じで、αブレンディングの説明部分で述べた(1−1)
乃至(1−3)の式を画素毎に適用して画素の輝度値を
決定して行く。但し、画素毎にα値が異なるという点が
実施の形態1とは異なる。これにて一回目のαブレンデ
ィングが終了する。
Thereafter, α blending of the image (the perspective-transformed two-dimensional image) stored in the frame buffer 112 and the mask image is executed (step S4).
7). Then, the first composite image generated by the α blending is drawn in the frame buffer 112 (step S49). The details of the processing to be performed are the same as those in the first embodiment, and have been described in the description of the α blending (1-1).
Equations (1-3) to (1-3) are applied to each pixel to determine the luminance value of the pixel. However, the difference from the first embodiment is that the α value differs for each pixel. This completes the first α blending.

【0106】次に第1の合成画像とフェードイン画像と
のαブレンディングに用いるαb0、αb1、αb2、αb3
値が設定される(ステップS51)。
Next, the values of αb 0 , αb 1 , αb 2 and αb 3 used for α blending of the first composite image and the fade-in image are set (step S51).

【0107】次に、各画素単位のαa値が算出される
(ステップS53)。これらのα値も例えば図17に示
すように時間により変化する。これはステップS51で
設定されたαb0乃至αb3を補間することにより得ること
ができる。補間処理には例えばグラフィックス処理部1
11に含まれる機能を用いることができる。
Next, the αa value for each pixel is calculated (step S53). These α values also change with time, for example, as shown in FIG. This can be obtained by interpolating αb 0 to αb 3 set in step S51. For example, the graphics processing unit 1
11 can be used.

【0108】そしてフェードイン画像が指定される(ス
テップS55)。この処理は、クロスフェード設定テー
ブル1055を参照して、本処理実行時におけるクロス
フェードポイント番号からフェードイン画像IDを取得
し、当該フェードイン画像IDからフェードイン画像を
特定することにより行われる。
Then, a fade-in image is designated (step S55). This process is performed by referring to the cross-fade setting table 1055, acquiring the fade-in image ID from the cross-fade point number at the time of execution of this process, and specifying the fade-in image from the fade-in image ID.

【0109】そしてフレームバッファ112に格納され
ている画像(ここでは第1の合成画像)とフェードイン
画像とのαブレンディングを実行する(ステップS3
3)。そしてαブレンディングにより生成された第2の
合成画像をフレームバッファ112に描画する(ステッ
プS35)。この処理の内容も実施の形態1と変わらな
い。すなわち、上で述べた(1−1)乃至(1−3)の
処理を画素毎に行う。但し、画素毎にαb値が設定され
ている。これにて二回目のαブレンディングが終了す
る。
Then, α blending of the image (here, the first composite image) stored in the frame buffer 112 and the fade-in image is executed (step S3).
3). Then, the second composite image generated by the α blending is drawn in the frame buffer 112 (step S35). The content of this processing is not different from that of the first embodiment. That is, the above-described processes (1-1) to (1-3) are performed for each pixel. However, the αb value is set for each pixel. This completes the second α-blending.

【0110】この二回目のαブレンディングの結果であ
る第2の合成画像が図10のステップS15で表示され
る。フレームバッファ112への描画は都合3回行われ
ることになる。
A second synthesized image as a result of the second α blending is displayed in step S15 in FIG. Drawing on the frame buffer 112 is performed three times for convenience.

【0111】なお上で述べたようにフレームバッファ1
12に一旦書き出した画像と他の画像とのαブレンディ
ングを行っているので、メモリ使用効率が高い。
As described above, the frame buffer 1
12, since the α-blending of the image once written and another image is performed, the memory use efficiency is high.

【0112】以上述べたように、本発明の実施の形態2
では、ビデオゲームの進行過程におけるクロスフェード
処理開始タイミング以降、透視変換により順次生成され
る二次元画像と当該二次元画像の色を調整するためのマ
スク画像とを、クロスフェード処理開始タイミングから
の経過時間に応じて値が変化される、画素毎のαa値に
従って画素毎にαブレンディングを行い、第1の合成画
像が順次取得される(ステップS47)。
As described above, the second embodiment of the present invention
Then, after the cross-fade processing start timing in the progress of the video game, the two-dimensional image sequentially generated by the perspective transformation and the mask image for adjusting the color of the two-dimensional image are changed from the cross-fade processing start timing. The α blending is performed for each pixel according to the αa value for each pixel, the value of which changes with time, and a first composite image is sequentially acquired (step S47).

【0113】そして、第1の合成画像と当該第1の合成
画像とクロスフェードさせるフェードイン画像とを、ク
ロスフェード処理開始タイミングからの経過時間に応じ
て値が変化される、画素毎のαb値に従って画素毎にα
ブレンディングを行い、第2の合成画像が順次取得され
る(ステップS57)。その後第2の合成画像は表示画
面120に表示される(ステップS15)。
The value of the first combined image and the fade-in image to be cross-fade with the first combined image are changed according to the elapsed time from the cross-fade processing start timing. According to α
Blending is performed, and second composite images are sequentially obtained (step S57). Thereafter, the second composite image is displayed on the display screen 120 (Step S15).

【0114】二次元画像及びマスク画像に対応する領域
(例えば矩形)の所定位置(例えば矩形の4隅)の複数
の画素に設定されるα0乃至α3を補間することにより、
画素毎のα値を算出することも、全ての画素に個別にα
値を設定することも可能である。
By interpolating α 0 to α 3 set for a plurality of pixels at predetermined positions (for example, four corners of a rectangle) of a region (for example, a rectangle) corresponding to the two-dimensional image and the mask image,
Calculating the α value for each pixel can also be done individually for all pixels.
It is also possible to set a value.

【0115】これにより画像全体だけでなく、画像中部
分的に輝度の調整や透明度の調整を行うことができるよ
うになる。すなわち、画像全体のクロスフェードのみな
らず、画像の部分的なクロスフェードを行うことができ
るようになる。
As a result, it is possible to adjust the brightness and the transparency of not only the entire image but also a part of the image. That is, not only cross-fading of the entire image but also partial cross-fading of the image can be performed.

【0116】よって、より高いレベルの演出的な表現を
可能にし、ユーザに対しより大きな感動を与えることが
できるようになる。
[0116] Therefore, it is possible to achieve a higher level of stunning expression and to give the user a greater impression.

【0117】(その他の実施の形態) (1)実施の形態1及び実施の形態2では画像全体がク
ロスフェードの対象領域であったが、本発明はこれに限
定されない。例えば、画像の一部の領域が予め設定され
ており、この一部の領域の中だけでクロスフェードを行
うことも可能である。
(Other Embodiments) (1) In Embodiments 1 and 2, the entire image is a target area for crossfading, but the present invention is not limited to this. For example, a partial area of the image is set in advance, and it is possible to perform crossfading only in this partial area.

【0118】(2)実施の形態1及び実施の形態2で使
用したマスク画像は全面黒であったが、本発明はこれに
限定されない。例えば、1以上のポリゴンが設定されて
おり、このポリゴンを描画することにより得られる画像
をマスク画像として使用するような構成も可能である。
例えばテクスチャ・マッピングを使用するような場合
や、ポリゴンの各頂点に色が指定されており、ポリゴン
内部を当該色に基づき描画する場合等もある。
(2) The mask image used in the first and second embodiments is entirely black, but the present invention is not limited to this. For example, a configuration is also possible in which one or more polygons are set, and an image obtained by drawing the polygons is used as a mask image.
For example, there is a case where texture mapping is used, a case where a color is designated for each vertex of a polygon, and the inside of the polygon is drawn based on the color.

【0119】さらに、例えばフレームバッファ112に
おいて座標指定により矩形領域を指定し、その矩形領域
内部に色を付するような処理を行って得られる画像をマ
スク画像として使用するような構成も可能である。例え
ば、図19に座標指定により矩形領域を指定する例を示
している。2頂点を指定すれば矩形領域は指定できる。
図19の例では座標(X1,Y1)である頂点P1と、座標
(X2,Y2)である頂点P2とにより指定される領域が描
画領域401である。また、座標(X3,Y3)である頂点
P3と、座標(X4,Y4)である頂点P4とにより指定され
る領域がマスク領域403である。このマスク領域40
3に色を付することによりマスク画像を得るようなこと
も可能である。
Further, for example, it is also possible to adopt a configuration in which a rectangular area is specified by specifying coordinates in the frame buffer 112, and an image obtained by performing a process of coloring the inside of the rectangular area is used as a mask image. . For example, FIG. 19 shows an example of specifying a rectangular area by specifying coordinates. If two vertices are specified, a rectangular area can be specified.
In the example of FIG. 19, the area specified by the vertex P1 that is the coordinates (X1, Y1) and the vertex P2 that is the coordinates (X2, Y2) is the drawing area 401. An area specified by the vertex P3 that is the coordinates (X3, Y3) and the vertex P4 that is the coordinates (X4, Y4) is the mask area 403. This mask area 40
It is also possible to obtain a mask image by adding a color to 3.

【0120】(3)使用するハードウエアの変更 図1は一例であって、様々な変更が可能である。通信イ
ンターフェース115を備えるか否かは任意である。本
発明は直接サウンド処理には関係しないので、サウンド
処理部109を備えている必要は無い。
(3) Change of Hardware Used FIG. 1 is an example, and various changes can be made. The provision of the communication interface 115 is optional. Since the present invention is not directly related to sound processing, it is not necessary to provide the sound processing unit 109.

【0121】また、CD−ROMは記録媒体の一例であ
って、ROMのような内部メモリ、CD−ROM、DV
D−ROM、メモリカートリッジ、フロッピー(登録商
標)ディスク、磁気ディスク、DVD−RAM等の他の
記録媒体であってもよい。その場合にはCD−ROMド
ライブ113を、対応する媒体で読み出し可能なドライ
ブにする必要がある。
The CD-ROM is an example of a recording medium, and includes an internal memory such as a ROM, a CD-ROM, a DV
Other recording media such as a D-ROM, a memory cartridge, a floppy (registered trademark) disk, a magnetic disk, and a DVD-RAM may be used. In that case, the CD-ROM drive 113 needs to be a drive that can be read by a corresponding medium.

【0122】さらに、以上は本発明をコンピュータ・プ
ログラムにより実装した場合であるが、コンピュータ・
プログラムと電子回路などの専用の装置の組み合せ、又
は電子回路などの専用の装置のみによっても実装するこ
とは可能である。
Further, the above is the case where the present invention is implemented by a computer program.
It is also possible to implement by combining a program and a dedicated device such as an electronic circuit, or by only a dedicated device such as an electronic circuit.

【0123】以上、本発明を実施の形態に基づいて具体
的に説明したが、本発明は上記実施の形態に限定される
ものではない。要旨を逸脱しない範囲で適宜変更可能で
ある。例えば、上記実施の形態では、家庭用ゲーム機を
プラットフォームとして本発明を実現した場合について
述べたが、本発明は通常のコンピュータ、アーケードゲ
ーム機などをプラットフォームとして実現しても良い。
また、携帯情報端末、カーナビゲーション・システム等
をプラットフォームにして実現することも考えられる。
Although the present invention has been specifically described based on the embodiments, the present invention is not limited to the above embodiments. It can be changed as appropriate without departing from the gist. For example, in the above embodiment, a case has been described in which the present invention is implemented using a home game machine as a platform. However, the present invention may be implemented using an ordinary computer, an arcade game machine, or the like as a platform.
It is also conceivable to use a portable information terminal, a car navigation system, or the like as a platform.

【0124】また、本発明を実現するためのプログラム
やデータは、コンピュータやゲーム機に対して着脱可能
なCD−ROM等の記録媒体により提供される形態に限
定されない。すなわち、本発明を実現するためのプログ
ラムやデータを、図1に示す通信インターフェース11
5、通信回線141を介して接続されたネットワーク1
51上の他の機器側のメモリに記録し、プログラムやデ
ータを通信回線141を介して必要に応じて順次RAM
105に格納して使用する形態であってもよい。
Further, the programs and data for realizing the present invention are not limited to the form provided by a recording medium such as a CD-ROM which is detachable from a computer or a game machine. That is, programs and data for implementing the present invention are transferred to the communication interface 11 shown in FIG.
5. Network 1 connected via communication line 141
The program and data are recorded in a memory of another device on the device 51, and are sequentially stored in the RAM as needed through the communication line 141.
It may be a form that is stored in the storage unit 105 and used.

【0125】(表示例)最初に実施の形態1の画像例を
示す。図20にはフェードアウトさせる透視変換済みの
二次元画像3001を示している。二次元画像3001
には踊っている男女のキャラクタが含まれている。図2
1にはマスク画像3003を示している。マスク画像3
003は全面黒である。図22にはフェードイン画像3
005を示している。フェードイン画像3005には黒
地に白のFinの文字が埋め込まれている。
(Display Example) First, an image example of the first embodiment will be shown. FIG. 20 shows a perspective-transformed two-dimensional image 3001 to be faded out. Two-dimensional image 3001
Contains characters of male and female dancing. FIG.
1 shows a mask image 3003. Mask image 3
003 is entirely black. FIG. 22 shows the fade-in image 3
005 is shown. In the fade-in image 3005, white Fin characters are embedded on a black background.

【0126】例えばαa値を0.5として図20の二次
元画像3001と図21のマスク画像3003とに対し
てαブレンディングを行うと、図23のような第1の合
成画像3007を得る。第1の合成画像3007は、マ
スク画像3003の黒色に影響を受けて、全体的に図2
0より暗くなっている。
For example, when the αa value is set to 0.5 and α blending is performed on the two-dimensional image 3001 in FIG. 20 and the mask image 3003 in FIG. 21, a first composite image 3007 as shown in FIG. 23 is obtained. The first composite image 3007 is affected by the black color of the mask image 3003, and is entirely shown in FIG.
It is darker than 0.

【0127】次に、αb値を0.5として図23の第1
の合成画像3007と図22のフェードイン画像300
5とに対してαブレンデインングを行うと、図24のよ
うな第2の合成画像3009を得る。第2の合成画像3
009のうち下地の部分3009aは、フェードイン画
像3005の下地が黒なので、第1の合成画像3007
の下地部分よりも暗い色となっている。フェードイン画
像3005において白いFinという文字は、第1の合
成画像3007の下地に影響されて、やや暗くなってい
る。
Next, assuming that the αb value is 0.5, the first value shown in FIG.
Composite image 3007 and the fade-in image 300 of FIG.
When α blending is performed on the image No. 5 and the image No. 5, a second composite image 3009 as shown in FIG. 24 is obtained. Second composite image 3
Since the background of the fade-in image 3005 is black in the base part 3009a of 009, the first composite image 3007
The color is darker than that of the base part. The white Fin characters in the fade-in image 3005 are slightly darkened by being influenced by the background of the first composite image 3007.

【0128】この第2の合成画像3009(図24)が
表示画面120に表示される画像である。αa及びαb値
をそれぞれ1.0から0.0に変化させれば、結果的に
二次元画像3001からフェードイン画像3005に次
第に変化するようになる。変化の過程は、αa値及びαb
値の時間変化を制御することにより調整することができ
る。
This second composite image 3009 (FIG. 24) is an image displayed on the display screen 120. If the αa and αb values are changed from 1.0 to 0.0, respectively, as a result, the two-dimensional image 3001 gradually changes to the fade-in image 3005. The process of change consists of αa value and αb
It can be adjusted by controlling the time change of the value.

【0129】すなわち、時刻0.0秒で図20の二次元
画像3001が表示画面120に表示される。時刻2.
0秒でαa及びαb値が0.5となれば図24の第2の合
成画像3009が表示画面120に表示される。クロス
フェード期間終了である4.0秒時にはαa及びαb値が
0.0となり図22のフェードイン画像3005が表示
画面120に表示される。
That is, at time 0.0 seconds, the two-dimensional image 3001 in FIG. Time 2.
If the αa and αb values become 0.5 at 0 second, the second composite image 3009 of FIG. 24 is displayed on the display screen 120. At the end of the cross fade period of 4.0 seconds, the αa and αb values become 0.0, and the fade-in image 3005 of FIG.

【0130】参考までに例えば特開平10−29593
4号公報に記載にように二次元画像3001とフェード
イン画像3005を相補的に合成すると図27の相補的
合成画像4001となる。相補的合成画像4001は図
24の第2の合成画像3009よりは下地が明るいのに
Fin文字が浮き上がってしまっている。
For reference, see, for example, JP-A-10-29593.
When the two-dimensional image 3001 and the fade-in image 3005 are combined in a complementary manner as described in Japanese Patent Publication No. 4 (Kokai) No. 4 (Kokai) No. 4 (1993) -200, a complementary combined image 4001 in FIG. The complementary composite image 4001 has a brighter background than the second composite image 3009 in FIG. 24, but Fin characters are raised.

【0131】次に実施の形態2の画像例を示す。図20
の透視変換済みの二次元画像3001と、図21のマス
ク画像3003と、図22のフェードイン画像3005
を使用する。
Next, an image example of the second embodiment will be shown. FIG.
, A perspective transformed two-dimensional image 3001, a mask image 3003 in FIG. 21, and a fade-in image 3005 in FIG.
Use

【0132】図16に示したα値の分布をαa値の分布
として、二次元画像3001とマスク画像3003との
αブレンディングを行えば、図25に示す第1の合成画
像3011を得る。図25の第1の合成画像3011で
は、αa値が画像左上で0となっているため、画像左上
にはマスク画像3003の一部が現れている。画像左上
から画像右下にかけてαa値は徐々に高い値を有するよ
うになるので、マスク画像3003から生ずる黒は徐々
に薄くなっていく。一方、二次元画像3001は画像左
上から右下にかけてαa値が高い値を有するようになる
ので、徐々に現れてくる。よって画像右下は明るくなっ
ている。
By performing α blending of the two-dimensional image 3001 and the mask image 3003 with the α value distribution shown in FIG. 16 as the αa value distribution, a first composite image 3011 shown in FIG. 25 is obtained. In the first composite image 3011 of FIG. 25, since the αa value is 0 at the upper left of the image, a part of the mask image 3003 appears at the upper left of the image. Since the αa value gradually increases from the upper left of the image to the lower right of the image, the black generated from the mask image 3003 gradually decreases. On the other hand, the two-dimensional image 3001 gradually appears because the αa value has a higher value from the upper left to the lower right of the image. Therefore, the lower right of the image is bright.

【0133】第1の合成画像3011とフェードイン画
像3005とに対し、図13に示したα値の分布をαb
値の分布としてαブレンディングを行えば、図26に示
す第2の合成画像3013を得る。第2の合成画像30
13では、αb値が画像左上で0となっているため、画
像左上ではフェードイン画像3005の一部が現れてい
る。特に、フェードイン画像3005に埋め込まれた白
いENDの文字は、αb値が低い間は文字部分3013
aに灰色で描かれる。しかし、文字部分3013aは、
画像右下の方のαb値が高い値を有する部分に移行する
と、第1の合成画像3011が強く現れるようになるた
め下地に溶け込んで消えてしまいそうになる。画像右下
にかけては、図25の第1の合成画像3011の右下部
分よりは暗い画像が見える。
For the first composite image 3011 and the fade-in image 3005, the distribution of α values shown in FIG.
If α blending is performed as the value distribution, a second composite image 3013 shown in FIG. 26 is obtained. Second composite image 30
In FIG. 13, since the αb value is 0 at the upper left of the image, a part of the fade-in image 3005 appears at the upper left of the image. In particular, a white END character embedded in the fade-in image 3005 has a character portion 3013 while the αb value is low.
It is drawn in gray on a. However, the character portion 3013a is
When the lower right part of the image shifts to a portion having a higher αb value, the first composite image 3011 appears strongly, so that the first composite image 3011 is likely to melt into the base and disappear. In the lower right part of the image, an image darker than the lower right part of the first composite image 3011 in FIG. 25 is seen.

【0134】[0134]

【発明の効果】以上本発明によれば、マスク画像を用い
た2段階の合成を行うようにした。そのため合成時のフ
ェードイン画像の明度とフェードアウト画像の明度とを
個別に設定することが可能となる。
As described above, according to the present invention, two-stage synthesis using a mask image is performed. Therefore, it is possible to individually set the brightness of the fade-in image and the brightness of the fade-out image at the time of synthesis.

【図面の簡単な説明】[Brief description of the drawings]

【図1】家庭用ゲーム機のブロック構成図である。FIG. 1 is a block diagram of a home game machine.

【図2】本発明に係るゲームプログラムを実行中のRA
Mの状態を示す模式図である。
FIG. 2 shows an RA running a game program according to the present invention.
It is a schematic diagram which shows the state of M.

【図3】クロスフェード設定テーブルの一例を示す図で
ある。
FIG. 3 is a diagram illustrating an example of a crossfade setting table.

【図4】αa及びαb値の時間変化の一例を示すグラフで
ある。
FIG. 4 is a graph showing an example of a temporal change of αa and αb values.

【図5】実施の形態1及び2の動作原理を説明するため
の画像例であって、透視変換済みの二次元画像を示す。
FIG. 5 is an image example for explaining the operation principle of the first and second embodiments, and shows a perspective-transformed two-dimensional image.

【図6】実施の形態1及び2の動作原理を説明するため
の画像例であって、マスク画像を示す。
FIG. 6 is an image example for explaining the operation principle of the first and second embodiments, showing a mask image.

【図7】実施の形態1及び2の動作原理を説明するため
の画像例であって、フェードイン画像を示す。
FIG. 7 is an image example for explaining the operation principle of Embodiments 1 and 2, showing a fade-in image.

【図8】実施の形態1の動作原理を説明するための画像
例であって、第1の合成画像を示す。
FIG. 8 is an image example for explaining the operation principle of the first embodiment, showing a first synthesized image.

【図9】実施の形態1の動作原理を説明するための画像
例であって、第2の合成画像を示す。
FIG. 9 is an image example for explaining the operation principle of the first embodiment, showing a second synthesized image.

【図10】本発明(実施の形態1及び2)における表示
処理のメインフローを示すフローチャートである。
FIG. 10 is a flowchart showing a main flow of a display process in the present invention (Embodiments 1 and 2).

【図11】実施の形態1におけるクロスフェード処理の
フローチャートである。
FIG. 11 is a flowchart of a crossfade process according to the first embodiment.

【図12】αa及びαb値の時間変化の一例を示すグラフ
である。
FIG. 12 is a graph showing an example of a temporal change in αa and αb values.

【図13】αa及びαb値の分布の一例を示す模式図であ
る。
FIG. 13 is a schematic diagram illustrating an example of the distribution of αa and αb values.

【図14】実施の形態2の動作原理を説明するための画
像例であって、第1の合成画像である。
FIG. 14 is an image example for explaining the operation principle of the second embodiment, and is a first composite image.

【図15】実施の形態2の動作原理を説明するための画
像例であって、第2の合成画像である。
FIG. 15 is an image example for explaining the operation principle of the second embodiment, and is a second composite image.

【図16】αa及びαb値の分布の一例を示す模式図であ
る。
FIG. 16 is a schematic diagram showing an example of a distribution of αa and αb values.

【図17】αa0乃至αa3並びにαb0乃至αb3の時間変化
の一例を示すグラフである。
17 is a graph showing an example of a time variation of .alpha.a 0 to .alpha.a 3 and .alpha.b 0 to .alpha.b 3.

【図18】実施の形態2におけるクロスフェード処理の
フローチャートである。
FIG. 18 is a flowchart of a crossfade process according to the second embodiment.

【図19】矩形領域にて指定されたマスク領域を説明す
るための模式図である。
FIG. 19 is a schematic diagram for explaining a mask area specified by a rectangular area.

【図20】透視変換済みの二次元画像の一例である。FIG. 20 is an example of a perspective-transformed two-dimensional image.

【図21】マスク画像の一例である。FIG. 21 is an example of a mask image.

【図22】フェードイン画像の一例である。FIG. 22 is an example of a fade-in image.

【図23】図20の画像と図21の画像とにα値0.5
でαブレンディングを施すことにより得られる第1の合
成画像である。
FIG. 23 shows an α value of 0.5 between the image of FIG. 20 and the image of FIG. 21;
5 is a first synthesized image obtained by performing α blending on the first composite image.

【図24】図23の画像と図22の画像とにα値0.5
でαブレンディングを施すことにより得られる第2の合
成画像である。表示画面に表示される画像である。
FIG. 24 shows an example in which the image shown in FIG. 23 and the image shown in FIG.
5 is a second composite image obtained by performing α blending on the second composite image. It is an image displayed on a display screen.

【図25】図20の画像と図21の画像とに図16のよ
うなα値分布でαブレンディングを施すことにより得ら
れる第1の合成画像である。
FIG. 25 is a first composite image obtained by subjecting the image of FIG. 20 and the image of FIG. 21 to α blending with an α value distribution as shown in FIG. 16;

【図26】図25の画像と図22の画像とに図16のよ
うなα値分布でαブレンディングを施すことにより得ら
れる第2の合成画像である。
26 is a second composite image obtained by subjecting the image of FIG. 25 and the image of FIG. 22 to α blending with an α value distribution as shown in FIG. 16;

【図27】図20の画像と図22の画像を相補的に合成
した場合に得られる相補的合成画像である。
FIG. 27 is a complementary composite image obtained when the image of FIG. 20 and the image of FIG. 22 are composited complementarily.

【符号の説明】[Explanation of symbols]

101 家庭用ゲーム機 103 CPU 104
ROM 105 RAM 107 HDD 109 サウン
ド処理部 112 フレームバッファ 111 グラフィックス
処理部 113 CD−ROMドライブ 115 通信インタ
ーフェース 117 インターフェース部 119 内部バス
121 TVセット 120 表示画面 131 CD−ROM 141
通信媒体 151 ネットワーク 161 キーパッド 17
1 メモリカード 1051 プログラム領域 1053 関連データ記
憶領域 1055 クロスフェード設定テーブル 1057
ワークエリア 1059 マスク画像 1065 フェードイン画像
101 home game machine 103 CPU 104
ROM 105 RAM 107 HDD 109 Sound processing unit 112 Frame buffer 111 Graphics processing unit 113 CD-ROM drive 115 Communication interface 117 Interface unit 119 Internal bus
121 TV set 120 Display screen 131 CD-ROM 141
Communication media 151 Network 161 Keypad 17
1 memory card 1051 program area 1053 related data storage area 1055 crossfade setting table 1057
Work area 1059 Mask image 1065 Fade-in image

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BA00 BA06 BB00 BB04 BC00 BC06 BC10 CB01 CB02 CB03 CB06 CC02 CC08 5B050 AA10 BA06 EA09 EA19 EA24 EA27 EA30 5C023 AA12 AA16 AA34 AA38 BA11 CA03 DA04 DA08 EA03 5C066 AA09 BA20 CA27 ED06 GA01 GB03 KE02 KE09 KE17 LA02 9A001 HH23 JJ76 KK45  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2C001 BA00 BA06 BB00 BB04 BC00 BC06 BC10 CB01 CB02 CB03 CB06 CC02 CC08 5B050 AA10 BA06 EA09 EA19 EA24 EA27 EA30 5C023 AA12 AA16 AA34 AA38 BA11 CA03 DA04 CA08 EA01 GB03 KE02 KE09 KE17 LA02 9A001 HH23 JJ76 KK45

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】ビデオゲーム用のプログラムを記録したコ
ンピュータ読み取り可能な記録媒体であって、 前記コンピュータに、 前記ビデオゲームの進行過程における任意のタイミング
以降、透視変換により順次生成されるゲーム画像と当該
ゲーム画像の色を調整するための調整用画像とを、前記
タイミングからの経過時間に応じて値が変化される第1
の合成比率に従って合成させ、第1の合成画像を順次取
得させる第1ステップと、 前記第1ステップで順次取得される前記第1の合成画像
と当該第1の合成画像とクロスフェードさせるフェード
イン画像とを、前記タイミングからの経過時間に応じて
値が変化される第2の合成比率に従って合成させ、第2
の合成画像を順次取得させる第2ステップと、 前記第2ステップで順次取得させる第2の合成画像を表
示させる第3ステップと、 を実行させるためのプログラムを記録したことを特徴と
するコンピュータ読み取り可能な記録媒体。
1. A computer-readable recording medium on which a video game program is recorded. The computer-readable recording medium stores a game image sequentially generated by a perspective transformation after an arbitrary timing in a progress process of the video game. An image for adjustment for adjusting the color of the game image is a first image whose value is changed according to the elapsed time from the timing.
A first step of sequentially obtaining a first synthesized image by synthesizing according to the synthesizing ratio, and a fade-in image to be cross-fade with the first synthesized image sequentially obtained in the first step and the first synthesized image Are synthesized according to a second synthesis ratio whose value changes according to the elapsed time from the timing,
A second step of sequentially acquiring the combined images of the above, and a third step of displaying the second combined images sequentially acquired in the second step, and a computer-readable program recorded thereon. Recording medium.
【請求項2】前記第2の合成画像を取得させる前記第2
ステップが、 前記第1ステップで順次取得される前記第1の合成画像
と当該第1の合成画像とクロスフェードさせるフェード
イン画像とを、前記タイミングから所定時間前記第1の
合成画像のみを表示させるような値が保持され且つ前記
所定時間後の経過時間に応じて値が変化される第2の合
成比率に従って合成させ、第2の合成画像を順次取得さ
せるステップであることを特徴とする請求項1記載のコ
ンピュータ読み取り可能なコンピュータ記録媒体。
2. The method according to claim 1, further comprising: obtaining the second composite image.
Displaying the first combined image sequentially acquired in the first step and a fade-in image to be cross-fade with the first combined image for only a predetermined time from the timing and displaying the first combined image only The method according to claim 2, wherein the values are held and the values are changed in accordance with the elapsed time after the predetermined time, and the values are changed according to a second synthesis ratio, and a second synthesized image is sequentially acquired. 2. The computer readable computer recording medium according to claim 1.
【請求項3】前記第1の合成画像を取得させる前記第1
ステップが、 前記ビデオゲームの進行過程における任意のタイミング
以降、透視変換により順次生成されるゲーム画像と当該
ゲーム画像の色を調整するための調整用画像とを、前記
タイミングからの経過時間に応じて値が変化される、画
素毎の第1の合成比率に従って画素毎に合成させ、第1
の合成画像を順次取得させるステップであることを特徴
とする請求項1記載のコンピュータ読み取り可能な記録
媒体。
3. The method according to claim 1, wherein the first composite image is acquired.
The step includes, after an arbitrary timing in the progress of the video game, a game image sequentially generated by perspective transformation and an adjustment image for adjusting the color of the game image according to an elapsed time from the timing. The pixel is synthesized in accordance with the first synthesis ratio for each pixel whose value is changed,
2. The computer-readable recording medium according to claim 1, further comprising a step of sequentially acquiring the composite images of
【請求項4】前記第1の合成画像を取得させる前記第1
ステップが、 予め用意された1又は複数のポリゴンを描画することに
より前記調整用画像を取得させるステップを含むことを
特徴とする請求項1記載のコンピュータ読み取り可能な
記録媒体。
4. The method according to claim 1, further comprising the step of obtaining the first composite image.
2. The computer-readable recording medium according to claim 1, wherein the step includes a step of obtaining the adjustment image by drawing one or a plurality of polygons prepared in advance.
【請求項5】前記第1の合成画像を取得させる前記第1
ステップが、 座標指定により定まる領域を所定の配色にて描画させる
ことにより前記調整用画像を取得させるステップを含む
ことを特徴とする請求項1記載のコンピュータ読み取り
可能な記録媒体。
5. The method according to claim 1, further comprising the step of obtaining the first composite image.
2. The computer-readable recording medium according to claim 1, wherein the step includes acquiring the adjustment image by drawing an area determined by coordinate designation with a predetermined color scheme.
【請求項6】前記第1の合成画像を取得させる前記第1
ステップが、 前記調整用画像に対応する領域の所定位置の複数の画素
に設定される第1の合成比率を補間させることにより、
前記画素毎の第1の合成比率を算出させるステップを含
むことを特徴とする請求項3記載のコンピュータ読み取
り可能な記録媒体。
6. The method according to claim 1, wherein the first composite image is obtained.
By interpolating a first combination ratio set for a plurality of pixels at a predetermined position in a region corresponding to the adjustment image,
4. The computer-readable recording medium according to claim 3, further comprising a step of calculating a first combination ratio for each pixel.
【請求項7】ビデオゲームにおけるクロスフェード処理
方法であって、 前記ビデオゲームの進行過程における任意のタイミング
以降、透視変換により順次生成されるゲーム画像と当該
ゲーム画像の色を調整するための調整用画像とを、前記
タイミングからの経過時間に応じて値が変化される第1
の合成比率に従って合成し、第1の合成画像を順次取得
する第1ステップと、 前記第1ステップで順次取得される前記第1の合成画像
と当該第1の合成画像とクロスフェードさせるフェード
イン画像とを、前記タイミングからの経過時間に応じて
値が変化される第2の合成比率に従って合成し、第2の
合成画像を順次取得する第2ステップと、 前記第2ステップで順次取得される第2の合成画像を表
示する第3ステップと、 を含むことを特徴とするクロスフェード処理方法。
7. A cross-fade processing method in a video game, comprising: a game image sequentially generated by perspective transformation after an arbitrary timing in the progress of the video game; and an adjustment method for adjusting a color of the game image. A first image whose value is changed according to an elapsed time from the timing.
A first step of sequentially obtaining a first synthesized image by synthesizing according to the synthesizing ratio, and a fade-in image to be cross-fade with the first synthesized image sequentially obtained in the first step and the first synthesized image Are synthesized in accordance with a second synthesis ratio in which the value is changed according to the elapsed time from the timing, and a second synthesized image is sequentially obtained. A third step of displaying the two composite images. 2. A crossfade processing method, comprising:
【請求項8】前記第2の合成画像を取得する前記第2ス
テップが、 前記第1ステップで順次取得される前記第1の合成画像
と当該第1の合成画像とクロスフェードさせるフェード
イン画像とを、前記タイミングから所定時間前記第1の
合成画像のみを表示させるような値が保持され且つ前記
所定時間後の経過時間に応じて値が変化される第2の合
成比率に従って合成し、第2の合成画像を順次取得する
ステップであることを特徴とする請求項7記載のクロス
フェード処理方法。
8. The method according to claim 1, wherein the second step of acquiring the second composite image includes: the first composite image sequentially acquired in the first step; and a fade-in image to be cross-fade with the first composite image. Are synthesized according to a second synthesis ratio in which a value is displayed such that only the first synthesized image is displayed for a predetermined time from the timing, and the value is changed according to the elapsed time after the predetermined time. 8. The crossfade processing method according to claim 7, further comprising the step of sequentially acquiring the combined images of
【請求項9】前記第1の合成画像を取得する前記第1ス
テップが、 前記ビデオゲームの進行過程における任意のタイミング
以降、透視変換により順次生成されるゲーム画像と当該
ゲーム画像の色を調整するための調整用画像とを、前記
タイミングからの経過時間に応じて値が変化される、画
素毎の第1の合成比率に従って画素毎に合成し、第1の
合成画像を順次取得するステップであることを特徴とす
る請求項7記載のクロスフェード処理方法。
9. The method according to claim 1, wherein the first step of acquiring the first composite image includes adjusting a game image sequentially generated by perspective transformation and a color of the game image after an arbitrary timing in the progress of the video game. And synthesizing an image for adjustment for each pixel in accordance with a first synthesis ratio for each pixel, the value of which is changed according to the elapsed time from the timing, and sequentially obtaining a first synthesized image. 8. The crossfade processing method according to claim 7, wherein:
【請求項10】前記第1の合成画像を取得する前記第1
ステップが、 予め用意された1又は複数のポリゴンを描画することに
より前記調整用画像を取得するステップを含むことを特
徴とする請求項7記載のクロスフェード処理方法。
10. The method according to claim 1, further comprising: obtaining the first composite image.
8. The crossfade processing method according to claim 7, wherein the step includes a step of obtaining the adjustment image by drawing one or a plurality of polygons prepared in advance.
【請求項11】前記第1の合成画像を取得する前記第1
ステップが、 座標指定により定まる領域を所定の配色にて描画するこ
とにより前記調整用画像を取得するステップを含むこと
を特徴とする請求項7記載のクロスフェード処理方法。
11. The method according to claim 1, further comprising: obtaining the first composite image.
8. The crossfade processing method according to claim 7, wherein the step includes a step of obtaining the adjustment image by drawing an area determined by the coordinate designation with a predetermined color scheme.
【請求項12】前記第1の合成画像を取得する前記第1
ステップが、 前記調整用画像に対応する領域の所定位置の複数の画素
に設定される第1の合成比率を補間することにより、前
記画素毎の第1の合成比率を算出するステップを含むこ
とを特徴とする請求項9記載のクロスフェード処理方
法。
12. The method according to claim 1, wherein the first synthesizing image is acquired.
The step of calculating a first combination ratio for each pixel by interpolating a first combination ratio set for a plurality of pixels at a predetermined position in an area corresponding to the adjustment image. The crossfade processing method according to claim 9, wherein:
【請求項13】ビデオゲームの進行過程における任意の
タイミング以降、透視変換により順次生成されるゲーム
画像と当該ゲーム画像の色を調整するための調整用画像
とを、前記タイミングからの経過時間に応じて値が変化
される第1の合成比率に従って合成し、第1の合成画像
を順次取得する第1合成画像取得手段と、 前記第1合成画像取得手段により順次取得される前記第
1の合成画像と当該第1の合成画像とクロスフェードさ
せるフェードイン画像とを、前記タイミングからの経過
時間に応じて値が変化される第2の合成比率に従って合
成し、第2の合成画像を順次取得する第2合成画像取得
手段と、 前記第2合成画像取得手段により順次取得される第2の
合成画像を表示する表示手段と、 を有することを特徴とするビデオゲーム装置。
13. A game image sequentially generated by perspective transformation and an adjustment image for adjusting the color of the game image after an arbitrary timing in the progress of the video game, according to an elapsed time from the timing. A first combined image acquiring unit that combines the first combined image according to a first combination ratio whose value is changed, and the first combined image that is sequentially acquired by the first combined image acquiring unit And a fade-in image to be cross-fade with the first combined image according to a second combining ratio in which a value changes according to an elapsed time from the timing, and a second combined image is sequentially acquired. 2. A video game device comprising: a composite image acquisition unit; and a display unit that displays a second composite image sequentially acquired by the second composite image acquisition unit. .
【請求項14】コンピュータと、 前記コンピュータに実行させるプログラムを記録したコ
ンピュータ読み取り可能な記録媒体と、 を有し、 前記プログラムは、前記コンピュータに、 ビデオゲームの進行過程における任意のタイミング以
降、透視変換により順次生成されるゲーム画像と当該ゲ
ーム画像の色を調整するための調整用画像とを、前記タ
イミングからの経過時間に応じて値が変化される第1の
合成比率に従って合成し、第1の合成画像を順次取得す
る第1合成画像取得処理と、 前記第1合成画像取得処理において順次取得される前記
第1の合成画像と当該第1の合成画像とクロスフェード
させるフェードイン画像とを、前記タイミングからの経
過時間に応じて値が変化される第2の合成比率に従って
合成し、第2の合成画像を順次取得する第2合成画像取
得処理と、 前記第2合成画像取得処理において順次取得される第2
の合成画像を表示する表示処理と、 を実行させることを特徴とするビデオゲーム装置。
14. A computer, and a computer-readable recording medium having recorded thereon a program to be executed by the computer, wherein the program causes the computer to execute perspective transformation after an arbitrary timing in the progress of a video game. And the adjustment image for adjusting the color of the game image sequentially generated according to the first synthesis ratio whose value is changed according to the elapsed time from the timing. A first combined image acquisition process for sequentially acquiring a combined image; and a first combined image sequentially acquired in the first combined image acquisition process and a fade-in image that is cross-fade with the first combined image. Compositing is performed in accordance with a second compositing ratio, the value of which is changed according to the elapsed time from the timing, and the second composite image is sequentially arranged. A second synthesized image acquisition process of acquiring a second sequentially acquired in the second synthesized image acquisition processing
A video game device, characterized by executing a display process of displaying a composite image of (i) and (ii).
JP2000055000A 2000-02-29 2000-02-29 Cross fade processing method, video game device, and computer-readable storage medium recording video game program Pending JP2001239053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000055000A JP2001239053A (en) 2000-02-29 2000-02-29 Cross fade processing method, video game device, and computer-readable storage medium recording video game program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000055000A JP2001239053A (en) 2000-02-29 2000-02-29 Cross fade processing method, video game device, and computer-readable storage medium recording video game program

Publications (1)

Publication Number Publication Date
JP2001239053A true JP2001239053A (en) 2001-09-04

Family

ID=18576188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000055000A Pending JP2001239053A (en) 2000-02-29 2000-02-29 Cross fade processing method, video game device, and computer-readable storage medium recording video game program

Country Status (1)

Country Link
JP (1) JP2001239053A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267564A (en) * 2004-03-22 2005-09-29 Yamaha Corp Video synthesizer
JP2008242664A (en) * 2007-03-26 2008-10-09 Samii Kk Image generation device and image generation program
JP2017023592A (en) * 2015-07-27 2017-02-02 株式会社藤商事 Game machine
WO2020213367A1 (en) * 2019-04-16 2020-10-22 株式会社ソニー・インタラクティブエンタテインメント Display controller, and image display method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267564A (en) * 2004-03-22 2005-09-29 Yamaha Corp Video synthesizer
JP2008242664A (en) * 2007-03-26 2008-10-09 Samii Kk Image generation device and image generation program
JP2017023592A (en) * 2015-07-27 2017-02-02 株式会社藤商事 Game machine
WO2020213367A1 (en) * 2019-04-16 2020-10-22 株式会社ソニー・インタラクティブエンタテインメント Display controller, and image display method
JP2020177087A (en) * 2019-04-16 2020-10-29 株式会社ソニー・インタラクティブエンタテインメント Display controller and image display method

Similar Documents

Publication Publication Date Title
US6561906B2 (en) Game apparatus, method of reproducing movie images and recording medium recording program thereof
US6677967B2 (en) Video game system for capturing images and applying the captured images to animated game play characters
JP3133299B2 (en) Game device, moving image display method, and recording medium
JP3647487B2 (en) Texture mapping device
US7081892B2 (en) Image with depth of field using z-buffer image data and alpha blending
US6657637B1 (en) Moving image combining apparatus combining computer graphic image and at least one video sequence composed of a plurality of video frames
US6468161B1 (en) Video game device and method of displaying images of game, and storage medium storing programs for causing a computer to execute the method
JP2001351126A (en) Computer-readable recording medium with program of game recorded thereon, program of game and method/ device for processing game
JP3449993B2 (en) Image generation system, program, and information storage medium
JP2003323630A (en) Image generation system, image generation program and information storage medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4794811B2 (en) Image processing program and image processing apparatus
JP2001239053A (en) Cross fade processing method, video game device, and computer-readable storage medium recording video game program
JP4447000B2 (en) Image generation system, program, and information storage medium
JP2002336542A (en) Videogame device, videogame screen control program, and its recording medium
JP2001188921A (en) Computer-readable recording medium with recorded program for video game, method for object rendering of video game, and video game device
JP2002032780A (en) Game system, program and information storage medium
JP2003051032A (en) Game information, information storage medium and game device
JPH09265549A (en) Image compositing system
JP4086002B2 (en) Program, image processing apparatus and method, and recording medium
JP3712175B2 (en) Image composition apparatus and method, and information storage medium
JP2001076174A (en) Image generation system and information storage medium
JP2001149641A (en) Picture image processing device and picture image processing method
JP3652586B2 (en) Image drawing system
JPH10143681A (en) Image processing method and its device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030909