JP2004073416A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2004073416A
JP2004073416A JP2002236683A JP2002236683A JP2004073416A JP 2004073416 A JP2004073416 A JP 2004073416A JP 2002236683 A JP2002236683 A JP 2002236683A JP 2002236683 A JP2002236683 A JP 2002236683A JP 2004073416 A JP2004073416 A JP 2004073416A
Authority
JP
Japan
Prior art keywords
image
data
display
fade
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002236683A
Other languages
Japanese (ja)
Inventor
Shohachi Ugawa
鵜川 詔八
Masahito Tani
谷 雅人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sankyo Co Ltd
Original Assignee
Sankyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sankyo Co Ltd filed Critical Sankyo Co Ltd
Priority to JP2002236683A priority Critical patent/JP2004073416A/en
Publication of JP2004073416A publication Critical patent/JP2004073416A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the amount of data of moving image data for displaying a fade-in display and a scene with few movement, and perform moving image performance with full presence. <P>SOLUTION: A data reproducing means 80c includes a still image reproducing processing means 80cc for performing still image reproducing processing (processing for displaying an image (B)-an image (C)) using a still object image during an interruption interval; and a composite display means 80cf for performing composite displays (an image (1)-an image (3)) by superimposing two or more frame data in back-and-forth directions according to priorities. A fade-in switching display means 80f includes a fade-in image creating means 80fa for creating two or more fade-in images (an image (a)-an image (d)) from frame data used at the start of reproduction; and a fade-in processing means 80fb for executing fade-in processing to successively shift from an image (an image (a)) with the most enhanced transmittancy to images (an image (b)-an image (d)) with lower transmittancy. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、パチンコ遊技機等の遊技機にかかり、特に、フェードイン表示やフェードアウト表示を用いて遊技演出を実行するとともに、奥行方向の表示位置が異なる複数のフレームデータを用いた合成表示による遊技演出、および動画像データにおける特定のフレーム画像を用いた静止表示による遊技演出を行う遊技機に関する。
【0002】
【従来の技術】
パチンコ遊技機等の遊技機においては、液晶表示装置(LCD:Liquid Crystal Display)等の表示装置上に所定の識別情報(以下、表示図柄)を更新表示させることで変動表示を行い、その表示結果により所定の遊技価値を付与するか否かを決定する、いわゆる可変表示ゲームによって遊技興趣を高めたものが数多く提供されている。
【0003】
可変表示ゲームには、主に、前述した表示装置を画像表示装置として用いることにより行うもの(以下、特図ゲーム)がある。特図ゲームは、所定領域を通過する遊技球の検出に伴って表示図柄の更新表示を行い、表示図柄の更新表示が完全に停止した際の停止図柄態様が特定表示態様となっている場合を「大当り」とするゲームである。特図ゲームにおいて「大当り」となると、大入賞口と呼ばれる特別電動役物を作動させ、大入賞口扉を開放状態とする。これによって、遊技者に対して遊技球の入賞が極めて容易となる状態を一定時間継続的に提供する。
【0004】
以下、特図ゲームにおいて大当りとなり、大入賞口扉が開放状態となることで、遊技者に対して遊技球の入賞が極めて容易となる状態となることを特定遊技状態という。特定遊技状態となるためには、通常、特別図柄表示装置に表示される表示図柄の停止図柄態様が予め定められた特定表示態様となること(一般的には表示図柄が同一図柄で揃うこと)が条件となる。
【0005】
このように、遊技者にとって特図ゲームでは、停止図柄態様が特定表示態様となって「大当り」となるか否かに最大の関心が払われることになる。このため、「大当り」となるか否かを判別することのできる停止図柄態様の確定までの間に、表示図柄の変動態様を異ならせる等の遊技興趣を高めるための様々な演出表示が行われる。
【0006】
このような遊技機では、一般に、遊技状態に応じて、可変表示装置に所定のキャラクタを登場させたり、そのキャラクタを変化させたり、ランプ・LED等の発光体を明滅させたりすることによって各種の遊技演出が行われている。また、可変表示装置に実写画像などの多色画像を表示させることによって遊技演出を行うものもある。
【0007】
通常、可変表示装置に多色画像による動画像を表示することによって演出表示を行う場合には、動画像データのデータ量が膨大なものとなるため、遊技演出に用いる動画像データは、例えばMPEG2(Moving Picture Experts Group phase 2)などの符号化技術によりデータ圧縮された状態で遊技機が備えるROMなどの記憶媒体に格納される。
【0008】
【発明が解決しようとする課題】
上記のようにデータ圧縮されていても、遊技演出に用いる動画像データのデータ量は、動画像による演出以外の他の遊技演出を行うためのデータのデータ量と比較すると多大なものとなる。遊技制御手段の処理負担等を考慮すると、遊技演出に用いられるデータのデータ量を少なくすることが望ましい。
【0009】
ところで、動画像による演出を行う場合、静止画像による演出から動画像による演出に移行するときや、動画像による演出から静止画像による演出に移行するときに、表示されている画像が段々薄れてきてやがて消失するようなフェードアウト表示や、画面上に画像が段々現れてきてやがてはっきりと表示されるようなフェードイン表示を行うことによって表示画像を切り替えることがある。例えば、リーチ演出において、特別図柄の可変表示内容がリーチ表示に発展した後に、背景画面を静止画像から動画像に切り替える際、フェードアウト表示やフェードイン表示によって表示内容を切り替えるものがある。
【0010】
しかし、フェードアウト表示を行うために、フェードアウト表示用の動画像データが用いられ、同様に、フェードイン表示を行うために、フェードイン表示用の動画像データが用いられている。すなわち、フェードアウト表示用の動画像データとフェードイン表示用の動画像データを予め用意し、遊技演出を行うための動画像データの前後にフェードアウト表示用の動画像データやフェードイン表示用の動画像データをつなぎ、その動画像データを再生することで、フェードアウト表示やフェードイン表示を実現するようにしている。このため、フェードアウト表示やフェードイン表示を行うためには、膨大なデータ量の動画像データを必要としていた。従って、フェードアウト表示やフェードイン表示を行うためには、データ圧縮されてはいるが、多大なデータ量の動画像データを必要とするので、動画像データの総データ量が増大することになってしまい、動画像データを格納する記憶領域の必要容量が増大してしまうという課題があった。
【0011】
フェードアウト表示やフェードイン表示による演出期間を短縮させることによって、フェードアウト表示用の動画像データやフェードイン表示用の動画像データのデータ量を削減することが考えられるが、演出期間が短縮されると、切替表示の際に画像が突然消失したり突然現れるようになってしまい、フェードアウト表示やフェードイン表示が円滑な表示内容でなくなってしまう。
【0012】
また、動画像による演出では、登場するキャラクタなどが頻繁に動作する動きの多い場面ばかりでなく、表示内容の変化が少ない動きのほとんどない場面も存在する。しかし、動画像による演出を行う場合には、動きがほとんどない場面であっても、時間経過毎に用意されている各画像データをその時間経過とともに順次切り替えていく処理が行われる。すなわち、動きのほとんどない場面を表示するための多大なデータ量の動画像データが予め用意され、その動画像データを用いて動きのほとんどない場面が再生表示されている。外見上表示内容が全く変化していないような場面を表示する場合についても、同様に、多大なデータ量の動画像データが用いられている。
【0013】
上記のように、動きのほとんどない場面の表示を行うために、膨大なデータ量の動画像データを必要としていた。このように、動画像による演出を行う場合には、動きのほとんどない場面であっても多大なデータ量の動画像データを必要とするので、動画像データの総データ量が増大することになってしまい、動画像データを格納する記憶領域の必要容量が増大してしまうという課題があった。
【0014】
さらに、動画像による演出を行う場合、多色画像による動画像を表示するようにすれば、様々な場面を多色画像によって表現することができるため、リアルな映像表現を行うことができる。しかし、ほぼ平面上に形成されている表示パネルに動画像が表示されるため、単に動画像による演出を行うだけでは、例えばスクリーン画面上に投影表示される映画のように平面的なものとなる。このように、遊技機における動画像による演出が平面的な表示による演出に止まっているため、臨場感のある表示演出を行うことができないという課題があった。
【0015】
本発明は、上記した問題点に鑑みなされたもので、その目的とするところは、フェードアウト表示やフェードイン表示を行うための動画像データや、動きのほとんどない場面を表示するために用いられる動画像データのデータ量を削減することを実現し、遊技演出に用いられる動画像データの格納領域の必要容量を抑えることができるとともに、フェードアウト表示やフェードイン表示を円滑に行うことができ、さらに、動画像によるリアルな映像表現を生かしつつ、立体感がより高められた臨場感のある演出表示を行うことができる遊技機を提供することにある。
【0016】
【課題を解決するための手段】
本発明による遊技機は、図1に示すように、複数種類の識別情報(例えば、左中右の特別図柄、可変表示装置502に表示される図柄)の可変表示を行い、識別情報の表示結果が特定表示結果(例えば、有効ライン上に確定表示されている各図柄が同一図柄となっている表示結果)となったときに遊技者にとって有利な特定遊技状態(例えば、大当り遊技状態)とする遊技機であって、遊技演出に用いられる画像を表示する画像表示装置(例えば可変表示装置6、画像表示装置540)6aと、動き補償予測符号化による圧縮データを含む動画像データを格納する圧縮データ格納手段(例えばCGROM83)80aと、圧縮データ格納手段80aに格納されている動画像データを伸張するデータ伸張手段(例えば動画圧縮・伸張部89におけるステップS208,ステップS212,ステップS216,ステップS223を実行する部分)80bと、データ伸張手段80bにより伸張された動画像データに基づいて生成される画像を画像表示装置に順次表示させることによって動画再生処理を行うデータ再生手段(例えばGCL81における図15に示す処理を実行する部分)80cと、データ伸張手段80bにより伸張された動画像データにおける各フレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定(例えば、ステップS224)する優先度指定手段(例えばGCL81におけるステップS224を実行する部分)80dと、優先度指定手段80dによって指定された優先度に応じて、フレームデータに基づいて生成される画像の透過度を高めるための半透明化処理(例えば、ステップS252)を行うことによって、当該フレームデータに基づく画像を半透明化された画像とする半透明化処理手段(例えばGCL81におけるステップS252を実行する部分)80eと、段階的に画像を出現させるフェードイン処理を行うことで画像表示装置上の表示画像の切替表示を実行させるフェードイン切替表示手段(例えばGCL81における図17の処理を実行する部分)80fとを備え、データ再生手段80cが、所定の静止対象画像表示タイミング(例えばステップS203にてYと判定されたタイミング)となったことに応じて動画像データに基づく動作対象画像(例えば、図27(A)及び図27(B)に示すキャラクタが動作している動画像)の動画再生処理を中断する動画再生処理中断手段(例えばGCL81におけるステップS204〜ステップS205を実行する部分)80caと、静止対象画像表示タイミングにて動画再生処理が中断されたときに、動画像データに含まれる静止対象画像データ(例えば静止表示対象ピクチャを示す画像データ)に基づいて、画像表示装置上の動作対象画像を所定の静止対象画像(例えば図27(C)に示す画像)に切り替え表示する静止対象画像切替手段(例えばGCL81におけるステップS203にてYと判定されたあとのステップS217で展開されたフレームデータに基づく画像を表示するステップS237の処理を実行する部分)80cbと、動画再生処理が中断される中断期間の間(例えば静止表示時間タイマがタイムアウトするまでの期間)、動画像データに基づく動作対象画像の一部とされている所定の静止対象画像を使用することで(例えば、ステップS241の処理を実行しないようにすることで実現される)、画像表示装置上に静止対象画像を用いた静止画再生処理(例えば、図27(C)〜図27(E)のように同一の静止対象画像に順次切り替えていく処理を示す)を行う静止画再生処理手段(例えばGCL81におけるステップS241での更新がなされていない再生領域指定ポインタが指すフレームデータに基づくステップS237の表示処理を実行する部分)80ccと、中断期間が終了したときに(例えばステップS239にてYと判定されたとき)、画像表示装置上の静止対象画像を動作対象画像(例えば動画像データにおける静止対象画像データの次に設けられている画像データに基づく画像。具体的には、例えば図27(E)と同一の画像。)に切り替え表示する動作対象画像切替手段(例えばGCL81におけるステップS241の処理を再開したあとの最初のステップS237を実行する部分)80cdと、動作対象画像切替手段80cdによって表示された動作対象画像から動画再生処理を再開(例えば、静止対象画像データの後に設けられている画像データを用いて動画再生処理が再開され、図27(F)や図27(G)に示すような画像などが表示されるようにする)する動画再生処理再開手段(例えばGCL81におけるステップS241の処理が再開されて最初のステップS237の処理が実行されたあとの動画再生処理を実行する部分)80ceと、データ伸張手段80bによって連続的に伸張された複数のフレームデータ(例えば、図25に示す合成実行画像の画像データ)を、優先度指定手段80dによって指定された優先度に応じて前後方向に重ね合わせる合成処理(例えばステップS255)を実行することによって、前後方向の優先度が異なる複数のフレームデータを用いた合成表示(例えば、図26(A)〜図26(C)に示すような合成画像の表示。なお、図26(A)〜図26(C)に示すような合成画像を順次表示していくことで合成画像による動画像が表示される。)を行う合成表示手段(例えばGCL81におけるステップS256を実行する部分)80cfとを含み、フェードイン切替表示手段80fが、再生開始時に使用されるフレームデータから透過度を段階的に高めていった複数のフェードイン画像(例えば図19(D)〜図19(B)に示す各画像)を生成(例えば図17に示すフェードイン処理を繰り返し実行することで生成する)するフェードイン画像生成手段(例えばGCL81におけるステップS262を実行する部分)80faと、フェードイン画像生成手段80faにより生成された各フェードイン画像を、透過度が最も高められているフェードイン画像(例えば図18にてN=99とした数式を用いて生成したフェードイン画像。具体的には図19(A)に示す画像)から、透過度がより低いフェードイン画像に順次移行させ(例えば図19(B)、図19(C)に順次移行させる)、最終的にフレームデータの画像を表示させる(例えば図18にてN=0とした数式を用いて生成したフェードイン画像を表示させる。具体的には、例えば図19(D)に示す画像を表示させる)ことによってフェードイン処理を実行するフェードイン処理手段(例えばGCL81におけるステップS263を実行する部分)80fbと、フェードイン処理手段80fbによるフェードイン処理が完了したあと、データ再生手段80cによりフェードイン処理の完了時に表示されているフレームデータの画像から動画再生処理を開始させる動画再生開始手段(例えばGCL81におけるステップS267のあとの最初のステップS237を実行する部分)80fcとを含むことを特徴とする。上記のように構成された遊技機により、例えば、フェードイン切替表示手段80fによってフェードイン表示(例えば図1(a)〜図1(d)に示すような表示)がなされたあとの動画再生処理において、データ再生手段80cによって、1フレーム分の画像データを用いた静止表示(例えば図1(A)〜図1(D)に示すような表示)や、合成画像による動画表示(例えば図1(1)〜図1(3)に示すような表示、あるいは、図1(A)等に示すような人物が複数人前後方向に合成されることによって生成された合成画像による表示)が実行される。
【0017】
フェードイン切替表示手段が、フェードイン処理にて、所定の中間画像(例えば、白や青などの単一色の画像を表示するための画像データ)を介して段階的に画像を出現させるように構成されていてもよい。
【0018】
また、本発明の遊技機は、複数種類の識別情報(例えば、左中右の特別図柄、可変表示装置502に表示される図柄)の可変表示を行い、識別情報の表示結果が特定表示結果(例えば、有効ライン上に確定表示されている各図柄が同一図柄となっている表示結果)となったときに遊技者にとって有利な特定遊技状態(例えば、大当り遊技状態)とする遊技機であって、遊技演出に用いられる画像を表示する画像表示装置(例えば可変表示装置6、画像表示装置540)と、動き補償予測符号化による圧縮データを含む動画像データを格納する圧縮データ格納手段(例えばCGROM83)と、圧縮データ格納手段に格納されている動画像データを伸張するデータ伸張手段(例えば動画圧縮・伸張部89)と、データ伸張手段により伸張された動画像データに基づいて生成される画像を画像表示装置に順次表示させることによって動画再生処理を行うデータ再生手段(例えばGCL81)と、データ伸張手段により伸張された動画像データにおける各フレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定する優先度指定手段(例えばGCL81)と、優先度指定手段によって指定された優先度に応じて、フレームデータに基づいて生成される画像の透過度を高めるための半透明化処理を行うことによって、当該フレームデータに基づく画像を半透明化された画像とする半透明化処理手段(例えばGCL81)と、段階的に画像を消滅させるフェードアウト処理を行うことで画像表示装置上の表示画像の切替表示を実行させるフェードアウト切替表示手段(例えばGCL81)とを備え、データ再生手段が、所定の静止対象画像表示タイミング(例えばステップS203にてYと判定されたタイミング)となったことに応じて動画像データに基づく動作対象画像の動画再生処理を中断する動画再生処理中断手段(例えばGCL81)と、静止対象画像表示タイミングにて動画再生処理が中断されたときに、動画像データに含まれる静止対象画像データ(例えば静止表示対象ピクチャを示す画像データ)に基づいて、画像表示装置上の動作対象画像を所定の静止対象画像に切り替え表示する静止対象画像切替手段(例えばGCL81)と、動画再生処理が中断される中断期間の間(例えば静止表示時間タイマがタイムアウトするまでの期間)、動画像データに基づく動作対象画像の一部とされている所定の静止対象画像を使用することで、画像表示装置上に静止対象画像を用いた静止画再生処理(例えば同一の静止対象画像に順次切り替えていく処理を示す)を行う静止画再生処理手段(例えばGCL81)と、中断期間が終了したときに(例えばステップS223にてYと判定されたとき)、画像表示装置上の静止対象画像を動作対象画像(例えば動画像データにおける静止対象画像データの次に設けられている画像データに基づく画像)に切り替え表示する動作対象画像切替手段(例えばGCL81)と、動作対象画像切替手段によって表示された動作対象画像から動画再生処理を再開する動画再生処理再開手段(例えばGCL81)と、データ伸張手段によって連続的に伸張された複数のフレームデータを、優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行う合成表示手段(例えばGCL81)とを含み、フェードアウト切替表示手段が、遊技演出を実行するための動画像データを用いた動画再生処理を終了するときに、再生終了時に使用されるフレームデータの画像を表示する動画再生終了手段(例えばGCL81におけるステップS211にてフェードアウトフラグがオン状態とされたあとにステップS212にて復号化されたフレームデータを表示するときのステップS237の処理を実行する部分)と、フレームデータから透過度を段階的に高めていった複数のフェードアウト画像を生成(例えば図18に示すフェードアウト処理を繰り返し実行することで生成する)するフェードアウト画像生成手段(例えばGCL81におけるステップS272を実行する部分)と、フェードアウト画像生成手段により生成された各フェードアウト画像を、フレームデータの画像(例えば図19にてM=0とした数式を用いて生成したフェードアウト画像)から、透過度がより高められているフェードアウト画像に順次移行させ、最終的に透過度が最も高められているフェードアウト画像を表示させる(例えば図19にてM=99とした数式を用いて生成したフェードアウト画像を表示させる)ことによってフェードアウト処理を実行するフェードアウト処理手段(例えばGCL81におけるステップS273を実行する部分)とを含むことを特徴とする。上記のように構成された遊技機により、例えば、動画再生処理(図27(A)〜図27(G)に示すような表示を行うための処理)において、データ再生手段が1フレーム分の画像データを用いた静止表示(図27(C)〜図27(E)に示すような表示)や、合成画像による動画表示(図26(A)〜図26(C)に示すような表示、あるいは、図27(A)等に示すような人物が複数人前後方向に合成されることによって生成された合成画像による表示)が実行され、その動画再生処理を終了するときに、フェードアウト切替表示手段によってフェードアウト表示(例えば図22(A)〜図22(D)に示すような表示)が実行される。
【0019】
フェードアウト切替表示手段が、フェードアウト処理にて、段階的に画像を消滅させて所定の中間画像を表示させるように構成されていてもよい。
【0020】
圧縮データ格納手段が、少なくとも、互いの表示内容に関連性があり、互いの表示内容の連携によって関連性のある複数の表示物体を含む合成画像(例えば図29に示す画像)を生成するための連携動画像データを格納し、データ伸張手段が、圧縮データ格納手段に格納されている関連性のある複数の連携動画像データを連続的に伸張し、優先度指定手段が、データ伸張手段により連続的に伸張された各連携動画像データのフレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定し、合成表示手段が、データ伸張手段によって連続的に伸張された各連携動画像データのフレームデータを、優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、識別情報画像の可変表示領域の前面側又は背面側に、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行うように構成されていてもよい。
【0021】
圧縮データ格納手段が、少なくとも、互いの表示内容に独立性があり、互いの表示内容を連携させないことによって独立性のある複数の表示物体を含む合成画像(例えば図30に示す画像)を生成するための非連携動画像データを格納し、データ伸張手段が、圧縮データ格納手段に格納されている独立性のある複数の非連携動画像データを連続的に伸張し、優先度指定手段が、データ伸張手段により連続的に伸張された各非連携動画像データのフレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定し、合成表示手段が、データ伸張手段によって連続的に伸張された各非連携動画像データのフレームデータを、優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、識別情報画像の可変表示領域の前面側又は背面側に、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行い、合成表示手段によって合成処理が実行される複数の非連携動画像データには、少なくとも、画像表示装置の表示画像における背景画像を表示するための動画像データと、背景画像の前面側に表示される前面画像を表示するための動画像データとが含まれるように構成されていてもよい。
【0022】
【発明の実施の形態】
以下、図面を参照しつつ、本発明の一実施形態を詳細に説明する。なお、本実施形態における遊技機としては、LCD等からなる画像表示装置(可変表示装置)により特図ゲームを行う遊技機であり、プリペイドカードによって球貸しを行うカードリーダ(CR:Card Reader )式の第1種パチンコ遊技機を例にとって説明する。しかし、適用対象となる遊技機は、これに限るものではなく、例えば、LCDを搭載したスロットマシン等の遊技機にも適用可能である。また、パチンコ遊技機等の弾球遊技機であっても、画像表示装置を有するものであれば、例えば、第2種あるいは第3種に分類される遊技機や、一般電役機、又はパチコンと呼ばれる確率設定機能付き弾球遊技機等であっても構わない。さらには、プリペイドカード(将来的にはICコイン等も含む価値媒体)によって球貸しを行うCR式パチンコ遊技機だけでなく、現金によって球貸しを行うパチンコ遊技機にも適用可能である。すなわち、LCD等からなる画像表示装置を有し、特図ゲームに相当する演出表示を行うことが可能な遊技機であれば、どのような形態のものであっても構わない。
【0023】
まず、CR式第1種パチンコ遊技機の全体の構成について説明する。図2はパチンコ遊技機を正面から見た正面図である。
パチンコ遊技機1は、大別して、遊技盤面を構成する遊技盤2と、遊技盤2が着脱可能に取り付けられる遊技機用枠3とで構成される。遊技盤2の前面には遊技領域4が形成されている。なお、遊技機1の前面側の下部右側には、打球を発射するハンドル5が設けられている。
【0024】
遊技領域4の中央付近には、それぞれが識別情報としての図柄を可変表示する複数の可変表示部を含む可変表示装置6が設けられている。可変表示装置6は、LCDによって構成され、「左」、「中」、「右」の3つ特別図柄が表示される図柄表示エリア(可変表示部)が設けられている。図柄表示エリアには、変動表示の表示結果が大当り表示態様であるか否かを特定するための有効ラインが予め設定されている。有効ライン上で最終的に停止した各特別図柄の組合せによって大当り表示態様であるか否かが特定され、有効ライン上に各特別図柄が同一図柄で揃っている場合に大当り表示態様であることが特定される。したがって、遊技者は可変表示装置6における有効ライン上の表示態様を確認することで、大当りとなったか否かを容易に認識することができる。
【0025】
また、可変表示装置6には、始動入賞口7に入った有効入賞球数すなわち始動入賞記憶数を表示する4つの特別図柄始動記憶表示エリア(以下、始動記憶表示エリア)8が設けられている。始動記憶表示エリアには、始動入賞記憶数が4未満のときの有効始動入賞に対応して、入賞表示が行われる。具体的には、通常青色表示であった表示を赤色表示に変化させる。この例では、図柄表示エリアと始動記憶表示エリア8とが区分けされて設けられているので、可変表示中も始動入賞記憶数が表示された状態とすることができる。なお、始動記憶表示エリア8を図柄表示エリアの一部に設けるようにしてもよく、この場合には、可変表示中は始動入賞記憶数の表示を中断するようにすればよい。また、この例では、始動記憶表示エリア8を可変表示装置6に設けるようにしているが、始動入賞記憶数を表示する表示器(特別図柄始動記憶表示器)を可変表示装置6とは別個に設けるようにしてもよい。
【0026】
可変表示装置6の下方には、開閉動作を行う普通電動役物9を兼用する始動入賞口7と、特定遊技状態(大当り状態)においてソレノイド等を駆動することで開状態とされる大入賞口10とが上下に並んで配設されており、始動入賞口7の左側には、ゲート13が配設されている。大入賞口10は、大入賞口扉11を開閉することによって開状態あるいは閉状態とされる。ゲート13に遊技球が入賞すると、普通図柄表示装置14において表示状態が変化する可変表示が開始される。普通図柄表示装置14の近傍には、普通図柄始動入賞記憶数を表示する4つのLEDによる表示部を有する普通図柄始動記憶表示器15が設けられている。また、遊技盤2には、複数の入賞口16,17,18,19が設けられている。
【0027】
遊技機用枠3の左右上部には、効果音を発する2つのスピーカ20L,20Rが設けられている。また、遊技領域4の外周には、天枠ランプ21a、左枠ランプ21b及び右枠ランプ21cが設けられている。さらに、図示はしないが、遊技領域4における各構造物(大入賞口等)の周囲には装飾用LEDが設置されている。天枠ランプ21a、左枠ランプ21b及び右枠ランプ21c及び装飾用LEDは、遊技機に設けられている発光体の一例である。
【0028】
次に、パチンコ遊技機1の裏面の構造について図3を参照して説明する。図3は、遊技機を裏面から見た背面図である。図3に示すように、遊技機裏面側では、可変表示装置6等を制御する演出制御基板100、遊技制御用マイクロコンピュータ等が搭載された遊技制御基板(主基板)30が設置されている。また、球払出制御を行う払出制御用マイクロコンピュータ等が搭載された払出制御基板40が設置されている。また、所定の電源電圧を供給するための電源回路が搭載された電源基板150や発射制御基板91が設けられている。さらに、主基板30からの各種情報を遊技機外部に出力するための各端子を備えた盤用外部端子基板50と、賞球個数や球貸し個数等の各種情報を遊技機外部に出力するための各端子を備えた枠用外部端子基板51とが設置されている。
【0029】
図4は、遊技制御部を中心としたシステム構成例を示すブロック図である。本実施形態におけるパチンコ遊技機1は、主として、電源部(電源基板)150と、遊技制御部(主基板)30と、入力部52と、出力部53と、演出制御部(演出制御基板)100と、払出制御部(払出制御基板)40と、盤用外部端子基板50と、枠用外部端子基板51とを備えている。
【0030】
遊技制御部30は、ゲーム制御用のプログラム等を記憶するROM31、ワークメモリとして使用されるRAM32、プログラムに従って制御動作を行うCPU33及びI/Oポート部34を含む。なお、CPU33はROM31に格納されているプログラムに従って制御を実行するので、以下、CPU33が実行する(又は、処理を行う)ということは、CPU33がプログラムに従って制御を実行することをいう。このことは、主基板30以外の他の基板に搭載されているCPUについても同様である。また、図示はしないが、遊技制御部30は、入力部52からの信号入力を受け付けるスイッチ回路と、出力部53に向けて駆動信号の出力を行うソレノイド回路とを備えている。なお、遊技制御部30は、遊技に用いられる各種の乱数を生成する機能、演出制御部100や払出制御部40に制御コマンドを出力する機能、ホールの管理コンピュータに対して各種情報を出力する機能等の各種の機能を有している。
【0031】
入力部52は、始動入賞口7への入賞球を検出する始動口スイッチ7a、ゲート13への入賞球を検出するゲートスイッチ13a、大入賞口10から遊技盤2の背面に導かれた入賞球のうち一方(V入賞領域)に入った入賞球を検出する特定領域スイッチ22、大入賞口10からの入賞球を検出するカウントスイッチ23、各入賞口16,17,18,19への入賞球を検出する入賞口スイッチ16a,17a,18a,19a等の各種の検出手段によって構成される。上記の各スイッチは、センサと称されているものでもよい。すなわち、遊技球の検出等の、各種の検出を行うことができる検出手段であれば、その名称を問わない。
【0032】
出力部53は、可変入賞球装置9を開閉するための普通電動役物ソレノイド9a、開閉板11の開閉に用いられる大入賞口扉ソレノイド11a及び大入賞口10内の経路の切り換えに用いられる大入賞口内誘導板ソレノイド12a等の各種の駆動手段によって構成される。
【0033】
図4に示すように、演出制御部100は、可変表示装置6や普通図柄表示装置14等の表示に関する制御を行う表示制御部80と、スピーカ20L,20R等の音に関する制御を行う音制御部70と、天枠ランプ21a等の発光体に関する制御を行うランプ制御部60とを備えている。演出制御部100は、遊技制御部30からの制御コマンドに基づいて、特別図柄を可変表示する可変表示装置6及び普通図柄を可変表示する普通図柄表示装置14の表示制御、音声出力制御、ランプ表示制御をそれぞれ実行する。
【0034】
払出制御部40は、遊技球の貸出や賞球等の払出制御を実行する機能を有している。また、盤用外部端子基板50及び枠用外部端子基板51は、各種遊技関連情報を外部に出力する役割を果たす。さらに、電源部150は、パチンコ遊技機1内の各回路に、所定の電源電圧を供給するために設けられている。
【0035】
ここで、本例のパチンコ遊技機1における遊技の様子について説明する。打球発射装置から発射された遊技球は、打球レールを通って遊技領域4に入り、その後、遊技領域4を下りてくる。打球が始動入賞口7に入り始動口スイッチ7aで検出されると、図柄の可変表示を開始できる状態であれば、可変表示装置6において特別図柄が可変表示(変動)を始める。図柄の可変表示を開始できる状態でなければ、始動入賞記憶数を1増やす。
【0036】
可変表示装置6における特別図柄の可変表示は、一定時間が経過したときに停止する。停止時における有効ライン上の特別図柄の組合せが大当り表示態様であると、大当り遊技状態に移行する。具体的には、大入賞口10が、一定時間経過するまで、又は、所定個数(例えば、10個)の打球が入賞するまで開放する。そして、大入賞口10の開放中に打球がV入賞領域に入賞し特定領域スイッチ22で検出されると、継続権が発生し大入賞口10が再度開放される。継続権の発生は、所定回数(例えば、15ラウンド)許容される。
【0037】
停止時の可変表示装置6における特別図柄の組合せが確率変動を伴う大当り図柄(確変図柄)の組合せである場合には、次に大当りとなる確率が高くなる。すなわち、確変状態という遊技者にとってさらに有利な状態(特別遊技状態)となる。
【0038】
なお、可変表示装置6上に表示される特別図柄の仮停止タイミングや変動時間等は、後述する変動パターン指定コマンドに従って一意に定まっている。すなわち、演出制御部100は、変動パターンコマンドを受け取ったタイミングから、可変表示装置6上における特別図柄の変動、スピーカ20L,20Rからの音声出力及びランプ・LED21a等の明滅表示が連動して行われるように制御を実行する。
【0039】
図5は、演出制御基板100の回路構成を示すブロック図である。演出制御基板100は、表示制御部80と、音制御部70と、ランプ制御部60と、各制御部60,70,80の制御を行う演出制御用CPU101と、演出制御用のプログラムや図柄表示・発光・音声出力等の各種の演出パターン等を記憶するROM102と、ワークメモリとして使用されるRAM103とを備えている。なお、図示はしないが、演出制御基板100には、演出制御コマンドの受信に用いられるコマンド受信回路が設けられている。
【0040】
演出制御用CPU101は、ROM102に格納されたプログラムに従って動作し、主基板30からの演出制御コマンドを受信する。そして、演出制御用CPU101は、受信した演出制御コマンドに従って、可変表示装置6の表示制御や、発光体の点灯/消灯制御、音出力制御、可動演出装置の駆動制御等の各種制御を行う。
【0041】
可変表示装置6の表示制御は、具体的には、演出制御コマンドに応じた指令をGCL(Graphics Controller LSI)81に与える。GCL81は、CGROM83等から必要なデータを読み出す。なお、CGROM83には、使用頻度の高いキャラクタを示すデータが格納されている。CGROM83に格納されている使用頻度の高いキャラクタとは、例えば、可変表示装置6に表示される人物、動物、又は、文字、図形もしくは記号等からなる画像である。なお、キャラクタには、実写による動画像や静止画像も含まれる。GCL81は、入力したデータに従って可変表示装置6に表示するための画像データを生成し、R(赤),G(緑),B(青)信号及び同期信号を可変表示装置6に出力する。可変表示装置6は、例えば、多数の画素(ピクセル)を用いたドットマトリクス方式による画面表示を行う。本例では、R,G,B信号がそれぞれ8ビットで表される。したがって、可変表示装置6は、GCL81からの指示に従って、R,G,Bそれぞれが256階調であり、約1670万色の多色表示を行うことができる。なお、R,G,B信号のビット数は8ビット以外のビット数であってもよく、また、R,G,B信号の各ビット数が互いに異なる数であってもよい。
【0042】
表示制御部80には、CGROM83やSDRAM(VRAM)84等の各種の記憶媒体が備えられている。SDRAM84には、フレームバッファ、キャラクタのソースデータ、表示色の特定や変更等のために用いられるパレットデータ等の表示画像に関するデータが格納される。また、表示制御部80は、GCL81と、普通図柄表示装置14に信号を出力するための普通図柄駆動回路82とを備えている。
【0043】
GCL81は、所定のパレットデータを一時的に保存するためなどに用いられるパレットデータバッファ85や、所定のCGデータを一時的に保存するためなどに用いられるCGデータバッファ86等の各種の記憶媒体の他、描画制御部と、可変表示装置6に信号を出力するための可変表示装置制御部87及びDAC(ディジタルアナログコンバータ)88と、動画圧縮処理や伸張処理を行う動画圧縮伸張部89とを含む。描画制御部は、アトリビュート解析部81aと、VRAMアドレス生成部81bと、クリッピング部81cと、半透明輝度変調部81dとを含む。アトリビュート解析部81aは、キャラクタを描画する際に使用されるパラメータの解析を行う。このパラメータには、画像の描画順序、色数、拡大縮小率、パレット番号、座標等を指定するための情報が設定されている。なお、動画圧縮伸張部89は、GCL81によって制御される構成としても、演出制御用CPU101によって制御される構成としてもよい。
【0044】
音制御部70は、遊技制御部30からの制御コマンドに従って音声や効果音を発生する音声IC71と、音声データ等を記憶する音声ROM72と、音声信号を増幅してスピーカ20L,20Rに出力するための低周波増幅回路73と、低周波増幅回路73から出力される音声信号の出力レベルを設定されている音量に応じたレベルにするディジタルボリューム74とを備えている。
【0045】
ランプ制御部60は、ランプ・LED24に含まれている遊技状態飾りランプ24aに信号を出力するためのランプ駆動回路61と、ランプ・LED24に含まれている遊技状態飾りLED24bに信号を出力するためのLED駆動回路62とを備えている。
【0046】
次に遊技機の動作について説明する。図6は、主基板30における遊技制御手段(CPU33及びROM,RAM等の周辺回路)が実行するメイン処理を示すフローチャートである。遊技機に対して電源が投入され、リセット端子の入力レベルがハイレベルになると、CPU33は、ステップS1以降のメイン処理を開始する。メイン処理において、CPU33は、まず、必要な初期設定を行う。
【0047】
初期設定処理において、CPU33は、まず、割込み禁止に設定する(ステップS1)。次に、割込みモードを割込みモード2に設定し(ステップS2)、スタックポインタにスタックポインタ指定アドレスを設定する(ステップS3)。そして、内蔵デバイスレジスタの初期化を行う(ステップS4)。また、内蔵デバイス(内蔵周辺回路)であるCTC(カウンタ/タイマ)及びPIO(パラレル入出力ポート)の初期化(ステップS5)を行った後、RAMをアクセス可能状態に設定する(ステップS6)。
【0048】
この実施の形態で用いられるCPU33は、I/Oポート(PIO)及びタイマ/カウンタ回路(CTC)も内蔵している。また、CTCは、2本の外部クロック/タイマトリガ入力CLK/TRG2,3と2本のタイマ出力ZC/TO0,1を備えている。
【0049】
この実施の形態で用いられているCPU33には、マスク可能な割込のモードとして以下の3種類のモードが用意されている。なお、マスク可能な割込が発生すると、CPU33は、自動的に割込み禁止状態に設定するとともに、プログラムカウンタの内容をスタックにセーブする。
【0050】
割込みモード0:割込み要求を行った内蔵デバイスがRST命令(1バイト)又はCALL命令(3バイト)をCPUの内部データバス上に送出する。よって、CPU33は、RST命令に対応したアドレス又はCALL命令で指定されるアドレスの命令を実行する。リセット時に、CPU33は自動的に割込みモード0になる。よって、割込みモード1又は割込みモード2に設定したい場合には、初期設定処理において、割込みモード1又は割込みモード2に設定するための処理を行う必要がある。
【0051】
割込みモード1:割込が受け付けられると、常に0038(h)番地に飛ぶモードである。
【0052】
割込みモード2:CPU33の特定レジスタ(Iレジスタ)の値(1バイト)と内蔵デバイスが出力する割込みベクタ(1バイト:最下位ビット0)から合成されるアドレスが、割込み番地を示すモードである。すなわち、割込み番地は、上位アドレスが特定レジスタの値とされ下位アドレスが割込みベクタとされた2バイトで示されるアドレスである。したがって、任意の(飛び飛びではあるが)偶数番地に割込み処理を設置することができる。各内蔵デバイスは割込み要求を行うときに割込みベクタを送出する機能を有している。
【0053】
よって、割込みモード2に設定されると、各内蔵デバイスからの割込み要求を容易に処理することが可能になり、また、プログラムにおける任意の位置に割込み処理を設置することが可能になる。さらに、割込みモード1とは異なり、割込み発生要因毎のそれぞれの割込み処理を用意しておくことも容易である。上述したように、この実施の形態では、初期設定処理のステップS2において、CPU33は割込みモード2に設定される。
【0054】
次いで、CPU33は、遊技機に設けられているクリアスイッチがオン状態であるか否かを確認する(ステップS7)。その確認においてオンを検出した場合には、CPU33は、通常の初期化処理を実行する(ステップS10〜ステップS12)。クリアスイッチがオンの状態でない場合には、遊技機への電力供給が停止したときにバックアップRAM領域のデータ保護処理(例えば、パリティデータの付加等の電力供給停止時処理)が行われたか否か確認する(ステップS8)。そのような保護処理が行われていないことを確認したら、CPU33は初期化処理を実行する。バックアップRAM領域にバックアップデータがあるか否かは、例えば、電力供給停止時処理においてバックアップRAM領域に設定されるバックアップフラグの状態によって確認される。
【0055】
バックアップありを確認したら、CPU33は、遊技制御手段の内部状態と演出制御手段等の電気部品制御手段の制御状態を電力供給停止時の状態に戻すための遊技状態復旧処理を行う(ステップS9)。そして、バックアップRAM領域に保存されていたPC(プログラムカウンタ)の退避値がPCに設定され、そのアドレスに復帰する。
【0056】
初期化処理では、CPU33は、まず、RAMクリア処理を行う(ステップS10)。また、所定の作業領域(例えば、普通図柄判定用乱数カウンタ、普通図柄判定用バッファ、特別図柄左中右図柄バッファ、特別図柄プロセスフラグ、払出コマンド格納ポインタ、賞球中フラグ、球切れフラグ、払出停止フラグ等制御状態に応じて選択的に処理を行うためのフラグ)に初期値を設定する作業領域設定処理を行う。さらに、サブ基板(演出制御基板100、払出制御基板40)を初期化するための初期化コマンドをサブ基板に送信する処理を実行する(ステップS11)。初期化コマンドとして、可変表示装置6に表示される初期図柄を示すコマンドや、払出可能状態であることを示す払出可能状態指定コマンド等がある。
【0057】
そして、2ms毎に定期的にタイマ割込みがかかるようにCPU33に設けられているCTCのレジスタの設定が行われる(ステップS12)。すなわち、初期値として2msに相当する値が所定のレジスタ(時間定数レジスタ)に設定される。
【0058】
初期化処理の実行(ステップS10〜S12)が完了すると、メイン処理で、表示用乱数更新処理(ステップS14)及び初期値用乱数更新処理(ステップS15)が繰り返し実行される。表示用乱数更新処理及び初期値用乱数更新処理が実行されるときには割込み禁止状態とされ(ステップS13)、表示用乱数更新処理及び初期値用乱数更新処理の実行が終了すると割込み許可状態とされる(ステップS16)。表示用乱数とは、可変表示装置6に表示される図柄を決定するための乱数であり、表示用乱数更新処理とは、表示用乱数を発生するためのカウンタのカウント値を更新する処理である。また、初期値用乱数更新処理とは、初期値用乱数を発生するためのカウンタのカウント値を更新する処理である。初期値用乱数とは、大当りとするか否かを決定するための乱数を発生するためのカウンタ(大当り決定用乱数発生カウンタ)等の初期値を決定するための乱数である。後述する遊技制御処理において、大当り決定用乱数発生カウンタのカウント値が1周すると、そのカウンタに初期値が設定される。
【0059】
なお、表示用乱数更新処理が実行されるときには割込み禁止状態とされるのは、表示用乱数更新処理が後述するタイマ割込み処理でも実行されることから、タイマ割込み処理における処理と競合してしまうのを避けるためである。すなわち、ステップS14の処理中にタイマ割込みが発生してタイマ割込み処理中で表示用乱数を発生するためのカウンタのカウント値を更新してしまったのでは、カウント値の連続性が損なわれる場合がある。しかし、ステップS14の処理中では割込み禁止状態にしておけば、そのような不都合が生ずることはない。
【0060】
タイマ割込みが発生すると、CPU33は、レジスタの退避処理(ステップS20)を行った後、図7に示すステップS21〜S31の遊技制御処理を実行する。遊技制御処理において、CPU33は、まず、スイッチ回路58を介して、ゲートスイッチ12a、始動口スイッチ7a、カウントスイッチ23及び入賞口スイッチ16a等のスイッチの検出信号を入力し、それらの状態判定を行う(スイッチ処理:ステップS21)。
【0061】
次に、遊技制御に用いられる大当り判定用の乱数等の各判定用乱数を生成するための各カウンタのカウント値を更新する処理を行う(ステップS23)。CPU33は、さらに、表示用乱数を生成するためのカウンタのカウント値を更新する処理を行う(ステップS24)。
【0062】
この例では、大当りを発生させるか否かの決定に用いられる大当り判定用乱数、特別図柄の左中右のはずれ図柄の決定に用いられるはずれ図柄決定用乱数、大当りを発生させる際の特別図柄の組合せを決定する際に用いられる大当り図柄決定用乱数、特別図柄の変動パターンの決定に用いられる変動パターン決定用乱数、普通図柄に基づく当りを発生させるか否かの決定に用いられる普通図柄当り判定用乱数、各乱数の初期値の決定に用いられる初期値決定用乱数等の各種の乱数が用意されている。
【0063】
ステップS23では、CPU33は、大当り判定用乱数、大当り図柄決定用乱数、及び普通図柄当り判定用乱数を生成するためのカウンタのカウントアップ(1加算)を行う。すなわち、それらが判定用乱数であり、それら以外の乱数が表示用乱数又は初期値用乱数である。
【0064】
さらに、CPU33は、特別図柄プロセス処理を行う(ステップS25)。特別図柄プロセス制御では、遊技状態に応じてパチンコ遊技機1を所定の順序で制御するための特別図柄プロセスフラグに従って該当する処理が選び出されて実行される。そして、特別図柄プロセスフラグの値は、遊技状態に応じて各処理中に更新される。また、普通図柄プロセス処理を行う(ステップS26)。普通図柄プロセス処理では、普通図柄表示装置14の表示状態を所定の順序で制御するための普通図柄プロセスフラグに従って該当する処理が選び出されて実行される。そして、普通図柄プロセスフラグの値は、遊技状態に応じて各処理中に更新される。
【0065】
次いで、CPU33は、特別図柄に関する演出制御コマンドをRAM55の所定の領域に設定して演出制御コマンドを送出する処理を行う(特別図柄コマンド制御処理:ステップS27)。また、普通図柄に関する演出制御コマンドをRAM32の所定の領域に設定して演出制御コマンドを送出する処理を行う(普通図柄コマンド制御処理:ステップS28)。
【0066】
さらに、CPU33は、例えば、ホール管理用コンピュータに供給される大当り情報、始動情報、確率変動情報等のデータを出力する情報出力処理を行う(ステップS29)。
【0067】
また、CPU33は、所定の条件が成立したときにソレノイド回路に駆動指令を行う(ステップS30)。可変入賞球装置9又は開閉板11を開状態又は閉状態としたり、大入賞口10内の遊技球通路を切り替えたりするために、主基板30が備えるソレノイド回路は、駆動指令に応じてソレノイド9a,11a,12aを駆動する。
【0068】
そして、CPU33は、入賞口スイッチ16a,17a,18a,19aの検出信号に基づく賞球個数の設定等を行う賞球処理を実行する(ステップS32)。具体的には、入賞口スイッチ16a,17a,18a,19aのいずれかがオンしたことに基づく入賞検出に応じて、払出制御基板40に賞球個数を示す払出制御コマンドを出力する。払出制御基板40に搭載されている払出制御用CPUは、賞球個数を示す払出制御コマンドに応じて球払出装置を駆動する。その後、レジスタの内容を復帰させ(ステップS32)、割込み許可状態に設定する(ステップS33)。
【0069】
以上の制御によって、この実施の形態では、遊技制御処理は2ms毎に起動されることになる。なお、この実施の形態では、タイマ割込み処理で遊技制御処理が実行されているが、タイマ割込み処理では例えば、割込が発生したことを示すフラグのセットのみがなされ、遊技制御処理はメイン処理において実行されるようにしてもよい。
【0070】
この実施の形態では、左図柄、中図柄及び右図柄として、それぞれ「1」〜「12」の図柄が、可変表示装置6において可変表示(変動)される。「1」〜「12」の図柄には、図柄番号0〜11の図柄番号が付されている。また、可変表示装置6における最終停止図柄(確定図柄)がそろった場合に大当りが発生する。そして、奇数の図柄でそろった場合に、大当りが発生する確率が向上した状態である高確率状態(確変状態)に変化する。
【0071】
図8は、CPU33が実行する特別図柄プロセス処理のプログラムの一例を示すフローチャートである。図8に示す特別図柄プロセス処理は、図7のフローチャートにおけるステップS25の具体的な処理である。CPU33は、特別図柄プロセス処理を行う際に、変動短縮タイマ減算処理(ステップS310)及び入賞確認処理(ステップS311)を行った後に、内部状態に応じて、ステップS301〜S309のうちのいずれかの処理を行う。変動短縮タイマは、特別図柄の変動時間が短縮される場合に、変動時間を設定するためのタイマである。
【0072】
入賞確認処理(ステップS311):始動入賞口7に打球入賞して始動口スイッチ7aがオンするのを待つ。始動口スイッチ7aがオンすると、始動入賞記憶数が満タン(この実施の形態での最大値である4に達している状態)でなければ、始動入賞記憶数を1加算するとともに、大当り決定用乱数等の各乱数を抽出する。そして、それらを始動入賞記憶数の値に対応した乱数値格納エリアに格納する。また、加算した後の始動入賞記憶数を指定する始動入賞記憶指定のコマンドを送信するための処理を行う。
【0073】
特別図柄通常処理(ステップS301):特別図柄の可変表示を開始できる状態(特別図柄プロセスフラグの値がステップS301を示す値となっている場合)になるのを待つ。なお、特別図柄プロセスフラグの値がステップS301を示す値となっている場合とは、可変表示装置6において図柄の変動がなされておらず、かつ、大当り遊技中でもない場合である。特別図柄の可変表示が開始できる状態になると、始動入賞記憶数を確認する。始動入賞記憶数が0でなければ、内部状態(特別図柄プロセスフラグ)をステップS302に移行するように更新する。
【0074】
停止図柄設定処理(ステップS302):始動入賞記憶数=1に対応する乱数値格納エリアに格納されている値を読み出すとともに、始動入賞記憶数の値を1減らし、かつ、各乱数値格納エリアの値をシフトする。すなわち、始動入賞記憶数=n(n=2,3,4)に対応する乱数値格納エリアに格納されている各値を、始動入賞記憶数=n−1に対応する乱数値格納エリアに格納する。次いで、始動入賞記憶数=1に対応する乱数値格納エリアに格納されている値(大当り判定用乱数の値等)に基づいて、大当り、ハズレ、リーチとするか等を判定し、その判定結果や可変表示開始時の制御状態等に基づいて、左中右図柄の停止図柄を決定する。処理を終えると、内部状態(特別図柄プロセスフラグ)をステップS303に移行するように更新する。
【0075】
変動パターン設定処理(ステップS303):停止図柄設定処理にて決定された停止図柄や変動パターン決定用乱数の値に基づいて、図柄の変動パターンを決定する。処理を終えると、内部状態(特別図柄プロセスフラグ)をステップS304に移行するように更新する。
【0076】
全図柄変動処理(ステップS304):可変表示装置6において全図柄が変動開始されるように制御する。このとき、演出制御基板100に対して、左中右最終停止図柄と変動態様(変動パターン)を指令する情報(演出制御コマンド)とが送信される。具体的には、遊技制御手段は、可変表示を開始させるときに、変動パターン指定の演出制御コマンドを送信し、続いて、左図柄指定、中図柄指定、右図柄指定の演出制御コマンドを送信する。処理を終えると、内部状態(特別図柄プロセスフラグ)をステップS305に移行するように更新する。
【0077】
全図柄停止処理(ステップS305):所定時間(ステップS304でタイマにセットされる値に応じた時間)が経過すると、左右中図柄を最終停止(確定)させるために全図柄の停止を指示する演出制御コマンドを送信する。この演出制御コマンドの受信に基づいて、可変表示装置6において表示される全図柄が停止される。そして、遊技制御手段は、停止図柄が大当り図柄の組合せである場合には、内部状態(特別図柄プロセスフラグ)をステップS306に移行するように更新する。そうでない場合には、内部状態をステップS301に移行するように更新する。
【0078】
大入賞口開放前処理(ステップS306):大入賞口を開放する制御を開始する。具体的には、カウンタやフラグを初期化するとともに、大入賞口扉ソレノイド11aを駆動して大入賞口を開放する。また、プロセスタイマによって大入賞口開放中処理の実行時間を設定し、大当りフラグ(大当り中であることを示すフラグ)のセットを行う。処理を終えると、内部状態(特別図柄プロセスフラグ)をステップS307に移行するように更新する。
【0079】
大入賞口開放中処理(ステップS307):大入賞口ラウンド表示の演出制御コマンドデータを演出制御基板100に送出する制御や大入賞口の閉成条件の成立を確認する処理等を行う。最終的な大入賞口の閉成条件が成立したら、内部状態をステップS308に移行するように更新する。
【0080】
特定領域有効時間処理(ステップS308):特定領域スイッチ22の通過の有無を監視して、大当り遊技状態継続条件の成立を確認する処理を行う。大当り遊技状態継続の条件が成立し、かつ、まだ残りラウンドがある場合には、内部状態をステップS306に移行するように更新する。また、所定の有効時間内に大当り遊技状態継続条件が成立しなかった場合、又は、全てのラウンドを終えた場合には、内部状態をステップS309に移行するように更新する。
【0081】
大当り終了処理(ステップS309):大当り遊技状態が終了したことを遊技者に報知するための表示を指示する演出制御コマンドの送信を行う。その表示期間が終了したら、内部状態をステップS301に移行するように更新する。
【0082】
本例では、遊技制御手段から各電気部品制御手段に対する指示等の情報伝達は、制御コマンドによって行われる。制御コマンドは、例えば、2バイト構成であり、1バイト目はMODE(コマンドの分類)を表し、2バイト目はEXT(コマンドの種類)を表す。演出制御基板100に搭載されている演出制御手段は、INT信号(取込信号)が立ち上がったことを検知して、割込み処理によって1バイトのデータ(MODEデータ)の取り込み処理を開始し、その後の割込み処理によって1バイトのデータ(EXTデータ)の取り込み処理を開始する。
【0083】
次に、演出制御手段の動作を説明する。図9は、演出制御用CPU101が実行するメイン処理を示すフローチャートである。メイン処理では、まず、RAM領域のクリアや各種初期値の設定、また演出制御の起動間隔を決めるための2msタイマの初期設定等を行うための初期化処理が行われる(ステップS701)。その後、演出制御用CPU101は、タイマ割込みフラグの監視(ステップS702)の確認を行うループ処理に移行する。タイマ割込みが発生すると、演出制御用CPU101は、割込み処理内でタイマ割込みフラグをセットする。メイン処理において、タイマ割込みフラグがセットされていたら、演出制御用CPU101は、そのフラグをクリアし(ステップS703)、以下の演出制御処理を実行する。
【0084】
この実施の形態では、タイマ割込みは2ms毎にかかる。すなわち、演出制御処理は、2ms毎に起動される。また、この実施の形態では、タイマ割込み処理ではフラグセットのみがなされ、具体的な演出制御処理はメイン処理において実行されるが、タイマ割込み処理で演出制御処理を実行してもよい。
【0085】
演出制御処理において、演出制御用CPU101は、まず、受信した演出制御コマンドを解析する(コマンド解析実行処理:ステップS704)。次いで演出制御用CPU101は、演出制御プロセス処理を行う(ステップS705)。演出制御プロセス処理では、制御状態に応じた各プロセスのうち、現在の制御状態に対応したプロセスを選択して実行する。そして、演出制御基板100で用いられる各種の乱数カウンタを更新する処理を実行する(ステップS706)。さらに、演出制御用CPU101は、遊技演出装置25A,25B,25Cによる演出を行う場合に、可動役物制御部100が備える図示しないソレノイド回路に駆動指令を行う(ステップS707)。遊技演出装置25A,25B,25Cを動作させるために、可動役物制御部100が備える図示しないソレノイド回路は、駆動指令に応じてソレノイド25a,25b,25cを駆動する。その後、ステップS702のタイマ割込みフラグの確認を行う処理に戻る。
【0086】
ここで、主基板30からの演出制御コマンドの受信について説明する。演出制御基板100は、図示はしないが、主基板30から受信した演出制御コマンドを格納するためのコマンド受信バッファを備えている。例えば、2バイト構成の演出制御コマンドを6個格納可能なリングバッファ形式のコマンド受信バッファが用いられる。演出制御手段は、変動パターン等の格納領域に格納される最新のコマンドに基づき制御される。これにより、主基板30からの指示に迅速に対応することができる。演出制御用CPU101は、主基板30からのINT信号がオン状態になると割込みがかかり、演出制御コマンドを受信するための処理を実行し、受信した演出制御コマンドをコマンド受信バッファに格納する。
【0087】
そして、受信コマンドバッファに格納されているコマンドの内容がコマンド解析処理(ステップS704)で確認され、受信コマンドに対応するフラグのセット等の処理がなされる。例えば、コマンド受信バッファに受信コマンドが左中右の図柄を指定する図柄指定コマンドであれば、そのコマンドに含まれている指定図柄を特定可能なデータを停止図柄格納エリアに格納し、対応する有効フラグをセットする。また、例えば、コマンド受信バッファに受信コマンドが演出パターンを指定する変動パターンコマンドであれば、そのコマンドに含まれている変動パターンを特定可能なデータを変動パターン格納エリアに格納し、変動パターン受信フラグをセットする。
【0088】
図10は、図9に示されたメイン処理における演出制御プロセス処理(ステップS705)を示すフローチャートである。演出制御プロセス処理では、表示制御プロセスフラグの値に応じてステップS800〜S806のうちのいずれかの処理が行われる。各処理において、以下のような処理が実行される。
【0089】
変動パターンコマンド受信待ち処理(ステップS800):変動時間を特定可能な演出制御コマンド(変動パターンコマンド)を受信したか否か確認する。具体的には、変動パターンコマンドが受信されたことを示すフラグ(変動パターン受信フラグ)がセットされたか否か確認する。変動パターン受信フラグは、コマンド解析処理にて、変動パターン指定の演出制御コマンドが受信されたことが確認された場合にセットされる。変動パターン受信フラグがセットされていれば、表示制御プロセスフラグの値をリーチ予告処理に対応した値にする。
【0090】
リーチ予告処理(ステップS801):リーチ予告演出を行うか否か、及び、リーチ予告を行うことに決定した場合におけるリーチ予告演出の内容を決定する。決定したら、表示制御プロセスフラグの値を全図柄変動開始処理に対応した値にする。
【0091】
全図柄変動開始処理(ステップS802):左中右図柄の変動が開始されるように制御する。そして、表示制御プロセスフラグの値を図柄変動中処理に対応した値にする。
【0092】
図柄変動中処理(ステップS803):変動パターンを構成する各変動状態(変動速度)の切替えタイミングを制御するとともに、変動時間の終了を監視する。また、左右図柄の停止制御を行う。処理を終えると、表示制御プロセスフラグの値を全図柄停止待ち処理に対応した値にする。
【0093】
全図柄停止待ち設定処理(ステップS804):変動時間の終了時に、全図柄停止を指示する演出制御コマンドを受信していたら、図柄の変動を停止し停止図柄(確定図柄)を表示する制御を行う。そして、大当り表示態様とする場合には表示制御プロセスフラグの値を大当り表示処理に対応した値にし、はずれとする場合には表示制御プロセスフラグの値を変動パターンコマンド受信待ち処理に対応した値にする。
【0094】
大当り表示処理(ステップS805):変動時間の終了後、確変大当り表示又は通常大当り表示の制御を行う。表示期間が終了すると、表示制御プロセスフラグの値を大当り遊技中処理に対応した値にする。
【0095】
大当り遊技中処理(ステップS806):大当り遊技中の制御を行う。例えば、大入賞口開放前表示や大入賞口開放時表示の演出制御コマンドを受信したら、ラウンド数の表示制御等を行う。大当り遊技中の制御を終えると、表示制御プロセスフラグの値を変動パターンコマンド受信待ち処理に対応した値にする。
【0096】
図11は、変動パターンテーブル毎に設定されているプロセスデータの一構成例を示す説明図である。プロセスデータは、プロセスタイマ設定値と演出制御実行テーブルの組合せが複数集まったデータで構成されている。各演出制御実行テーブルには、それぞれ、可変表示演出9等の表示制御の変動パターンを構成する各変動態様が記載されている表示制御実行データと、ランプ・LED等の表示制御の変動パターンを構成する各変動態様が記載されているランプ制御実行データと、スピーカ27等の音声出力制御の変動パターンを構成する各変動態様が記載されている音制御実行データとが含まれている。また、プロセスタイマ設定値には、その変動態様での変動時間が設定されている。演出制御用CPU101は、プロセスデータを参照し、プロセスタイマ設定値に設定されている時間だけ演出制御実行テーブルに設定されている変動態様で図柄を変動表示させたり、発光体を点灯/消灯させたり、スピーカ27から音声出力させたりする制御を行う。
【0097】
図11に示すプロセスデータは、演出制御基板100におけるROMに格納されており、全図柄変動開始処理(ステップS802)にて、使用テーブルとして選択された変動パターンテーブルに設定されているプロセスデータに基づく可変表示装置6、ランプ・LED24及びスピーカ20L,20Rの制御が開始され、図柄変動中処理(ステップS803)にて、制御実行データに応じた制御が順次実行される。なお、プロセスデータは、各変動パターンのそれぞれに応じて用意されている。
【0098】
図12は、遊技演出で使用される動画像データのデータ構造の一例を示す説明図である。この動画像データは、本例では、演出制御基板100が備えるROMに格納されている。遊技演出で使用される動画像データは、本例では、MPEG2と呼ばれる符号化技術によりデータ圧縮された状態で演出制御基板100が備えるCGROM83に格納されている。
【0099】
本例では、動画像データに基づく動画像演出が複数種類予め用意されている。すなわち、複数種類の動画像データが予め用意されてCGROM83に格納されている。なお、この例では、大当り遊技演出時に使用される動画像データ、リーチ演出時に使用される動画像データなど、使用される演出毎に区別されてCGROM83に格納されている。そして、例えば動画像演出を実行するときに、例えば乱数などを利用して使用する動画像データが選択され、選択された動画像データに基づく動画像演出が実行される。
【0100】
図12に示すように、動画像データは、シーケンスと呼ばれるストリームデータによって構成される。シーケンスは、画像の大きさを示す情報などのシーケンス全体に関連する情報が含まれているシーケンスヘッダで始まり、シーケンスエンドで終了する。このシーケンスは、例えば、動画像による1単位の遊技演出を実現するためのビデオプログラム全体の符号化データによって構成されている。すなわち、本例では、動画像による遊技演出の種類毎に予めシーケンスが用意され、動画像による遊技演出を実行するための動画像データは、1つのシーケンスによって構成されている。シーケンスは、MPEG2機能拡張情報と、少なくとも1つのGOP(Group Of Picture)とを含む。シーケンスに含まれているMPEG2機能拡張情報は、MPEG2に準拠した符号化データであることを示す情報などの各種の情報を含む。
【0101】
各GOPは、GOPヘッダと、Iピクチャ、Pピクチャ、Bピクチャのうち少なくとも1つのピクチャとを含む。ここで、Iピクチャは、フレーム内符号化によって符号化されているピクチャである。Pピクチャは、過去のフレームのみを用いて前方向の動き補償予測を行うピクチャである。Bピクチャは、過去及び未来の両方のフレームを用いて双方向の動き補償予測を行うピクチャである。
【0102】
各ピクチャは、ピクチャヘッダと、MPEG2機能拡張情報と、少なくとも1つのスライスとを含む。ピクチャヘッダには、Iピクチャ、Pピクチャ、Bピクチャのいずれかを識別するための情報や、各ピクチャの表示順序を指定する情報などが含まれている。ピクチャに含まれているMPEG2機能拡張情報には、例えば、フレーム構造やフィールド構造を設定するための情報などが含まれる。スライスは、分割フレーム内符号化を実現するためにピクチャが細分化された1つの単位を意味する。
【0103】
各スライスは、スライス情報と、少なくとも1つのマクロブロックとを含む。スライス情報は、スライス内で使用される符号化情報が含まれている。符号化情報には、例えば、量子化特性を示す情報が該当する。
【0104】
各マクロブロックは、マクロブロック情報と、複数のブロックとを含む。1つのマクロブロックには、例えば、4個の輝度信号ブロックと、2個(Cr信号、Cb信号各1個)の色差信号ブロックとが含まれる。マクロブロック情報には、マクロブロック単位で符号化制御を行うための情報などが含まれる。各ブロックは、輝度信号、Cr信号、Cb信号のいずれかのDCT(離散コサイン変換)係数データ(離散コサイン変換によって得られる係数群)から構成される。なお、各ブロックは、EOB(End Of  Block)コードで終了する。
【0105】
なお、本例では、各シーケンスは、再生時に表示されるキャラクタなどの表示物体が速い動きをする部分には、キーフレームとして用いられるIピクチャを多く用いるようにしている。また、各シーケンスは、再生時に表示されるキャラクタなどの表示物体の動きが少ない部分には、PピクチャやBピクチャを多く用いた構成とされている。特に表示物体の動きがない部分や、動きが特に少ない部分には、最もデータ量の少ないBピクチャを多く用いた構成とされている。
【0106】
上記のように、表示物体の動きが速い部分にはキーフレームデータ(例えばIピクチャデータ)を多く用いて動画像データを構成しているので、動きの速い物体が表示される動画像によって演出を行う場合であっても、情報の欠落がほとんどない良好な画像品質の画像を復号化によって得ることができ、そのような良質の画像によって動画像演出を行うことができる。よって、表示物体の動きが速い部分の画像品質を向上させることができる。
【0107】
また、上記のように、表示物体の動きが遅い部分には前方向予測符号化フレームデータ(例えばPピクチャデータ)や双方向予測符号化フレームデータ(例えばBピクチャデータ)を多く用いて動画像データを構成しているので、画像品質を劣化させることなく、動画像データのデータ量を削減することができる。このような効果は、データ圧縮率が向上するので、動画像データによって再生される動画像における表示物体の動きが速い部分が少ないほど著しい。
【0108】
つまり、上記のように、表示物体の動きが速い部分にはキーフレームデータを多く用い、表示物体の動きが遅い部分には前方向予測符号化フレームデータや双方向予測符号化フレームデータを多く用いるようにして動画像データを作成しているので、全体としての画像品質を向上させることができるとともに、動画像データのデータ総量を低減させることができるようになる。
【0109】
次に、演出制御基板100に搭載されているGCL81の機能について説明する。GCL81は、演出制御用CPU101からの指示に従って、動画像データを用いた動画像による各種の演出を実行する機能を有している。
【0110】
図13は、GCL81が実行する復号化処理の例を示すフローチャートである。復号化処理において、GCL81は、まず、後述するフェードインフラグ、フェードアウトフラグ及び静止表示フラグの全てがオフであれば(ステップS201のN)、CGROM86に格納されている演出に使用する動画像データ(シーケンス)からピクチャを示すピクチャデータを読み出す(ステップS202)。ピクチャデータは、動画像データにて配列されている順番に従って再生することができるような順番で読み出される。なお、再生される順番と復号化される順番は必ずしも一致しない。例えば、Bピクチャは、その後に配されているIピクチャ又はPピクチャを復号化したあとに復号化される。
【0111】
読み出したピクチャデータが静止表示対象ピクチャであれば(ステップS203のY)、GCL81は、静止表示フラグをオン状態とし(ステップS204)、静止表示時間タイマをスタートさせる(ステップS205)。
【0112】
静止表示対象ピクチャとは、所定期間継続して静止表示させるピクチャとして予め定められているピクチャを意味する。静止表示対象ピクチャであるか否かを示す情報は、各ピクチャのMPEG2機能拡張情報に格納されている。従って、GCL81は、各ピクチャのMPEG2機能拡張情報を確認することで、読み出したピクチャが静止表示対象ピクチャであるか否かを判定することができる。
【0113】
静止表示フラグは、例えば、演出制御基板100が備えるRAM103の所定の領域に設けられており、静止表示処理(図13及び図15に示す処理において、静止表示フラグがオン状態とされてからオフ状態とされるまでの一連の処理)の実行中であるか否かの判定に用いられるフラグである。
【0114】
静止表示時間タイマは、静止表示対象ピクチャによる静止表示処理を実行する期間(例えば3秒、5秒などの期間)を計測するためのタイマである。例えば、静止表示時間タイマは、カウンタを含む演出制御用CPU301によって構成される。具体的には、演出制御用CPU301は、所定期間(例えば2ms)毎にカウントアップしていくカウンタのカウント値を監視し、計測開始後に所定回数(例えば3秒を計測する場合には1500回)カウントされたことを確認したときに計測時間が経過したものと判定することで、静止表示時間を計測する。
【0115】
ステップS202にて読み出したピクチャデータがフェードイン対象ピクチャであれば(ステップS206のY)、GCL81は、フェードインフラグをオン状態とし(ステップS207)、動画圧縮・伸張部89を制御して読み出したピクチャデータを復号化して(ステップS208)、復号化したピクチャデータをフレーム単位で所定のフェードイン対象静止画像格納エリアに格納する(ステップS209)。なお、復号化を行うときには、動画圧縮・伸張部89は、対象となるピクチャデータがIピクチャデータであるか、Pピクチャデータであるか、Bピクチャデータであるかに応じた復号化処理を実行する。
【0116】
フェードイン対象ピクチャとは、フェードイン処理に用いるピクチャとして予め定められているピクチャを意味する。フェードイン対象ピクチャであるか否かを示す情報は、各ピクチャのMPEG2機能拡張情報に格納されている。従って、GCL81は、各ピクチャのMPEG2機能拡張情報を確認することで、読み出したピクチャがフェードイン対象ピクチャであるか否かを判定することができる。
【0117】
フェードインフラグは、例えば、演出制御基板100が備えるRAM103の所定の領域に設けられており、フェードイン処理を実行するか否かの判定に用いられるフラグである。
【0118】
フェードイン対象静止画像格納エリアは、フェードイン対象静止画像であるフェードイン対象ピクチャをフレーム単位で格納するために、例えばSDRAM84の所定の領域に設けられている。
【0119】
ステップS202にて読み出したピクチャデータがフェードアウト対象ピクチャであれば(ステップS210のY)、GCL81は、フェードアウトフラグをオン状態とし(ステップS211)、動画圧縮・伸張部89を制御して読み出したピクチャデータを復号化して(ステップS212)、復号化したピクチャデータをフレーム単位で所定のフェードアウト対象静止画像格納エリアに格納する(ステップS213)。
【0120】
フェードアウト対象ピクチャとは、フェードアウト処理に用いるピクチャとして予め定められているピクチャを意味する。フェードアウト対象ピクチャであるか否かを示す情報は、各ピクチャのMPEG2機能拡張情報に格納されている。従って、GCL81は、各ピクチャのMPEG2機能拡張情報を確認することで、読み出したピクチャがフェードアウト対象ピクチャであるか否かを判定することができる。
【0121】
フェードアウトフラグは、例えば、演出制御基板100が備えるRAM103の所定の領域に設けられており、フェードアウト処理を実行するか否かの判定に用いられるフラグである。
【0122】
フェードアウト対象静止画像格納エリアは、フェードアウト対象静止画像であるフェードアウト対象ピクチャをフレーム単位で格納するために、例えばSDRAM84の所定の領域に設けられている。
【0123】
ステップS202にて読み出したピクチャデータが合成表示対象ピクチャであれば(ステップS214のY)、GCL81は、連続復号化処理を実行する(ステップS215)。連続復号化処理については、後で詳しく説明する。
【0124】
ステップS202にて読み出したピクチャデータが、静止表示対象ピクチャ、フェードイン対象ピクチャ、フェードアウト対象ピクチャ、及び合成表示対象ピクチャの何れでもなければ(ステップS214のN)、GCL81は、動画圧縮・伸張部89を制御して読み出したピクチャデータを復号化し(ステップS216)、展開領域指定ポインタが指す画像メモリの展開領域に、復号化したピクチャデータをフレーム単位で展開する(ステップS217)。そして、GCL81は、展開領域指定ポインタが次に使用される展開領域を指すようにしておくために、展開領域指定ポインタの値を更新する(ステップS218)。
【0125】
なお、画像メモリは、再生に用いる画像データをフレーム単位で展開するために、例えばSDRAM84の所定の領域に設けられている。画像メモリには、フレーム単位で画像データを展開するための展開領域が複数設けられている。展開領域指定ポインタは、例えばSDRAM84の所定の領域に設けられ、復号化した画像データを展開する展開領域を指すポインタである。例えば、画像メモリに展開領域0から展開領域11までの12個の展開領域が設けられている場合には、展開領域指定ポインタは、0〜11までの範囲の値をとる。そして、ステップS218にて、展開領域指定ポインタの値が、復号化された画像データが再生される順番で画像メモリに展開されるような値に更新される。そして、GCL81によって、次回の復号化処理のステップS217にて、展開領域指定ポインタの値と同一の値が設定されている展開領域が画像データを展開する領域として選択される。
【0126】
具体的には、例えばIピクチャ、B1ピクチャ、B2ピクチャ、Pピクチャの順番で再生される場合には、Iピクチャ、Pピクチャ、B1ピクチャ、B2ピクチャの順番で復号化されることになる。この場合、Iピクチャの画像データを画像メモリに展開したあと展開領域指定ポインタの値を3加算し、加算後の展開領域指定ポインタが指す展開領域にPピクチャの画像データを展開したあと展開領域指定ポインタの値を2減算し、減算後の展開領域指定ポインタが指す展開領域にB1ピクチャの画像データを展開したあと展開領域指定ポインタの値を1加算し、加算後の展開領域指定ポインタが指す展開領域にB2ピクチャの画像データを展開したあと展開領域指定ポインタの値を次に復号化されるピクチャに応じて更新するようにすればよい。なお、展開領域指定ポインタの値が12となった場合には0に戻される。
【0127】
図14は、GCL81が実行する連続復号化処理(ステップS215)の例を示すフローチャートである。連続復号化処理では、1つの合成画像を生成するための複数のピクチャを連続して復号化する処理が実行される。連続復号化処理において、GCL81は、先ず、合成表示実行残数を1加算し(ステップS221)、本例では処理数を3に設定する(ステップS222)。なお、合成表示実行残数や処理数は、本例では、演出制御基板100が備えるRAM103の所定の領域に記憶される。合成表示実行残数は、合成表示を行うための復号化処理がなされているが、合成表示が未だ完了していない画像の残数を示している。また、処理数は、本例では、合成画像の生成に用いられる画像の数に一致している。
【0128】
次いで、GCL81は、動画圧縮・伸張部89を制御して読み出したピクチャデータを復号化して(ステップS223)、読み出したピクチャについての奥行表示位置情報を指定し(ステップS224)、復号化したピクチャデータをフレーム単位で所定の合成対象画像保存領域に格納する(ステップS225)。
【0129】
合成表示対象ピクチャとは、合成画像を生成するための合成対象画像に予め定められているピクチャを意味する。合成表示対象ピクチャであるか否かを示す情報は、各ピクチャのMPEG2機能拡張情報に格納されている。従って、GCL81は、各ピクチャのMPEG2機能拡張情報を確認することで、読み出したピクチャが合成表示対象ピクチャであるか否かを判定することができる。なお、本例では、互いに合成される複数のピクチャのうち、最初に読み出される合成表示対象ピクチャのMPEG2機能拡張情報にだけ、合成表示対象ピクチャであることを示す情報と、合成に用いられるピクチャの数を示す情報が格納される。そして、ステップS222にて設定される処理数は、MPEG2機能拡張情報に格納されている合成に用いられるピクチャの数を示す情報に応じて設定される。
【0130】
奥行表示位置情報は、LCD6に表示される際の奥行方向の座標を示す情報であり、合成に用いられる各ピクチャのMPEG2機能拡張情報に格納されている。従って、GCL81は、各ピクチャのMPEG2機能拡張情報を確認することで、読み出したピクチャについての奥行表示位置情報を取得することができる。ステップS224及びステップS225の処理では、復号化されたピクチャデータと、そのピクチャデータについての奥行表示位置情報とが、所定の合成対象画像保存領域に格納される。なお、奥行方向の座標とは、LCD6の表示画面の前後方向(前面側から背面側に向かう方向)に座標軸をとった場合におけるその座標軸上の値を意味し、例えば背面側に行くほど値が大きくなるように設定される。よって、合成画像が生成されるときには、より小さい値の奥行表示位置情報を有する画像が前面側に合成され、より大きい値の奥行表示位置情報を有する画像が背面側に合成される。また、奥行表示位置情報の値が大きくて背面側に合成される画像よりも奥行表示位置情報の値が小さくて前面側に合成される画像の方が優位であると言えることから、より小さい値の奥行表示位置情報を有する画像を「優先度が高い画像」ということがあり、より大きい値の奥行表示位置情報を有する画像を「優先度の低い画像」ということがある。
【0131】
本例では、合成に用いられるピクチャ数分の合成対象画像保存領域を有する合成対象画像保存領域群が設けられている。合成対象画像保存領域群は、例えばSDRAM84の所定の領域に所定数用意されている。本例では、各合成対象画像保存領域群に、処理数に対応する3つの合成対象画像保存領域が含まれている。ステップS225では、画像群保存領域指定ポインタが指す合成対象画像保存領域群中の現在の処理数に対応する合成対象画像保存領域に、復号化されたピクチャデータ等が格納される。
【0132】
画像群保存領域指定ポインタは、例えばSDRAM84の所定の領域に設けられ、1つの合成画像の生成に用いられる一群の合成対象画像データを格納するための合成対象画像保存領域群を指すポインタである。例えば、合成対象画像保存領域群が保存領域群0から保存領域群11までの12個設けられている場合には、画像群保存領域指定ポインタは、0〜11までの範囲の値をとる。そして、後述するステップS229にて、画像群保存領域指定ポインタの値が、合成に用いられる次の一群のピクチャデータを格納する合成対象画像保存領域群を指す値に更新される。そして、GCL81によって、次回の連続復号化処理にて、更新後の画像群保存領域指定ポインタの値と同一の値が設定されている合成対象画像保存領域群が、一群のピクチャデータを格納する領域として選択される。
【0133】
ステップS225の処理を終えると、GCL81は、処理数を1減算し(ステップS226)、処理数が0でなければ(ステップS227のN)、使用する動画像データから次のピクチャデータを読み出す(ステップS228)。そして、ステップS223〜ステップS227の処理を再度実行する。本例では、ステップS223〜ステップS227の処理が3回繰り返し実行され、1つの合成画像を生成するための3つのピクチャデータが読み出されて、復号化された合成対象画像データと奥行表示位置情報とが、合成対象画像保存領域群中の各合成対象画像保存領域にそれぞれ格納される。
【0134】
ステップS227の確認処理にて、処理数が0となっていれば(ステップS227のY)、GCL81は、次回の連続復号化処理で使用される合成対象画像保存領域群を指す値に変更するために、画像群保存領域指定ポインタの値を更新する(ステップS229)。
【0135】
上記のようにして、1枚の合成画像を生成するために用いられる複数の合成対象画像が、それぞれの奥行表示位置情報とともに、合成対象画像保存領域群中の各合成対象画像保存領域に格納される。
【0136】
図15は、GCL81が実行する動画再生処理の例を示すフローチャートである。動画再生処理において、GCL81は、フェードインフラグがオン状態であれば(ステップS231のY)、後述するフェードイン処理を実行する(ステップS232)。また、フェードアウトフラグがオン状態であれば(ステップS233のY)、後述するフェードアウト処理を実行する(ステップS234)。
【0137】
フェードインフラグ及びフェードアウトフラグがともにオン状態でなければ(ステップS233のN)、GCL81は、合成表示実行残数の値を確認し、合成表示実行残数が0でなければ(ステップS235のY)、合成画像表示処理を実行する(ステップS236)。合成画像表示処理については、後で詳しく説明する。
【0138】
合成表示実行残数が0であれば(ステップS235のN)、GCL81は、再生領域指定ポインタが指す画像メモリの展開領域に展開されているフレームデータを用いてLCD6に画像を表示する(ステップS237)。
【0139】
次いで、GCL81は、静止表示フラグがオン状態であれば(ステップS238のY)、静止表示対象ピクチャを用いた静止表示処理中であるので、静止表示時間タイマがタイムアウトしているか否かを確認する(ステップS239)。静止表示時間タイマがタイムアウトしていた場合には、GCL81は、静止表示フラグをオフ状態とし(ステップS240)、再生領域指定ポインタが次に使用される展開領域を指すようにしておくために、再生領域指定ポインタの値を更新する(ステップS241)。なお、静止表示時間タイマがタイムアウトしていなければ、静止表示処理を継続して実行するために、再生領域指定ポインタの値は更新しない。
【0140】
再生領域指定ポインタは、例えばSDRAM84の所定の領域に設けられ、動画再生を行うために次に用いられる画像データが展開されている展開領域を指すポインタである。例えば、画像メモリに展開領域0から展開領域11までの12個の展開領域が設けられている場合には、再生領域指定ポインタは、0〜11までの範囲の値をとり、ステップS241にて再生領域指定ポインタの値が1加算されるように構成される。なお、再生領域指定ポインタの値が12となった場合には0に戻される。そして、GCL81によって、ステップS237にて、再生領域指定ポインタの値と同一の値が設定されている展開領域が、動画再生のために次に使用する画像データが格納されている領域として選択される。
【0141】
なお、上述した動画再生処理は、例えば、上述した復号化処理のあとに続けて実行される。ただし、画像データが復号化される順番と再生される順番が異なるので、動画再生処理よりも復号化処理が少なくとも数回分先行して実行される必要がある。この復号化処理及び動画再生処理は、動画像による遊技演出が行われるときに呼び出されて繰り返し実行される。復号化処理及び動画再生処理が繰り返し実行されることで、LCD6の画面上に、圧縮されている動画像データに基づく動画像が表示され、遊技演出が実行される。
【0142】
次に、演出制御手段による合成画像表示処理について説明する。図16は、GCL81が実行する合成画像表示処理(ステップS236)の例を示すフローチャートである。合成画像表示処理において、GCL81は、先ず、処理数を設定する(ステップS251)。この例では、処理数として、上述したステップS222で設定される処理数と同数の値が設定される。従って、例えば、所定の合成対象画像保存領域にステップS222で設定された処理数を格納しておき、後述する半透明化処理に用いられるピクチャデータが格納されている合成対象画像保存領域を参照して処理数を設定するようにすればよい。
【0143】
処理数を設定すると、GCL81は、後述する半透明化処理を実行し(ステップS252)、処理数を1減算する(ステップS253)。そして、処理数が0になるまで、半透明化処理を繰り返し実行する(ステップS252〜ステップS254)。処理数が0になると、GCL81は、半透明化処理によって生成され合成実行画像格納領域に格納されている複数の合成実行画像データを合成した合成画像データを生成する(ステップS255)。なお、合成する際には、各合成実行画像データにおける奥行表示位置情報に基づいて、各合成実行画像を前面側とするか背面側とするかを決定する。そして、GCL81は、生成した合成画像データにもとづく合成画像をLCD6に表示するとともに(ステップS256)、合成表示実行残数を1減算し(ステップS257)、後述する合成対象画像群指定ポインタの値を更新する(ステップS258)。
【0144】
次に、演出制御手段によるフェードイン処理について説明する。図17は、GCL81が実行するフェードイン処理の例を示すフローチャートである。フェードイン処理は、例えば、静止画像による演出と動画像による演出とが切り替わるときに実行される。ここでは、フェードイン処理として、静止画像による演出が終了して動画像による演出に切り替わる際に、フェードイン対象静止画像の透明度(透過度)を徐々に低下させていくようにして、フェードイン対象静止画像が徐々にはっきりと表れるようにするための処理が実行される。なお、フェードイン対象静止画像には、例えば、演出に用いられる動画像のうち最初に表示される画像とされる。この場合、シーケンスにおいて最初に再生されるピクチャがフェードイン対象静止画像とされる。
【0145】
フェードイン処理において、GCL81は、フェードイン対象静止画像格納エリアに格納されているフェードイン対象静止画像の画像データを読み出すとともに、中間画像として予め定められている画像データを読み出す(ステップS261)。中間画像には、例えば、青や白などの単一色の背景画像が用いられる。
【0146】
次いで、GCL81は、透明化演算処理を実行することによってフェードイン画像を作成する(ステップS262)。透明化演算処理として、本例では、図18に示すような演算を行う。透明化演算処理では、フェードイン対象静止画像における各ピクセルデータ(各ピクセルの表示色を特定するためのR,G,Bデータ)のそれぞれについて、表示位置が同一となる中間画像における各ピクセルデータを用いた演算処理が行われる。具体的には、透明化演算処理は、図18に示すように、該当する中間画像のピクセルデータが示す値とフェードイン対象静止画像のピクセルデータが示す値との差を99で割り、その値とNとを乗算した値にフェードイン対象静止画像のピクセルデータが示す値を加算する。透明化演算処理によって得られた各ピクセルデータは、フェードイン画像のピクセルデータとして用いられる。例えば、ある表示位置における中間画像のピクセルデータが(R,G,B=240,160,160)で、同じ位置のフェードイン対象静止画像のピクセルデータが(R,G,B=180,130,130)であり、N=33であった場合には、その位置のフェードイン画像のピクセルデータは(R,G,B=200,140,140)となる。なお、演算結果が整数にならない場合には、小数点以下を切り捨てるなどの処理を行うことによって整数になるようにすればよい。
【0147】
なお、図18に示す「N」は、フェードイン画像の透明度を特定するための値であり、本例では100段階に透明度を異ならせることができるように、0から99までの整数をとるようにしている。この例では、「N」が「0」であるときにフェードイン画像がフェードイン対象静止画像と同一となり(すなわち、透明度が0%となる)、「N」が「99」であるときにフェードイン画像が中間画像と同一となる(すなわち、透明度が100%となる)。さらに具体的には、この例では、透明化演算処理に用いる図18に示す数式の「N」を「99」から「0」にかけて順次減算していくと、演算結果により得られるフェードイン画像は、中間画像がフェードイン対象静止画像に徐々に近づいていくようになる。なお、この例では、透明度を100段階にしているが、他の複数段階とするようにしてもよい。その場合、「N」の取り得る値を変更(200段階であれは0から199を取るようにすればよい)するとともに、その値に合わせて図18に示す分母の「99」を変更(200段階であれば「199」に変更すればよい)するようにすればよい。
【0148】
また、図18に示す透明化演算処理に用いられる数式は、フェードイン対象静止画像のピクセルデータが示す値が中間画像のピクセルデータが示す値よりも小さい場合に用いられる式であり、フェードイン対象静止画像のピクセルデータが示す値が中間画像のピクセルデータが示す値よりも大きい場合には、図18に示す数式の「+」を「−」にするとともに、分数で表されている部分の分子の各項を入れ替えた数式を用いるようにすればよい。すなわち、該当するフェードイン対象静止画像のピクセルデータが示す値と中間画像のピクセルデータが示す値との差を99で割り、その値とNとを乗算した値をフェードイン対象静止画像のピクセルデータが示す値から減算するようにすればよい。
【0149】
この例では、フェードイン処理での透明化演算処理を、図18に示した数式等を用いることで行うようにしているが、他の演算処理を行うようにしてもよい。図18に示す数式を用いると、Nの値を小さくしていくに連れて、中間画像から直線的にフェードイン対象静止画像に近づいていくようなフェードイン画像が得られるようになるが、例えば、中間画像から曲線的にフェードイン対象静止画像に近づいていくようなフェードイン画像が得られるような数式を用いるようにしてもよい。
【0150】
透明化演算処理によってフェードイン画像を作成すると、GCL81は、作成したフェードイン画像をLCD6に表示させる処理を実行する(ステップS263)。
【0151】
そして、GCL81は、図18に示す数式のNの値を確認し(ステップS264)、Nの値が0でなければ、次のタイミングで実行されるフェードイン処理によってフェードイン対象静止画像の透明度をさらに低下させるためにNの値を1減算した値に更新する(ステップS265)。一方、Nの値が0となっていれば、全く透明化されていない完全な状態でフェードイン対象静止画像がはっきりと表示された状態となっており、そのフェードイン対象静止画像を徐々に出現させていく一連のフェードイン処理が終了しているので、次回の一連のフェードイン処理を実行するときのために、Nの値を初期値である「99」に更新しておく(ステップS266)。さらに、一連のフェードイン処理が終了したので、フェードインフラグをオフ状態とする(ステップS267)。
【0152】
なお、上述したフェードイン処理は、例えば、演出制御プロセス処理内における図柄変動中処理にてコールされる。フェードイン処理が開始される所定のタイミングで最初にコールされ、その後は、所定期間毎(例えば、10ms毎)に所定回数(例えば、初回を入れて100回)繰り返しコールされる。繰り返しコールされる度に減算されたNの値を用いた透明化演算処理が実行されるので、フェードイン処理が繰り返し実行されることで、フェードイン対象静止画像の透明度が徐々に低下していくフェードイン表示がなされることになる。例えば、可変表示演出中に動画像による演出を開始するときに、フェードイン処理によって、フェードイン対象静止画像とされている動画像における最初の画像が徐々に出現してくるような表示がなされる。そして、最終的に、フェードイン対象静止画像が、透明度の低下していない完全な状態で表示される。その後、フェードイン対象静止画像を最初の画像とする動画像の再生が実行される。なお、繰り返し実行される一連のフェードイン処理を「フェードイン処理」という場合がある。
【0153】
図19は、フェードイン処理が実行されているときにおけるLCD6の表示状態の例を示す説明図である。ここでは、大当り遊技状態中の遊技演出において、フェードイン処理が実行された場合を例に説明する。また、この例では、フェードイン対象静止画像として、動画像演出に用いられる動画像における最初の画像である人物の画像が用いられ、中間画像として、例えば白の単一色の画像が用いられる。
【0154】
フェードイン画像による演出を実行する場合には、静止画像による表示演出が終了したあと、図19(A)に示すようにLCD6に中間画像が表示し、フェードイン処理が開始される。フェードイン処理が開始されると、中間画像から図19(B)に示すようにフェードイン対象静止画像が現れてきて、図19(C)に示すように徐々にはっきりと表示されていくフェードイン画像が表示される。そして、最終的には、図19(D)に示すように、フェードイン画像として、全く透明化されていない完全に不透明化された状態で人物の画像が表示される。なお、図19(A)に示すフェードイン画像は上述した透明化演算処理がN=99で実行されたことにより得られた画像であり、図19(B)は透明化演算処理が例えばN=66で実行されたことにより得られた画像であり、図19(C)は透明化演算処理が例えばN=33で実行されたことにより得られた画像であり、図19(D)は透明化演算処理が例えばN=0で実行されたことにより得られた画像である。
【0155】
図19(D)に示す不透明化された状態で人物の画像が表示されてフェードイン処理が終了すると、本例では、最終的に表示されているフェードイン画像を初期画像とする動画像による演出が開始される。すなわち、例えば、不透明化された状態で表示されている人物が動き出して各種の動作を行うような動画像がLCD6に表示される。
【0156】
上記のように、動画像データに含まれている1フレーム分の画像データを用いてフェードイン表示を行う構成としたことで、動画像データのデータ量を増大させることなく、フェードイン表示を行うことができる。よって、動画像データの格納領域の必要容量を抑えることができる。また、動画像データのデータ量が増大してしまうようなことがないため、フェードイン表示の実行期間を短くする必要がなくなり、演出期間が十分に確保されているフェードイン表示を行うことができる。よって、フェードイン表示を円滑に行うことができる。
【0157】
また、上述したように、フェードイン処理にて、所定の中間画像を介して段階的に画像を出現させるように構成されているので、徐々に画像が現れてくる様子を容易に視認することができるようなフェードイン表示を行うことができる。
【0158】
次に、演出制御手段によるフェードアウト処理について説明する。図20は、GCL81が実行するフェードアウト処理の例を示すフローチャートである。フェードアウト処理は、例えば、静止画像による演出と動画像による演出とが切り替わるときに実行される。ここでは、フェードアウト処理として、動画像による演出が終了して静止画像による演出に切り替わる際に、フェードアウト対象静止画像の透明度を徐々に高めていくようにして、フェードアウト対象静止画像が徐々に消失していくようにするための処理が実行される。なお、フェードアウト対象静止画像には、例えば、演出に用いられる動画像のうち最後に表示される画像とされる。この場合、シーケンスにおいて最後に再生されるピクチャがフェードアウト対象静止画像とされる。
【0159】
フェードアウト処理において、GCL81は、フェードアウト対象静止画像格納エリアに格納されているフェードアウト対象静止画像の画像データを読み出すとともに、中間画像として予め定められている画像データを読み出す(ステップS271)。中間画像には、例えば、青や白などの単一色の背景画像が用いられる。
【0160】
次いで、GCL81は、透明化演算処理を実行することによってフェードアウト画像を作成する(ステップS272)。透明化演算処理として、本例では、図21に示すような演算を行う。透明化演算処理では、フェードアウト対象静止画像における各ピクセルデータ(各ピクセルの表示色を特定するためのR,G,Bデータ)のそれぞれについて、表示位置が同一となる中間画像における各ピクセルデータを用いた演算処理が行われる。具体的には、透明化演算処理は、図21に示すように、該当する中間画像のピクセルデータが示す値とフェードアウト対象静止画像のピクセルデータが示す値との差を99で割り、その値とMとを乗算した値にフェードアウト対象静止画像のピクセルデータが示す値を加算する。透明化演算処理によって得られた各ピクセルデータは、フェードアウト画像のピクセルデータとして用いられる。例えば、ある表示位置における中間画像のピクセルデータが(R,G,B=240,160,160)で、同じ位置のフェードアウト対象静止画像のピクセルデータが(R,G,B=180,130,130)であり、M=66であった場合には、その位置のフェードアウト画像のピクセルデータは(R,G,B=220,150,150)となる。なお、演算結果が整数にならない場合には、小数点以下を切り捨てるなどの処理を行うことによって整数になるようにすればよい。
【0161】
なお、図21に示す「M」は、フェードアウト画像の透明度を特定するための値であり、本例では100段階に透明度を異ならせることができるように、0から99までの整数をとるようにしている。この例では、「M」が「0」であるときにフェードアウト画像がフェードアウト対象静止画像と同一となり(すなわち、透明度が0%となる)、「M」が「99」であるときにフェードアウト画像が中間画像と同一となる(すなわち、透明度が100%となる)。さらに具体的には、この例では、透明化演算処理に用いる図21に示す数式の「M」を「0」から「99」にかけて順次加算していくと、演算結果により得られるフェードアウト画像は、フェードアウト対象静止画像が中間画像に徐々に近づいていくようになる。なお、この例では、透明度を100段階にしているが、他の複数段階とするようにしてもよい。その場合、「M」の取り得る値を変更(200段階であれは0から199を取るようにすればよい)するとともに、その値に合わせて図21に示す分母の「99」を変更(200段階であれば「199」に変更すればよい)するようにすればよい。
【0162】
また、図21に示す透明化演算処理に用いられる数式は、フェードアウト対象静止画像のピクセルデータが示す値が中間画像のピクセルデータが示す値よりも小さい場合に用いられる式であり、フェードアウト対象静止画像のピクセルデータが示す値が中間画像のピクセルデータが示す値よりも大きい場合には、図21に示す数式の「+」を「−」にするとともに、分数で表されている部分の分子の各項を入れ替えた数式を用いるようにすればよい。すなわち、該当するフェードアウト対象静止画像のピクセルデータが示す値と中間画像のピクセルデータが示す値との差を99で割り、その値とMとを乗算した値をフェードアウト対象静止画像のピクセルデータが示す値から減算するようにすればよい。
【0163】
この例では、フェードアウト処理での透明化演算処理を、図21に示した数式等を用いることで行うようにしているが、他の演算処理を行うようにしてもよい。図21に示す数式を用いると、Mの値を大きくしていくに連れて、フェードアウト対象静止画像から直線的に中間画像に近づいていくようなフェードアウト画像が得られるようになるが、例えば、フェードアウト対象静止画像から曲線的に中間画像に近づいていくようなフェードアウト画像が得られるような数式を用いるようにしてもよい。
【0164】
透明化演算処理によってフェードアウト画像を作成すると、GCL81は、作成したフェードアウト画像をLCD6に表示させる処理を実行する(ステップS273)。
【0165】
そして、GCL81は、図21に示す数式のMの値を確認し(ステップS274)、Mの値が99でなければ、次のタイミングで実行されるフェードアウト処理によってフェードアウト対象静止画像の透明度をさらに高めるためにMの値を1加算した値に更新する(ステップS275)。一方、Mの値が99となっていれば、完全に透明化されてフェードアウト対象静止画像による画像が消失した状態となっており、そのフェードアウト対象静止画像を徐々に消失させていく一連のフェードアウト処理が終了しているので、次回の一連のフェードアウト処理を実行するときのために、Mの値を初期値である「0」に更新しておく(ステップS276)。さらに、一連のフェードアウト処理が終了したので、フェードアウトフラグをオフ状態とする(ステップS277)。
【0166】
なお、上述したフェードアウト処理は、例えば、演出制御プロセス処理内における図柄変動中処理にてコールされる。フェードアウト処理が開始される所定のタイミングで最初にコールされ、その後は、所定期間毎(例えば、10ms毎)に所定回数(例えば、初回を入れて100回)繰り返しコールされる。繰り返しコールされる度に加算されたMの値を用いた透明化演算処理が実行されるので、フェードアウト処理が繰り返し実行されることで、フェードアウト対象静止画像の透明度が徐々に高められていくフェードアウト表示がなされることになる。例えば、可変表示演出中に動画像による演出が実行され、その動画像による演出が終了するときに、フェードアウト処理によって、フェードアウト対象静止画像とされている動画像における最後の画像が徐々に消失しているような表示がなされる。そして、最終的に、フェードアウト対象静止画像が完全に透明化され、中間画像が表示された状態となる。すると、動画像による遊技演出が終了し、例えば、静止画像による演出が開始される。なお、繰り返し実行される一連のフェードアウト処理を「フェードアウト処理」という場合がある。
【0167】
図22は、フェードアウト処理が実行されているときにおけるLCD6の表示状態の例を示す説明図である。ここでは、大当り遊技状態中の遊技演出において、フェードアウト処理が実行された場合を例に説明する。また、この例では、フェードアウト対象静止画像として、動画像演出に用いられる動画像における最後の画像である人物の画像が用いられ、中間画像として、例えば白の単一色の画像が用いられる。
【0168】
フェードアウト画像による演出を実行する場合には、図22(A)に示すように、再生されていた動画像の最後の画像が表示されたときに、フェードアウト処理が開始される。フェードアウト処理が開始すると、図22(B)に示すようにフェードアウト対象静止画像が徐々にぼやけてきて、図22(C)に示すように徐々に視認しにくい状態となっていく表示状態とされていくようなフェードアウト画像が表示される。そして、最終的には、図22(D)に示すように、フェードアウト画像として、完全に透明化されて人物の画像が消失した状態の画像であって、中間画像と同一の画像が表示される。なお、図22(A)に示すフェードアウト画像は上述した透明化演算処理がM=0で実行されたことにより得られた画像であり、図22(B)は透明化演算処理が例えばM=33で実行されたことにより得られた画像であり、図22(C)は透明化演算処理が例えばM=66で実行されたことにより得られた画像であり、図22(D)は透明化演算処理が例えばM=99で実行されたことにより得られた画像である。
【0169】
図22(D)に示す中間画像と同一のフェードアウト画像が表示されてフェードアウト処理が終了すると、例えば静止画像による演出など、この後の演出が開始される。なお、フェードアウト処理が終了したことによって演出が終了するようにしてもよい。
【0170】
上記のように、動画像データに含まれている1フレーム分の画像データを用いてフェードアウト表示を行う構成としたことで、動画像データのデータ量を増大させることなく、フェードアウト表示を行うことができる。よって、動画像データの格納領域の必要容量を抑えることができる。また、動画像データのデータ量が増大してしまうようなことがないため、フェードアウト表示の実行期間を短くする必要がなくなり、演出期間が十分に確保されているフェードアウト表示を行うことができる。よって、フェードアウト表示を円滑に行うことができる。
【0171】
また、上述したように、フェードアウト処理にて、段階的に画像を消滅させて所定の中間画像を表示させるように構成されているので、徐々に画像が消失していく様子を容易に視認することができるようなフェードアウト表示を行うことができる。
【0172】
次に、演出制御手段による半透明化処理について説明する。図23は、GCL81が実行する半透明化処理の例を示すフローチャートである。半透明化処理は、動画像データとして予め用意されている合成対象画像から合成画像を生成するための合成実行画像を生成するための処理であり、合成対象画像の透明度(透過度)を奥行表示位置情報に基づいて低下させ、奥行表示位置情報に応じた透明度とした合成実行画像を生成するための処理が実行される。
【0173】
半透明化処理において、GCL81は、合成対象画像群指定ポインタが指す合成対象画像保存領域群の中の、処理数に応じた合成対象画像保存領域から合成対象画像の画像データを読み出すとともに、予め定められている背景画像の画像データを読み出す(ステップS281)。背景画像には、例えば、青や白などの単一色の画像が用いられる。
【0174】
合成対象画像群指定ポインタは、例えばSDRAM84の所定の領域に設けられ、今回の半透明化処理にて用いられる複数の合成対象画像が格納された合成対象画像保存領域群を指すポインタである。例えば、合成対象画像保存領域群0から合成対象画像保存領域群11までの12個の合成対象画像保存領域群が設けられている場合には、合成対象画像群指定ポインタは、0〜11までの範囲の値をとり、上述したステップS258にて合成対象画像群指定ポインタの値が1加算されるように構成される。なお、合成対象画像群指定ポインタの値が12となった場合には0に戻される。
【0175】
次いで、GCL81は、合成対象画像データを読み出した合成対象画像保存領域に格納されている奥行表示位置情報が示す値を、半透明化演算処理で用いられる数式の変数P(図24参照)に設定し(ステップS282)、透明化演算処理を実行することによって合成実行画像を生成する(ステップS283)。次いで、GCL81は、生成した合成実行画像の画像データを、該当する奥行表示位置情報とともに、合成実行画像格納領域に格納する(ステップS284)。合成実行画像格納領域は、1つの合成画像を生成するための複数の合成実行画像がそれぞれ格納される格納領域であり、例えばSDRAM84の所定の領域に設けられている。ステップS284では、合成実行画像格納領域中の処理数に対応した格納領域に、生成した合成実行画像データと奥行表示位置情報とが格納される。
【0176】
半透明化処理にて実行される透明化演算処理として、本例では、図24に示すような演算を行う。この透明化演算処理では、合成対象画像における各ピクセルデータ(各ピクセルの表示色を特定するためのR,G,Bデータ)のそれぞれについて、表示位置が同一となる背景画像における各ピクセルデータを用いた演算処理が行われる。具体的には、透明化演算処理は、図24に示すように、該当する背景画像のピクセルデータが示す値と合成対象画像のピクセルデータが示す値との差を99で割り、その値とPとを乗算した値に合成対象画像のピクセルデータが示す値を加算する。透明化演算処理によって得られた各ピクセルデータは、合成実行画像のピクセルデータとして用いられる。例えば、ある表示位置における背景画像のピクセルデータが(R,G,B=240,160,160)で、同じ位置の合成対象画像のピクセルデータが(R,G,B=180,130,130)であり、P=33であった場合には、その位置の合成実行画像のピクセルデータは(R,G,B=200,140,140)となる。なお、演算結果が整数にならない場合には、小数点以下を切り捨てるなどの処理を行うことによって整数になるようにすればよい。
【0177】
なお、図24に示す「P」は、合成実行画像の透明度を特定するための値であり、本例では100段階に透明度を異ならせることができるように、0から99までの整数をとるようにしている。本例では、合成実行画像の透明度を異ならせることによって、奥行き感が出るようにしている。従って、奥行表示位置情報が示す値によって、「P」の値すなわち合成実行画像の透明度が決定される。例えば、奥行表示位置情報が示す値が20であればPが20に設定されるようにすればよい。この例では、「P」が「0」であるときに合成実行画像が合成対象画像と同一となり(すなわち、透明度が0%となる)、「P」が「99」であるときに合成実行画像が背景画像と同一となる(すなわち、透明度が100%となる)。なお、この例では、透明度を100段階にしているが、他の複数段階とするようにしてもよい。その場合、「P」の取り得る値を変更(200段階であれは0から199を取るようにすればよい)するとともに、その値に合わせて図24に示す分母の「99」を変更(200段階であれば「199」に変更すればよい)するようにすればよい。
【0178】
また、図24に示す透明化演算処理に用いられる数式は、合成対象画像のピクセルデータが示す値が背景画像のピクセルデータが示す値よりも小さい場合に用いられる式であり、合成対象画像のピクセルデータが示す値が背景画像のピクセルデータが示す値よりも大きい場合には、図24に示す数式の「+」を「−」にするとともに、分数で表されている部分の分子の各項を入れ替えた数式を用いるようにすればよい。すなわち、該当する合成対象画像のピクセルデータが示す値と背景画像のピクセルデータが示す値との差を99で割り、その値とPとを乗算した値を合成対象画像のピクセルデータが示す値から減算するようにすればよい。
【0179】
この例では、半透明化処理での透明化演算処理を、図24に示した数式等を用いることで行うようにしているが、他の演算処理を行うようにしてもよい。図24に示す数式を用いると、Pの値を小さくしていくに連れて、背景画像から直線的に合成対象画像に近づいていくような合成実行画像が得られるようになるが、例えば、背景画像から曲線的に合成対象画像に近づいていくような合成実行画像が得られるような数式を用いるようにしてもよい。
【0180】
図25は、合成対象画像と合成実行画像とを示す説明図である。図26は、合成画像が表示されているときのLCD6の表示状態の例を示す説明図である。
【0181】
図25(A)〜図25(C)は、合成画像の生成に用いられる合成対象画像が示されている。例えば、ステップS237〜ステップS239のループ処理にて、奥行表示位置情報が示す値に基づく半透明化処理が繰り返し3回実行されることによって、図25(A)〜図25(C)に示す各合成対象画像から、図25(a)〜図25(c)に示す合成実行画像がそれぞれ生成される。
【0182】
この例では、図25(A)に示す合成対象画像の奥行表示位置情報が示す値が最も小さく(例えば「0」)、図25(C)に示す合成対象画像の奥行表示位置情報が示す値が最も大きい(例えば「50」)。すなわち、図25(A)に示す合成対象画像の優先度が最も高く、図25(C)に示す合成対象画像の優先度が最も低くなるように、各合成対象画像の奥行表示位置情報が設定されている。
【0183】
図25(A)に示す合成対象画像は奥行表示位置情報が示す値が「0」であるので、半透明化処理によって、図25(A)に示す合成対象画像から同一画像の図25(a)に示す合成実行画像が生成される。つまり、図25(a)に示す合成対象画像は、透明度が低下されていない図25(A)に示す合成対象画像と同一の画像となっている。
【0184】
また、半透明化処理によって、図25(B)に示す合成対象画像から透明度が低下された図25(b)に示す合成実行画像が生成され、図25(C)に示す合成対象画像から透明度がさらに低下された図25(c)に示す合成実行画像が生成される。
【0185】
そして、図25(a)〜図25(c)に示す各合成実行画像が、奥行表示位置情報が示す値に応じた優先度に基づいて合成されることによって、図26(A)に示す合成画像が生成される。この優先度は、奥行表示位置情報が示す値が小さいほど高く、奥行表示位置情報が示す値が大きいほど低い。すなわち、奥行表示位置情報が示す値は、LCD6の表示画面における奥行方向の座標軸を示す値とされており、最も手前の表示位置とするときに「0」とされ、奥側に行けば行くほど大きい値をとるように設定される。
【0186】
上記のような複数回の半透明化処理を繰り返し実行する動画再生処理が繰り返し実行されることで、合成画像による動画演出が行われる。具体的には、例えば、動画像演出にて、図26(A)に示す合成画像が表示されたあと、図26(B)や図26(C)に示す合成画像が表示されて、視点が徐々に左側にずれていくような動画像表示が実行される。
【0187】
なお、上記の例では、説明を簡単にするために、3本の木が前後方向に並んでいる合成画像を用いた動画像による遊技演出を行う例について説明したが、どのような動画像による遊技演出であってもよく、例えば、立体的な空間内で花びらや木の葉が散っていくような場面を表示する動画像を用いるようにしても、立体的な空間内で雨が降っているような場面を表示する動画像を用いるようにしてもよい。
【0188】
上記のように、表示制御手段が、奥行表示位置情報にもとづいて動画像データ内の合成対象画像データに半透明化処理を施して合成実行画像データを生成し、生成した合成実行画像データを合成した合成画像データを用いて動画像による遊技演出を実行する構成としたので、優先度の低い前後方向の後側に表示される画像の透過度と、手前側に表示される優先度の高い画像の透過度とを異ならせることで奥行感の高められた映像を表示することができ、立体感がより高められた臨場感のある演出表示を行うことができる。特に、上記の実施の形態では、優先度の低い前後方向の後側に表示される画像の透過度を、手前側に表示される優先度の高い画像の透過度よりも高くして、後側に合成される画像の透明度を高めるようにしているので、奥行感を強調させた現実の空間に近い画像を得ることができる。よって、優先度の低い前後方向の後側に表示される画像の透過度と、手前側に表示される優先度の高い画像の透過度の差を調整することによって、現実の空間を見ているかのようなリアルな映像を表示することができ、さらに立体感が高められた臨場感のある演出表示を行うことができる。
【0189】
本例の遊技機では、上述した復号化処理と動画再生処理とが実行されることで、静止表示対象ピクチャを用いて静止表示処理が実行される。すなわち、動画像データに含まれている予め定められた1フレーム分の画像データにもとづく画像表示が繰り返し実行されることで、同一画像が所定期間継続して表示されることになり、動画像データに含まれている画像データを用いた静止表示が実現される。
【0190】
静止表示対象ピクチャは、例えば、演出に用いられる動画像において、表示画像の変化が所定期間ないような場面を示す画像とされる。静止表示対象ピクチャによる静止表示対象画像が所定期間表示されると、静止表示対象ピクチャのあとに設けられている各ピクチャによって動画表示が実行される。
【0191】
図27は、静止表示対象ピクチャを用いて静止表示処理が実行されるときのLCD6の表示状態の例を示す説明図である。ここでは、大当り遊技状態中の遊技演出において、静止表示対象ピクチャによる静止表示対象画像の静止表示処理が実行された場合を例に説明する。また、この例では、静止表示対象画像として、動画像演出における表示画像の変化が所定期間ない場面を構成する人物の画像が用いられる。
【0192】
静止表示対象画像による演出を実行する場合には、図27(A)及び図27(B)に示すように例えば人物が動作している動画象が表示されたあと、図27(C)に示すように動作していた人物が停止した画像が表示される。なお、図27(C)に示す画像は、静止表示対象画像である。
【0193】
図27(C)に示すように静止表示対象画像がLCD6に一旦表示されると、図27(D)及び図27(E)に示すように、静止表示時間タイマがタイムアウトするまで静止表示対象画像が繰り返し継続して表示される。そして、予め定められている所定期間が経過して静止表示時間タイマがタイムアウトすると、図27(F)及び図27(G)に示すように静止していた人物が動き出して各種の動作を行うような動画像がLCD6に表示され、LCD6にて動画像演出が実行される。
【0194】
上記のように、動画像データに含まれている1フレーム分の画像データを用いて表示画像を所定期間静止させる静止表示を行う構成としたことで、動画像演出中に表示画面の変化がない場面が存在する場合に、そのような場面を表示させるための動画像データを用意しておく必要をなくすことができるので、静止表示を行うための動画像データを削減することができ、動画像データ全体のデータ量を低減させることができる。よって、動画像データの格納領域の必要容量を抑えることができる。
【0195】
また、上述したように、動画像データに含まれている1フレーム分の画像データを用いてフェードイン表示を行う構成として動画像データのデータ量を増大させることなくフェードイン表示を行うようにし、かつ、動画像データに含まれている1フレーム分の画像データを用いて表示画像を所定期間静止させる静止表示を行う構成として静止表示を行うための動画像データを削減するようにしたので、 動画像データ全体のデータ量を大幅に低減させることができる。
【0196】
また、上述したように、動画像データに含まれている1フレーム分の画像データを用いてフェードアウト表示を行う構成として動画像データのデータ量を増大させることなくフェードアウト表示を行うようにし、かつ、動画像データに含まれている1フレーム分の画像データを用いて表示画像を所定期間静止させる静止表示を行う構成として静止表示を行うための動画像データを削減するようにしたので、 動画像データ全体のデータ量を大幅に低減させることができる。
【0197】
なお、上述した実施の形態では、静止画像による演出から動画像による演出に切り替えるときにフェードイン表示を行う構成としていたが、逆に、動画像による演出から静止画像による演出に切り替えるときに、静止画像を徐々に出現させるフェードイン表示を行う構成としてもよい。
【0198】
また、上述した実施の形態では、動画像による演出から静止画像による演出に切り替えるときにフェードアウト表示を行う構成としていたが、逆に、静止画像による演出から動画像による演出に切り替えるときに静止画像を徐々に消失させるフェードアウト表示を行う構成としてもよい。
【0199】
また、上述した実施の形態では、例えば図柄変動中処理等に動画像による演出が実行され、フェードイン処理やフェードアウト処理が実行されるものとして説明していたが、例えば、リーチや大当りとなることを予告報知するための予告演出、大当り遊技状態における大当りラウンド中や大当りラウンド間に実行される大当り演出等の様々な演出において、上述したフェードイン処理やフェードアウト処理によるフェードイン表示やフェードアウト表示を用いた演出を行うようにしてもよい。
【0200】
例えば、スーパーリーチと呼ばれる大当り信頼度の高いリーチへの発展時にフェードイン表示を実行し、フェードイン表示の後に動画像による演出を実行し、その動画像による演出の終了時にフェードアウト表示を行うようにしてもよい。また、例えば、デモンストレーション画像を表示するときにフェードイン表示を実行し、フェードイン表示の後に動画像によるデモンストレーション演出を実行し、その動画像による演出の終了時にフェードアウト表示を行うようにしてもよい。
【0201】
また、上述した実施の形態では、例えば図柄変動中処理等に動画像による演出が実行され、静止表示処理が実行されるものとして説明していたが、例えば、リーチや大当りとなることを予告報知するための予告演出、大当り遊技状態における大当りラウンド中や大当りラウンド間に実行される大当り演出、デモンストレーション演出等の様々な演出において、上述した静止表示処理による静止表示を用いた演出を行うようにしてもよい。
【0202】
また、上述した実施の形態では、動画像演出中に表示画面の変化がない場面が存在する場合に静止表示対象画像による静止表示を実行する構成としていたが、変化は全くないときに限らず、例えば動画像演出中に表示画面の変化がほとんどないような場合に静止表示対象画像による静止表示を実行するようにしてもよい。
【0203】
なお、上述した実施の形態において、動画像による演出に用いる各合成画像を生成するための合成対象画像データを1つの動画像データ内に含ませる構成としていたが、合成する画像枚数と同数の動画像データを用いて合成画像を生成するようにしてもよい。例えば、3枚の画像を合成することで合成画像を生成する場合には、図28に示すように、手前、中間、奥の3種類の動画像データを予め用意しておき、それぞれの動画像データから読み出した1フレーム分の各画像データを1枚の合成画像を生成するための各合成対象画像とし、その各合成対象画像に基づいて生成した各合成実行画像を合成して合成画像を生成し、順次合成した合成画像を用いて動画像による遊技演出を実行するようにすればよい。なお、手前、中間、奥の3種類の動画像データは、それぞれ、例えば合成される順番にピクチャデータが配列されて構成されている。そして、例えば図28に示す各動画像データにおけるそれぞれのピクチャ1を用いて合成画像が生成され、その後、ピクチャ2、ピクチャ3・・・の順番でピクチャデータが読み出されて合成画像が生成されて表示されるようにすることで、動画像による演出が実行されるようにすればよい。
【0204】
具体的には、合成する画像枚数と同数の動画像データを用いて合成画像を生成する構成とする場合には、上述した復号化処理におけるステップS202にて、図28に示すシーケンス(前)のピクチャデータを読み出し、連続復号化処理におけるステップS228にて処理数に応じたシーケンス(中)又はシーケンス(奥)のピクチャデータを読み出すようにすればよい。例えば、処理数が「2」のときにシーケンス(中)のピクチャデータを読み出し、処理数が「1」のときにシーケンス(奥)のピクチャデータを読み出すようにすればよい。そして、動画再生処理では、読み出した各ピクチャデータにもとづいて、合成画像表示処理における上述したステップS252〜ステップS254にて合成実行画像データが生成され、ステップS255にて合成画像データが生成される。上記の復号化処理や動画再生処理を繰り返し実行することで、合成画像による動画像演出が実現される。
【0205】
この場合、複数の動画像データに設定されている各画像データが、それぞれ互いに関連性を持った連携画像データとされていてもよい。すなわち、各動画像データに設定されている各動画像データが、合成されたときに前面、中間および背面側の画像によってそれぞれ何らかの関連性のあるまとまった合成画像となるように構成されていてもよい。例えば、各動画像データにおいて、1枚の合成画像を生成するためそれぞれの合成対象画像が、互いに関連性があるように生成されたデータとされていてもよい。例えば、合成画像による演出において「海辺」の様子を示す動画像を用いる場合、手前側に合成される合成実行画像を生成するための動画像データに「水着を着た人間」の様子を示すデータが設定され、中間に合成される合成実行画像を生成するための動画像データに「海」の様子を示すデータが設定され、奥側に合成される合成実行画像を生成するための動画像データに「砂浜」の様子を示すデータが設定されるようにすればよい。このように構成すれば、手前、中間及び奥側の画像全体によって海辺における立体的な風景画像を実現することができるようになり、異なる複数の動画像データを用いて生成された合成画像による動画像を、全体としてまとまりのある画像とすることができる。
【0206】
図29は、連携画像データが合成されることで生成された合成画像の表示状態の例を示す説明図である。図29には、海辺の様子を示す画像が表されている。図29(A)には、前後方向の手前側に「水着を着た人間」の様子を示す動画像データが合成され、前後方向の中間に「海」の様子を示す動画像データが合成され、前後方向の奥側に「砂浜」の様子を示す動画像データが合成されることによって生成された合成画像が示されている。そして、図29(B),図29(C)に示すような合成画像を順次生成するとともに、生成された合成画像に順次更新されていくことで、例えば、「水着を着た人間」が動作を行ったり、海の波が徐々に手前側に押し寄せてくるような動画像による表示が実現される。この場合、各連携画像データは互いに関連性を有しているので、各連携画像データによって表示される各画像が互いに関連性を持った合成画像による動画像演出が実行される。具体的には、例えば、「水着を着た人間」が「砂浜」の砂を握る様子を示す合成画像による動画像演出や、「水着を着た人間」が「海」に浸かる様子を示す合成画像による動画像演出が実行される。
【0207】
また、複数の動画像データに設定されている各画像データが、それぞれ互いに関連性を持たない独立画像データとされていてもよい。この場合、例えば、各動画像データにおいて、1枚の合成画像を生成するためそれぞれの合成対象画像が、互いに独立性を有するように生成されるようにすればよい。つまり、独立性を有するような合成画像とすることを意図して、意識的に関連性を持たない画像が前後に合成されて立体的に表示されるように各画像データを設けるようにすればよい。具体的には、例えば、合成画像による演出を行う場合に、手前側に合成される合成実行画像を生成するための動画像データに「亀」の様子を示すデータが設定され、中間に合成される合成実行画像を生成するための動画像データに「飛行機」が飛んでいる様子を示すデータが設定され、奥側に合成される合成実行画像を生成するための動画像データに「滝」の様子を示すデータが設定されるなどのようにして、前後に無関係なキャラクタ等を表示するための画像データがそれぞれ設定されるようにすればよい。このように構成すれば、異なる複数の独立性のある動画像データを用いて生成された合成画像による動画像によって遊技演出を行うことができる。
【0208】
図30は、独立画像データが合成されることで生成された合成画像の表示状態の例を示す説明図である。図30には、独立性のある複数の物体が表示されている様子を示す画像が表されている。図30(A)には、前後方向の手前側に「動物」の様子を示す動画像データが合成され、前後方向の中間に「飛行機」の様子を示す動画像データが合成され、前後方向の奥側に「滝の流れ」の様子を示す動画像データが合成されることによって生成された合成画像が示されている。そして、図30(B),図30(C)に示すような合成画像を順次生成するとともに、生成された合成画像に順次更新されていくことで、例えば、「動物」が画面左側から右側に移動する動作を行ったり、「飛行機」が画面右側から左側に飛行していくような動画像による表示が実現される。この場合、各独立画像データは互いに関連性がない表示物体を表示するように構成されているので、各独立画像データによって表示される各画像は、互いに無関係に独立して動作する複数の物体を含む合成画像とされ、そのような合成画像による動画像演出が実行される。具体的には、例えば、「動物」と「飛行機」が衝突したりするような関連性のある表示は全くなされずに、各表示物体が独立して動作する様子を示す合成画像による動画像演出が実行される。
【0209】
また、上記の関連性のある複数の画像を合成した合成画像による遊技演出を実行する場合に、特別図柄の変動表示領域内で行うようにしてもよい。例えば、特別図柄の前面側または背面側で、関連性のある複数の画像を合成した合成画像による遊技演出を実行するようにすればよい。このように構成すれば、奥行方向の奥側に表示される画像の透過度を手前側に表示される画像よりも高くした奥行感の高められた互いに関連性を有する映像を特別図柄の変動表示領域に表示することができ、立体感がより高められた臨場感のある演出表示を行うことができる。
【0210】
また、上記の独立性のある複数の画像を合成した合成画像による遊技演出を実行する場合に、特別図柄の変動表示領域内で行うようにしてもよい。例えば、特別図柄の前面側または背面側で、独立性のある複数の画像を合成した合成画像による遊技演出を実行するようにすればよい。このように構成すれば、奥行方向の奥側に表示される画像の透過度を手前側に表示される画像よりも高くした奥行感の高められた互いに関連性を有しない映像を特別図柄の変動表示領域の背面に表示することができ、立体感がより高められた臨場感のある演出表示を行うことができる。
【0211】
なお、上述した各実施の形態では、手前、中間及び奥側の3枚の画像を合成して合成画像を生成するようにしていたが、他の数の画像を合成して合成画像を生成するようにしてもよい。例えば、奥側に合成される背景画像と手前側に合成されるキャラクタ等を示す画像との2枚の画像を合成することで合成画像を生成し、その合成画像を用いて動画像による演出を行うようにしてもよい。
【0212】
なお、上述した実施の形態では特に言及していないが、上述した合成画像による演出は、例えば、図柄変動中処理中に実行されるようにすればよい。また、リーチや大当りとなることを予告報知するための予告演出、大当り遊技状態における大当りラウンド中や大当りラウンド間に実行される大当り演出等の様々な演出において、上述した合成画像による演出を行うようにしてもよい。
【0213】
また、例えば、スーパーリーチと呼ばれる大当り信頼度の高いリーチへの発展時、デモンストレーション画像を表示するときなどに、上述した合成画像による演出を行うようにしてもよい。
【0214】
また、上述した実施の形態では特に言及していないが、一連の動画像演出において、上述したフェードイン表示を行ったあとの動画像演出の際に1フレーム分の画像データを用いた静止表示処理や合成画像による演出を実行し、それらの演出の終了後にフェードアウト表示を行う構成としてもよい。この場合、合成画像によってフェードイン表示やフェードアウト表示を行ったり、1つの合成画像を用いて静止表示処理を行ったりするようにしてもよい。上記のように構成すれば、動画像データのデータ量を多大なものとすることなく、多彩な演出を行うことができる。
【0215】
また、上述した実施の形態では特に言及していないが、動画像データは、動画撮影装置によって撮影された実写画像を動画再生するためのデータであっても、アニメーションによる動画を再生するためのデータであってもよく、パーソナルコンピュータなどの情報処理装置によって描画されたコンピュータグラフィクス(CG)を用いたCG画像を動画再生するためのデータであってもよい。実写画像による動画像データを用いる構成とした場合には、人物や動物などの動きをリアルに表現することができるようになる。また、CG画像による動画像データを用いる構成とした場合には、コンピュータグラフィクスによって自由に画像を作成することができるので、実写によっては得ることが困難な画像であっても簡単に作成することができ、必要とする動画像を含めた動画像データを容易に作成することができるようになる。なお、実写画像とCG画像とを組み合わせて動画像データを作成するようにしてもよい。
【0216】
また、上述した実施の形態では、動画像による遊技演出が特別図柄の可変表示が実行される可変表示装置9で行われるものとして説明していたが、特別図柄の可変表示が実行される表示装置とは別個の画像表示装置にて動画像による遊技演出が実行される構成としてもよい。
【0217】
また、上述した実施の形態では、遊技機の例として、識別情報を可変表示する可変表示装置としての機能と演出画像を表示する画像表示装置としての機能とを併せ持つ可変表示装置6を備えたパチンコ遊技機を用いて説明したが、パチンコ遊技機に限られず、可変表示装置と画像表示装置とを別個に備えたスロット機等の他の遊技機においても、本発明を適用することができる。以下、本発明を、他の遊技機の一例であるスロット機に適用した場合の例について説明する。
【0218】
図31はスロット機(スロットマシン)500を正面から見た正面図である。図31に示すように、スロット機500は、中央付近に遊技パネル501が着脱可能に取り付けられている。また、遊技パネル501の前面の中央付近には、複数種類の図柄が可変表示される可変表示装置502が設けられている。この実施の形態では、可変表示装置502には、「左」、「中」、「右」の3つの図柄表示エリアがあり、各図柄表示エリアに対応してそれぞれ図柄表示リール502a,502b,502cが設けられている。
【0219】
遊技パネル501の下部には、遊技者が各種の操作を行うための各種入力スイッチ等が配される操作テーブル520が設けられている。操作テーブル520の奥側には、コインを1枚ずつBETする(かける)ためのBETスイッチ521、1ゲームでかけることのできる最高枚数(本例では3枚)ずつコインをBETするためのMAXBETスイッチ522、精算スイッチ523、及びコイン投入口524が設けられている。コイン投入口524に投入されたコインは、図示しない投入コインセンサによって検知される。
【0220】
操作テーブル520の手前側には、スタートスイッチ525、左リールストップスイッチ526a、中リールストップスイッチ526b、右リールストップスイッチ526c及びコイン詰まり解消スイッチ527が設けられている。操作テーブル520の手前左右には、それぞれランプ528a,528bが設けられている。操作テーブル520の下部には、効果音等を出力するスピーカ530が設けられている。
【0221】
遊技パネル501の上部には、遊技者に遊技方法や遊技状態等を報知する画像表示装置(LCD:液晶表示装置)540が設けられている。例えば、入賞発生時に、キャラクタが所定動作を行う画像を画像表示装置540に表示することで、後述する当選フラグが設定されていることを遊技者に報知する。本例では、この画像表示装置540に動画像データにもとづく動画像が再生表示される。すなわち、スロット機500にて、上述したパチンコ遊技機と同様に復号化処理や動画再生処理が実行されるとともにフェードイン処理やフェードアウト処理による遊技演出が実行されて、画像表示装置540の表示領域にフェードイン表示やフェードアウト表示を含む動画像による各種の表示がなされる。また、スロット機500にて、上述したパチンコ遊技機と同様に復号化処理や動画再生処理が実行されることで、静止表示対象ピクチャを用いた静止表示処理に遊技演出が実行されて、画像表示装置540の表示領域に静止表示対象ピクチャを用いた静止表示など、動画像データによる各種の表示がなされる。さらに、上述したパチンコ遊技機1と同様に、この画像表示装置540に、1又は2以上の動画像データに基づく複数の画像を合成することによって生成された合成画像による動画像が再生表示される。例えば、複数の関連性のある画像が合成された合成画像による動画像や、複数の独立性のある画像が合成された合成画像による動画像を用いた遊技演出がなされる。なお、画像表示装置540の左右には、効果音を発する2つのスピーカ541L,541Rが設けられている。
【0222】
なお、スロット機500で発生する入賞役には、小役入賞と、リプレイ入賞と、ビッグボーナス入賞と、レギュラーボーナス入賞とがある。スロット機500では、スタートスイッチ525を操作したタイミングで乱数が抽出され、上記いずれかの入賞役による入賞の発生を許容するか否かを決定する。入賞の発生が許容されていることを、「内部当選している」という。内部当選した場合、その旨を示す当選フラグがスロット機500の内部で設定される。当選フラグが設定された状態でのゲームでは、その当選フラグに対応する入賞役を引き込むことが可能なようにリール502a〜502cが制御される。一方、当選フラグが設定されていない状態でのゲームでは、入賞が発生しないようにリール502a〜502cが制御される。
【0223】
次に、スロット機により提供されるゲームの概要について説明する。
例えば、コイン投入口524からコインが投入されBETスイッチ521又はMAXBETスイッチ522が押下される等してかけ数が設定されると、スタートスイッチ525の操作が有効となる。そして、遊技者によってスタートスイッチ525が操作されると、可変表示装置502に設けられている各図柄表示リール502a〜502cが回転を始める。また、スタートスイッチ525を操作したタイミングで、レギュラーボーナス入賞又はビッグボーナス入賞が内部当選した場合には、例えば、画像表示装置540に所定のキャラクタが所定の動作を行っている画面を表示する等して、内部当選した旨が遊技者等に報知される。
【0224】
各図柄表示リール502a〜502cが回転を始めてから所定時間が経過すると、各リールストップスイッチ526a〜526cの操作が有効となる。この状態で、遊技者が各リールストップスイッチ526a〜526cのいずれかを押下すれば、操作されたストップスイッチに対応するリールの回転が停止する。なお、各図柄表示リール502a〜502cを停止させずに、所定期間以上放置した場合には、各図柄表示リール502a〜502cが自動的に停止する。
【0225】
すべての図柄表示リール502a〜502cが停止した時点で、可変表示装置502に表示されている各図柄表示リール502a〜502cの上段、中段、下段の3段の図柄中、かけ数に応じて定められる有効な入賞ライン上に位置する図柄の組合せによって入賞したか否かが定められる。かけ数が1の場合には、可変表示装置502における中段の横1列の入賞ラインのみが有効となる。かけ数が2の場合には、可変表示装置502における上段、中段、下段の横3列の入賞ラインが有効となる。かけ数が3の場合には、可変表示装置502における横3列と斜め対角線上2列の合計5本の入賞ラインが有効ラインとなる。
【0226】
有効ライン上の図柄の組合せが、予め定められた特定の表示態様となって入賞が発生した場合には、音、光、画像表示装置540の表示等によって所定の遊技演出がなされ、入賞の発生に応じたゲームが開始される。
【0227】
図32は、スロット機500に備えられる主基板(遊技制御基板)600の回路構成の一例を示すブロック図である。図32には、演出制御基板630及びリールユニット650も示されている。なお、主基板600には電源基板や中継基板等の他の基板も接続されるが、図32には示されていない。主基板600は、プログラムに従って制御動作を行うCPU602、ワークメモリとして使用される記憶手段の一例であるRAM603、ゲーム制御用のプログラム等を記憶するROM604及びI/Oポート部605を含む構成とされている。
【0228】
リールユニット650には、リールモータ651と、リールランプ652と、リールセンサ653とが格納されている。リールモータ651は、各リール502a〜502cを回転させるためのモータである。リールランプ652は、各リール502a〜502cの内部に設けられ、各リール502a〜502cに描かれた図柄のうち、可変表示装置502にて視認される図柄をリールの内側から照らすためのランプである。リールセンサ653は、各リール502a〜502cの回転状態や回転数等を感知するためのセンサである。
【0229】
この実施の形態では、演出制御基板630に搭載されている演出制御手段が、スロット機500に設けられている画像表示装置540の表示制御や、リールランプ652の点灯制御を行う。画像表示装置540には、演出制御手段の制御によって、飾り図柄の変動表示や、遊技状態や遊技方法を報知するための表示等の様々な情報が表示される。この例では、演出制御基板630に搭載されている演出制御手段には、演出制御用のCPUやGCL等が含まれる。したがって、演出制御基板630に搭載されている演出制御手段は、上述したパチンコ遊技機と同様に、動画像データにもとづく動画像による遊技演出を実行することができる構成とされている。なお、演出制御基板630に搭載されている演出制御手段は、スロット機500に設けられている各種の遊技効果ランプ550,551,552,553の点灯制御、及びスロット機500に設けられているスピーカ501,541L,541Rの音出力制御を行う。
【0230】
この例では、演出制御基板630は、主基板600から受信した制御コマンドに基づく演出パターンに従って、画像表示装置540や、遊技効果ランプ550等や、スピーカ530等を制御する。画像表示装置540では、所定の画像表示パターン(演出パターンの一例)に従って、飾り図柄の変動表示がなされる。飾り図柄の変動表示演出では、例えば、パチンコ機における特別図柄の変動表示のような図柄組合せ演出表示や、リール502a〜502cの変動表示のような図柄組合せ演出等の演出が実行される。予め複数設けられている演出パターンから何れの演出パターンを用いるかについては、例えば、スタートスイッチ525が操作されたタイミングで、CPU602によって決定される。
【0231】
なお、上述したスロット機500では、動画像データにもとづく動画像による演出等がなされるが、それらの演出は、例えば、入賞していない通常の遊技期間中、レギュラーボーナス入賞によってレギュラーボーナスゲームが行われている期間中、ビッグボーナス入賞によるビッグボーナスゲームが行われている期間中等に実行されるようにすればよい。
【0232】
この例では、例えば、フェードイン処理やフェードアウト処理等によって、画像表示装置540に表示される動画像演出の最初や最後において、動画像データに含まれている画像データを用いたフェードイン表示やフェードアウト表示が実行される。また、例えば、動画像データに含まれている静止対象ピクチャを用いた動画再生処理等によって、画像表示装置540に静止状態の画像を表示する処理が実行される。さらに、合成画像を生成する処理等によって、画像表示装置540に表示される合成画像による動画像演出が実行される。
【0233】
以上説明したように、本発明をスロット機に適用することができ、スロット機に適用した場合であっても上述した各実施の形態における効果を得ることができる。
【0234】
上述した各遊技機は、可変表示装置における変動表示の表示結果が予め定められた特定の表示態様となったときに所定の遊技価値を遊技者に与える構成とされている。遊技価値とは、例えば、遊技機の遊技領域に設けられた可変入賞球装置が入賞しやすい遊技者にとって有利な状態になることや、遊技者にとって有利な状態となるための権利を発生させたりすることや、景品遊技媒体払出の条件が成立しやすくなる状態になることである。
【0235】
なお、上述した実施の形態において、「リーチ表示状態」とは、可変表示装置において最終停止図柄(例えば左右中図柄のうち中図柄)となる図柄以外の図柄が、所定時間継続して、特定表示態様と一致している状態で停止、揺動、拡大縮小もしくは変形している表示状態、又は、複数の図柄が同一図柄で同期して変動したり、表示図柄の位置が入れ替わっていたりして、最終結果が表示される前で大当り発生の可能性が継続している表示状態をいう。また、リーチ表示状態において行われる演出をリーチ演出という。さらに、リーチ表示状態やその様子をリーチ表示態様という。
【0236】
また、「特定遊技状態」とは、所定の遊技価値が付与された遊技者にとって有利な状態を意味する。具体的には、「特定遊技状態」は、例えば、可変入賞球装置の状態が入賞しやすい遊技者にとって有利な状態(大当り遊技状態)、遊技者にとって有利な状態となるための権利が発生した状態、景品遊技媒体払出の条件が成立しやすくなる状態等の、所定の遊技価値が付与された状態である。
【0237】
さらに、「特別遊技状態」とは、大当りとなりやすい遊技者にとって有利な状態を意味する。具体的には、「特別遊技状態」は、例えば、特別図柄が大当り図柄でそろう確率が高確率状態とされる確変状態、単位時間あたりの普通図柄の変動回数が高められる時短状態、可変入賞球装置9の開成期間や開成回数が高められる開放延長状態等の大当りとなる確率が高められている高確率状態である。なお、時短状態は、可変入賞球装置9の開放回数が高められていることから単位時間あたりの入賞回数が増加し、単位時間あたりの特別図柄の可変表示回数が高められるので、大当りとなる確率が高められている状態といえる。また、同様に、開放延長状態は、可変入賞球装置9の開成期間や開成回数が高められていることから単位時間あたりの入賞回数が増加し、単位時間あたりの特別図柄の可変表示回数が高められるので、大当りとなる確率が高められている状態といえる。
【0238】
【発明の効果】
以上のように、請求項1記載の発明では、データ再生手段が、所定の静止対象画像表示タイミングとなったことに応じて動画像データに基づく動作対象画像の動画再生処理を中断する動画再生処理中断手段と、静止対象画像表示タイミングにて動画再生処理が中断されたときに、動画像データに含まれる静止対象画像データに基づいて、画像表示装置上の動作対象画像を所定の静止対象画像に切り替え表示する静止対象画像切替手段と、動画再生処理が中断される中断期間の間、動画像データに基づく動作対象画像の一部とされている所定の静止対象画像を使用することで、画像表示装置上に静止対象画像を用いた静止画再生処理を行う静止画再生処理手段と、中断期間が終了したときに、画像表示装置上の静止対象画像を動作対象画像に切り替え表示する動作対象画像切替手段と、動作対象画像切替手段によって表示された動作対象画像から動画再生処理を再開する動画再生処理再開手段と、データ伸張手段によって連続的に伸張された複数のフレームデータを、優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行う合成表示手段とを含み、フェードイン切替表示手段が、再生開始時に使用されるフレームデータから透過度を段階的に高めていった複数のフェードイン画像を生成するフェードイン画像生成手段と、フェードイン画像生成手段により生成された各フェードイン画像を、透過度が最も高められているフェードイン画像から、透過度がより低いフェードイン画像に順次移行させ、最終的にフレームデータの画像を表示させることによってフェードイン処理を実行するフェードイン処理手段と、フェードイン処理手段によるフェードイン処理が完了したあと、データ再生手段によりフェードイン処理の完了時に表示されているフレームデータの画像から動画再生処理を開始させる動画再生開始手段とを含むことを特徴とするので、動画像データのデータ量を増大させることなくフェードイン表示を行うことができるとともに、動画像演出中に表示画面の変化がない場面が存在する場合に、そのような場面を表示させるための動画像データを不必要として静止表示を行うための動画像データを削減することができ、さらに、前後方向の後側に表示される優先度の低い画像の透過度と、手前側に表示される優先度の高い画像の透過度とを異ならせることで奥行感の高められた映像を表示することができ、立体感がより高められた臨場感のある演出表示を行うことができるという効果がある。
【0239】
請求項2記載の発明では、フェードイン切替表示手段が、フェードイン処理にて、所定の中間画像を介して段階的に画像を出現させるように構成されているので、容易に視認される状態でフェードイン表示を実行することができる。
【0240】
また、請求項3記載の発明では、データ再生手段が、所定の静止対象画像表示タイミングとなったことに応じて動画像データに基づく動作対象画像の動画再生処理を中断する動画再生処理中断手段と、静止対象画像表示タイミングにて動画再生処理が中断されたときに、動画像データに含まれる静止対象画像データに基づいて、画像表示装置上の動作対象画像を所定の静止対象画像に切り替え表示する静止対象画像切替手段と、動画再生処理が中断される中断期間の間、動画像データに基づく動作対象画像の一部とされている所定の静止対象画像を使用することで、画像表示装置上に静止対象画像を用いた静止画再生処理を行う静止画再生処理手段と、中断期間が終了したときに、画像表示装置上の静止対象画像を動作対象画像に切り替え表示する動作対象画像切替手段と、動作対象画像切替手段によって表示された動作対象画像から動画再生処理を再開する動画再生処理再開手段と、データ伸張手段によって連続的に伸張された複数のフレームデータを、優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行う合成表示手段とを含み、フェードアウト切替表示手段が、遊技演出を実行するための動画像データを用いた動画再生処理を終了するときに、再生終了時に使用されるフレームデータの画像を表示する動画再生終了手段と、フレームデータから透過度を段階的に高めていった複数のフェードアウト画像を生成するフェードアウト画像生成手段と、フェードアウト画像生成手段により生成された各フェードアウト画像を、フレームデータの画像から、透過度がより高められているフェードアウト画像に順次移行させ、最終的に透過度が最も高められているフェードアウト画像を表示させることによってフェードアウト処理を実行するフェードアウト処理手段とを含むことを特徴とするので、動画像データのデータ量を増大させることなく、フェードアウト表示を行うことができる。よって、動画像データの格納領域の必要容量を抑えることができる。よって、フェードアウト表示を円滑に行うことができるとともに、動画像演出中に表示画面の変化がない場面が存在する場合に、そのような場面を表示させるための動画像データを不必要として静止表示を行うための動画像データを削減することができ、さらに、前後方向の後側に表示される優先度の低い画像の透過度と、手前側に表示される優先度の高い画像の透過度とを異ならせることで奥行感の高められた映像を表示することができ、立体感がより高められた臨場感のある演出表示を行うことができるという効果がある。
【0241】
請求項4記載の発明では、フェードアウト切替表示手段が、フェードアウト処理にて、段階的に画像を消滅させて所定の中間画像を表示させるように構成されているので、容易に視認される状態でフェードアウト表示を実行することができる。
【0242】
請求項5記載の発明では、圧縮データ格納手段が、少なくとも、互いの表示内容に関連性があり、互いの表示内容の連携によって関連性のある複数の表示物体を含む合成画像を生成するための連携動画像データを格納し、データ伸張手段が、圧縮データ格納手段に格納されている関連性のある複数の連携動画像データを連続的に伸張し、優先度指定手段が、データ伸張手段により連続的に伸張された各連携動画像データのフレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定し、合成表示手段が、データ伸張手段によって連続的に伸張された各連携動画像データのフレームデータを、優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、識別情報画像の可変表示領域の前面側又は背面側に、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行うように構成されているので、前後方向の後側に表示される優先度の低い画像の透過度と、手前側に表示される優先度の高い画像の透過度とを異ならせることで奥行感の高められた互いに関連性を有する映像を識別情報画像の可変表示領域の前面側又は背面側に表示することができ、立体感がより高められた臨場感のある演出表示を行うことができる。
【0243】
請求項6記載の発明では、圧縮データ格納手段が、少なくとも、互いの表示内容に独立性があり、互いの表示内容を連携させないことによって独立性のある複数の表示物体を含む合成画像を生成するための非連携動画像データを格納し、データ伸張手段が、圧縮データ格納手段に格納されている独立性のある複数の非連携動画像データを連続的に伸張し、優先度指定手段が、データ伸張手段により連続的に伸張された各非連携動画像データのフレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定し、合成表示手段が、データ伸張手段によって連続的に伸張された各非連携動画像データのフレームデータを、優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、識別情報画像の可変表示領域の前面側又は背面側に、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行い、合成表示手段によって合成処理が実行される複数の非連携動画像データには、少なくとも、画像表示装置の表示画像における背景画像を表示するための動画像データと、背景画像の前面側に表示される前面画像を表示するための動画像データとが含まれる構成とされているので、前後方向の後側に表示される優先度の低い画像の透過度と、手前側に表示される優先度の高い画像の透過度とを異ならせることで奥行感の高められた互いに関連性を有しない独立性を有する映像を識別情報の識別情報画像の可変表示領域の前面側又は背面側に表示することができ、立体感がより高められた臨場感のある演出表示を行うことができる。
【図面の簡単な説明】
【図1】本発明の概要を示す概念図である。
【図2】パチンコ遊技機を正面から見た正面図である。
【図3】遊技機を裏面から見た背面図である。
【図4】遊技制御部を中心としたシステム構成例を示すブロック図である。
【図5】演出制御基板の回路構成例を示すブロック図である。
【図6】主基板におけるCPUが実行するメイン処理を示すフローチャートである。
【図7】2msタイマ割込み処理を示すフローチャートである。
【図8】特別図柄プロセス処理を示すフローチャートである
【図9】演出制御用CPUが実行するメイン処理を示すフローチャートである。
【図10】演出制御プロセス処理を示すフローチャートである。
【図11】プロセスデータの一構成例を示す説明図である。
【図12】動画像データのデータ構造の例を示す説明図である。
【図13】復号化処理の例を示すフローチャートである。
【図14】連続復号化処理の例を示すフローチャートである。
【図15】動画再生処理の例を示すフローチャートである。
【図16】合成画像表示処理の例を示すフローチャートである。
【図17】フェードイン処理の例を示すフローチャートである。
【図18】フェードイン処理に用いられる数式の例を示す説明図である。
【図19】フェードイン処理により作成されるフェードイン画像の表示状態を示す説明図である。
【図20】フェードアウト処理の例を示すフローチャートである。
【図21】フェードアウト処理に用いられる数式の例を示す説明図である。
【図22】フェードアウト処理により作成されるフェードイン画像の表示状態を示す説明図である。
【図23】半透明化処理の例を示すフローチャートである。
【図24】半透明化処理に用いられる数式の例を示す説明図である。
【図25】合成対象画像と合成実行画像の例を示す説明図である。
【図26】合成画像の表示状態を示す説明図である。
【図27】静止表示対象画像の表示状態等を示す説明図である。
【図28】合成画像の生成に用いられる各合成対象画像データを含む複数の動画像データを示す説明図である。
【図29】連携画像データにより生成された合成画像の表示状態を示す説明図である。
【図30】独立画像データにより生成された合成画像の表示状態を示す説明図である。
【図31】スロット機を正面から見た正面図である。
【図32】スロット機に搭載されている主基板の回路構成の一例を示すブロック図である。
【符号の説明】
1   パチンコ遊技機
6   可変表示装置(画像表示装置)
30  主基板
33  CPU
60  ランプ制御部
70  音制御部
80  表示制御部
81  GCL
100 演出制御基板
101 演出制御用CPU
500 スロット機
540 画像表示装置
600 主基板
630 演出制御基板
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a gaming machine such as a pachinko gaming machine, and particularly, performs a game effect using a fade-in display or a fade-out display, and performs a game by a composite display using a plurality of frame data having different display positions in a depth direction. The present invention relates to a gaming machine that performs an effect and a game effect by static display using a specific frame image in moving image data.
[0002]
[Prior art]
In a gaming machine such as a pachinko gaming machine, a predetermined identification information (hereinafter referred to as a display symbol) is updated and displayed on a display device such as a liquid crystal display (LCD), and the display result is changed. There are provided a number of games in which a so-called variable display game is used to determine whether or not to give a predetermined game value to enhance the interest in the game.
[0003]
Among the variable display games, there is a game played mainly by using the above-described display device as an image display device (hereinafter, a special figure game). The special figure game performs the update display of the display symbol in accordance with the detection of the game ball passing through the predetermined area, and the case where the stop symbol mode when the update display of the display symbol is completely stopped is the specific display mode. This is a "big hit" game. When a "big hit" is reached in the special map game, a special electric accessory called a special winning opening is activated to open the special winning opening door. As a result, a state in which the winning of the game ball becomes extremely easy is continuously provided to the player for a certain period of time.
[0004]
Hereinafter, a special game state is a state in which a big hit in the special map game and the big winning opening door is opened to make it extremely easy for a player to win a game ball. In order to be in the specific game state, usually, the stop symbol mode of the display symbol displayed on the special symbol display device becomes a predetermined specific display mode (generally, the display symbols are aligned with the same symbol). Is a condition.
[0005]
As described above, in the special figure game, the player is most interested in whether or not the stop symbol mode is the specific display mode and is a “big hit”. For this reason, until the stop symbol mode that can determine whether or not it is a "big hit" is determined, various effect displays are performed to enhance the interest in the game, such as changing the variation mode of the display symbol. .
[0006]
In such a gaming machine, in general, various characters are displayed on a variable display device according to a gaming state, by changing the character, or by blinking a light emitting body such as a lamp or an LED. Game production is being performed. There is also a game display effect in which a multicolor image such as a photographed image is displayed on a variable display device.
[0007]
Normally, when effect display is performed by displaying a moving image of a multicolor image on a variable display device, the amount of moving image data becomes enormous. Therefore, moving image data used for a game effect is, for example, MPEG2. The data is stored in a storage medium such as a ROM included in the gaming machine in a state where the data is compressed by an encoding technique such as (Moving Picture Experts Group phase 2).
[0008]
[Problems to be solved by the invention]
Even if the data is compressed as described above, the data amount of the moving image data used for the game effect is enormous compared to the data amount of the data for performing the game effect other than the effect by the moving image. In consideration of the processing load of the game control means, it is desirable to reduce the amount of data used for the game effect.
[0009]
By the way, when performing an effect based on a moving image, the displayed image gradually fades when shifting from an effect based on a still image to an effect based on a moving image, or when shifting from an effect based on a moving image to an effect based on a still image. The display image may be switched by performing a fade-out display that disappears over time or a fade-in display in which an image gradually appears on the screen and is clearly displayed. For example, in a reach effect, when the background image is switched from a still image to a moving image after the variable display content of the special symbol has developed into the reach display, there is a display device that switches the display content by a fade-out display or a fade-in display.
[0010]
However, moving image data for fade-out display is used to perform fade-out display, and similarly, moving image data for fade-in display is used to perform fade-in display. That is, moving image data for fade-out display and moving image data for fade-in display are prepared in advance, and moving image data for fade-out display and moving image data for fade-in display are provided before and after moving image data for performing a game effect. Fade-out display and fade-in display are realized by connecting data and reproducing the moving image data. Therefore, in order to perform the fade-out display and the fade-in display, an enormous amount of moving image data is required. Therefore, in order to perform the fade-out display and the fade-in display, although the data is compressed, a large amount of moving image data is required, so that the total amount of moving image data increases. As a result, there is a problem that the required capacity of a storage area for storing moving image data increases.
[0011]
It is conceivable to reduce the data amount of moving image data for fade-out display or moving image data for fade-in display by shortening the effect period by the fade-out display and the fade-in display. However, the image suddenly disappears or suddenly appears at the time of the switching display, and the fade-out display and the fade-in display do not have smooth display contents.
[0012]
In addition, in the effect using moving images, not only scenes with many movements in which characters appearing frequently move but also scenes with little change in display content and almost no movements exist. However, when performing an effect using a moving image, even in a scene where there is almost no movement, a process of sequentially switching each image data prepared every time elapses with the elapse of time is performed. That is, a large amount of moving image data for displaying a scene with little motion is prepared in advance, and a scene with little motion is reproduced and displayed using the moving image data. Similarly, when displaying a scene in which the display content does not change at all in appearance, a large amount of moving image data is used.
[0013]
As described above, a huge amount of moving image data is required to display a scene with almost no motion. As described above, when performing an effect using a moving image, a large amount of moving image data is required even in a scene where there is almost no motion, so that the total amount of moving image data increases. As a result, there is a problem that the required capacity of a storage area for storing moving image data increases.
[0014]
Furthermore, in the case of performing an effect using a moving image, if a moving image using a multicolor image is displayed, various scenes can be expressed by the multicolor image, so that a realistic video expression can be performed. However, since a moving image is displayed on a display panel formed substantially on a plane, simply performing an effect based on the moving image results in a planar image such as a movie projected and displayed on a screen screen. . As described above, since the effect of the moving image in the gaming machine is stopped at the effect of the two-dimensional display, there is a problem that a display effect with a sense of reality cannot be performed.
[0015]
The present invention has been made in view of the above-described problems, and has as its object to provide moving image data for performing a fade-out display or a fade-in display, and a moving image used for displaying a scene with almost no motion. By realizing that the data amount of image data is reduced, the required capacity of the storage area of the moving image data used for the game effect can be reduced, and the fade-out display and the fade-in display can be smoothly performed. It is an object of the present invention to provide a gaming machine capable of performing an effect display with a more realistic three-dimensional effect while utilizing a realistic video expression by a moving image.
[0016]
[Means for Solving the Problems]
As shown in FIG. 1, the gaming machine according to the present invention variably displays a plurality of types of identification information (for example, a special symbol in the middle left and right, a symbol displayed on the variable display device 502), and displays the identification information. Is a specific display result (for example, a display result in which each symbol fixedly displayed on the activated line is the same symbol), it is set to a specific game state (for example, a big hit game state) advantageous to the player. A game machine, an image display device (for example, a variable display device 6, an image display device 540) 6a for displaying an image used for a game effect, and a compression for storing moving image data including compressed data by motion compensation predictive coding. The data storage means (for example, the CGROM 83) 80a and the data decompression means (for example, the moving image compression / decompression unit 89) for decompressing the moving image data stored in the compressed data storage means 80a. (Steps for executing Steps S208, S212, S216, and S223) 80b and an image generated based on the moving image data expanded by the data expansion means 80b are sequentially displayed on an image display device to reproduce moving images. For each frame data in the moving image data expanded by the data reproducing means (for example, a part of the GCL 81 for executing the processing shown in FIG. 15) shown in FIG. A priority specifying means (for example, a part of the GCL 81 for executing step S224) 80d for specifying a priority (for example, step S224), and a frame based on the frame data according to the priority specified by the priority specifying means 80d The transparency of the resulting image The translucent processing means (e.g., the part that executes step S252 in the GCL 81) 80e that makes the image based on the frame data a translucent image by performing the translucent processing (for example, step S252) for A fade-in switching display means (for example, a portion of the GCL 81 for executing the processing in FIG. 17) that performs a switching display of a display image on the image display device by performing a fade-in process for causing an image to appear in a stepwise manner. When the data reproduction unit 80c reaches a predetermined still target image display timing (for example, the timing determined to be Y in step S203), the operation target image based on the moving image data (for example, FIG. 27A) And the moving image reproduction of the moving image in which the character shown in FIG. When the moving image reproduction processing is interrupted at the still target image display timing, the still target image data (for example, the still image Still object image switching means (for example, the GCL 81) switches the operation object image on the image display device to a predetermined still object image (for example, an image shown in FIG. 27C) based on the display object picture. A portion during which the processing of step S237 for displaying an image based on the frame data expanded in step S217 after the determination of Y in step S203 is performed) 80cb, and a suspension period during which the moving image reproduction processing is suspended (for example, Until the static display time timer times out) By using a predetermined still target image which is a part of the operation target image to be processed (e.g., realized by not performing the process of step S241), the still target image is displayed on the image display device. Still image reproduction processing means (for example, step S241 in the GCL 81) for performing the used still image reproduction process (for example, a process of sequentially switching to the same still target image as shown in FIGS. 27C to 27E). 80 cc based on the frame data pointed to by the reproduction area designation pointer not updated in step S237) and when the interruption period ends (for example, when Y is determined in step S239). The still target image on the image display device is converted to the operation target image (for example, an image provided next to the still target image data in the moving image data). The image based on the over data. Specifically, for example, the same image as in FIG. ) And a moving image from the operation target image displayed by the operation target image switching unit 80cd (for example, the part that executes the first step S237 after restarting the processing of step S241 in the GCL 81). The reproduction process is restarted (for example, the moving image reproduction process is restarted using the image data provided after the still target image data, and an image such as that shown in FIGS. 27F and 27G is displayed. (For example, a portion for executing the moving image reproduction process after the process of step S241 in the GCL 81 is restarted and the process of the first step S237 is executed) 80ce and the data decompression device 80b A plurality of continuously expanded frame data (for example, a composite execution image shown in FIG. 25) Image data) in the front-rear direction according to the priority specified by the priority specifying means 80d (for example, step S255), so that a plurality of frame data having different priorities in the front-rear direction can be used. 26 (A) to 26 (C). The combined images shown in FIGS. 26 (A) to 26 (C) are sequentially displayed. (For example, a portion for executing the step S256 in the GCL 81) 80cf, and the fade-in switching display unit 80f performs the frame used at the start of the reproduction. Generate a plurality of fade-in images (for example, each image shown in FIGS. 19D to 19B) whose transmittance is gradually increased from the data (for example, FIG. 7 is performed by repeatedly executing the fade-in process shown in FIG. 7) (for example, a part that executes step S262 in the GCL 81) 80fa, and each fade-in image generated by the fade-in image generating unit 80fa is generated. From the fade-in image having the highest transparency (for example, a fade-in image generated by using a mathematical expression with N = 99 in FIG. 18; specifically, the image shown in FIG. 19A), Are sequentially shifted to a lower fade-in image (for example, sequentially shifted to FIGS. 19B and 19C), and finally an image of frame data is displayed (for example, N = 0 in FIG. 18). A fade-in image generated by using a mathematical expression is displayed (specifically, for example, an image shown in FIG. 19D is displayed). After the fade-in processing by the fade-in processing means 80fb (for example, the part performing step S263 in the GCL 81) for executing the fade-in processing and the fade-in processing by the fade-in processing means 80fb are completed, the data reproduction means 80c displays when the fade-in processing is completed. Moving image reproduction start means (for example, a portion for executing the first step S237 after step S267 in the GCL 81) 80fc for starting the moving image reproduction process from the image of the frame data. Moving image playback processing after a fade-in display (for example, a display as shown in FIGS. 1A to 1D) is made by the gaming machine configured as described above by, for example, the fade-in switching display unit 80f. 1, a still display (for example, a display as shown in FIGS. 1A to 1D) using one frame of image data or a moving image display (for example, FIG. 1) to 1 (3), or a display as a composite image generated by combining a plurality of persons in the front-rear direction as shown in FIG. .
[0017]
The fade-in switching display means is configured to cause an image to appear stepwise through a predetermined intermediate image (for example, image data for displaying an image of a single color such as white or blue) in the fade-in process. It may be.
[0018]
Further, the gaming machine of the present invention variably displays a plurality of types of identification information (for example, a special symbol in the middle left and right, a symbol displayed on the variable display device 502), and the display result of the identification information indicates the specific display result ( For example, a gaming machine that is set to a specific gaming state (for example, a big hit gaming state) that is advantageous to the player when each symbol confirmed and displayed on the activated line becomes the same symbol). An image display device (for example, the variable display device 6, the image display device 540) for displaying an image used for a game effect, and a compressed data storage means (for example, CGROM83) for storing moving image data including compressed data by motion compensation prediction coding. ), Data decompressing means (for example, a moving image compression / decompression unit 89) for decompressing moving image data stored in the compressed data storage means, and data decompressed by the data decompression means. A data reproducing unit (for example, GCL81) for performing a moving image reproducing process by sequentially displaying images generated based on the image data on the image display device, and each frame data in the moving image data expanded by the data expanding unit, Priority specifying means (for example, GCL81) for specifying the priority in the front-back direction of the image based on the frame data, and the transparency of the image generated based on the frame data according to the priority specified by the priority specifying means The translucent processing means (for example, GCL81) for converting the image based on the frame data into a translucent image by performing the translucent processing for improving the image quality, and performing the fade-out processing for eliminating the image in a stepwise manner. Fade-out switching display means for executing switching display of a display image on the image display device (eg, The data reproducing means reproduces a moving image of an operation target image based on moving image data in response to a predetermined still target image display timing (for example, a timing determined as Y in step S203). A moving image reproduction processing interruption means (for example, GCL81) for interrupting the processing, and still image data included in the moving image data (for example, indicating a still display object picture when moving image reproduction processing is interrupted at the still object image display timing). A still target image switching unit (for example, GCL81) for switching and displaying the operation target image on the image display device to a predetermined still target image based on the image data), and a suspension period (for example, still A period until the display time timer times out), a predetermined period which is a part of the operation target image based on the moving image data. Still image reproduction processing means (for example, a process of sequentially switching to the same still target image) using the still target image on the image display device by using the still target image of GCL81) and when the suspension period ends (for example, when Y is determined in step S223), the still target image on the image display device is placed next to the operation target image (for example, next to the still target image data in the moving image data). An operation target image switching unit (for example, GCL81) that switches and displays the image based on the provided image data, and a moving image reproduction process restart unit that restarts the moving image reproduction process from the operation target image displayed by the operation target image switching unit ( For example, GCL81) and a plurality of frame data continuously expanded by the data expansion unit are designated by the priority designation unit. And a composite display unit (for example, GCL81) for performing composite display using a plurality of frame data having different priorities in the front-rear direction by executing the compositing process of overlapping in the front-rear direction according to the selected priority. When the switching display unit ends the moving image reproduction process using the moving image data for executing the game effect, the moving image reproduction ending unit displaying the image of the frame data used at the end of the reproduction (for example, step S211 in the GCL 81) (Step for executing the process of step S237 when displaying the frame data decoded in step S212 after the fade-out flag is turned on in step S212), and the transparency is gradually increased from the frame data. (For example, by repeating the fade-out process shown in FIG. 18). A fade-out image generation unit (for example, a part that executes step S272 in the GCL 81) that generates the image by returning and executing) and each fade-out image generated by the fade-out image generation unit is converted into a frame data image (for example, M in FIG. 19). From a fade-out image generated using a mathematical formula of = 0) to a fade-out image with higher transparency, and finally display a fade-out image with the highest transparency (for example, FIG. 19). And a fade-out processing unit that executes a fade-out process by displaying a fade-out image generated by using a mathematical expression in which M = 99 (for example, a part that executes step S273 in the GCL 81). With the gaming machine configured as described above, for example, in a moving image playback process (a process for performing a display as shown in FIGS. 27A to 27G), a data playback unit sets an image for one frame. Still display using data (displays as shown in FIGS. 27 (C) to 27 (E)) or moving image display with a composite image (displays as shown in FIGS. 26 (A) to 26 (C), or 27 (A), the display is performed by a composite image generated by combining a plurality of persons in the front-rear direction, and when the moving image reproduction process ends, the fade-out switching display means A fade-out display (for example, a display as shown in FIGS. 22A to 22D) is executed.
[0019]
The fade-out switching display means may be configured to gradually delete the image and display a predetermined intermediate image in the fade-out processing.
[0020]
The compressed data storage means generates at least a composite image (for example, an image shown in FIG. 29) including a plurality of display objects that are related to each other and that are related to each other by cooperation of the display contents. The cooperative moving image data is stored, the data decompressing means continuously decompresses a plurality of related cooperative moving image data stored in the compressed data storing means, and the priority designating means is continuously decompressed by the data decompressing means. For the frame data of each cooperatively expanded video data, the priority in the front-back direction of the image based on the frame data is specified, and the combined display unit is configured to sequentially cooperate each of the cooperative video images continuously expanded by the data expansion unit. By executing a synthesizing process of superimposing the frame data of the data in the front-back direction according to the priority specified by the priority specifying means, the identification information image can be used. On the front side or back side of the display area may be configured to perform synthesis display using a plurality of frame data having different longitudinal directions priority.
[0021]
The compressed data storage means generates a composite image (for example, an image shown in FIG. 30) including a plurality of independent display objects by at least mutually independent display contents and not cooperating each other display contents. The non-cooperative moving image data is stored, and the data decompressing means continuously decompresses the plurality of independent non-cooperative moving image data stored in the compressed data storing means. For the frame data of each non-cooperative moving image data continuously expanded by the expansion unit, the priority in the front-back direction of the image based on the frame data is specified, and the combined display unit is continuously expanded by the data expansion unit. By combining the frame data of each non-cooperative moving image data in the front-rear direction according to the priority specified by the priority specifying means. A plurality of non-cooperative moving images, on the front side or the back side of the variable display area of the identification information image, performing combined display using a plurality of frame data having different priorities in the front-rear direction and performing the combining process by the combined display means The image data includes at least moving image data for displaying a background image in a display image of the image display device and moving image data for displaying a front image displayed on the front side of the background image. May be configured.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. The gaming machine according to the present embodiment is a gaming machine that performs a special map game using an image display device (variable display device) such as an LCD, and a card reader (CR: Card Reader) that lends a ball using a prepaid card. The description will be made by taking the first type pachinko gaming machine as an example. However, the gaming machine to which the present invention is applied is not limited to this, and may be applied to a gaming machine such as a slot machine equipped with an LCD. In addition, even if it is a ball-and-ball game machine such as a pachinko game machine, as long as it has an image display device, for example, a game machine classified into a second type or a third type, a general electric machine, or a pachicon machine It may be a ball game machine with a probability setting function called a so-called ball game machine. Further, the present invention is applicable not only to a CR-type pachinko gaming machine that lends a ball with a prepaid card (a value medium including an IC coin or the like in the future) but also to a pachinko gaming machine that lends a ball with cash. That is, any form of gaming machine having an image display device such as an LCD and capable of performing an effect display corresponding to a special figure game may be used.
[0023]
First, the overall configuration of the CR type first class pachinko gaming machine will be described. FIG. 2 is a front view of the pachinko gaming machine viewed from the front.
The pachinko gaming machine 1 is roughly divided into a gaming board 2 constituting a gaming board surface, and a gaming machine frame 3 to which the gaming board 2 is detachably attached. A game area 4 is formed on the front of the game board 2. Note that a handle 5 for firing a hit ball is provided on the lower right side on the front side of the gaming machine 1.
[0024]
In the vicinity of the center of the game area 4, a variable display device 6 including a plurality of variable display units each of which variably displays a symbol as identification information is provided. The variable display device 6 is constituted by an LCD, and is provided with a symbol display area (variable display section) on which three special symbols of “left”, “middle”, and “right” are displayed. In the symbol display area, an effective line for specifying whether or not the display result of the variable display is the big hit display mode is set in advance. The combination of each special symbol finally stopped on the activated line determines whether or not it is a jackpot display mode, and when each special symbol is aligned with the same symbol on the activated line, it may be the jackpot display mode. Specified. Therefore, the player can easily recognize whether or not a big hit has occurred by checking the display mode on the active line on the variable display device 6.
[0025]
In addition, the variable display device 6 is provided with four special symbol start storage display areas (hereinafter referred to as start storage display areas) 8 for displaying the number of effective winning balls in the start winning opening 7, that is, the number of start winning memories. . In the start storage display area, a prize display is performed in correspondence with an effective start prize when the number of start prize memories is less than four. Specifically, the display which was normally blue display is changed to red display. In this example, since the symbol display area and the start storage display area 8 are provided separately, it is possible to display the start winning prize storage number even during the variable display. Note that the start storage display area 8 may be provided in a part of the symbol display area. In this case, the display of the number of start winning combinations may be interrupted during the variable display. Further, in this example, the start storage display area 8 is provided in the variable display device 6, but a display (special symbol start storage display) for displaying the number of winning winning storage is provided separately from the variable display device 6. It may be provided.
[0026]
Below the variable display device 6, a start winning opening 7 also serving as an ordinary electric accessory 9 performing an opening / closing operation, and a large winning opening which is opened by driving a solenoid or the like in a specific game state (big hit state). 10 are arranged side by side up and down, and a gate 13 is arranged on the left side of the starting winning opening 7. The special winning opening 10 is opened or closed by opening and closing the special winning opening door 11. When a game ball wins at the gate 13, variable display in which the display state changes on the ordinary symbol display device 14 is started. In the vicinity of the normal symbol display device 14, there is provided a normal symbol start storage display 15 having a display unit of four LEDs for displaying the number of ordinary symbol start winning storage. Further, the gaming board 2 is provided with a plurality of winning ports 16, 17, 18, and 19.
[0027]
Two speakers 20L and 20R that emit sound effects are provided on the left and right upper portions of the gaming machine frame 3. A top frame lamp 21a, a left frame lamp 21b, and a right frame lamp 21c are provided on the outer periphery of the game area 4. Further, although not shown, decorative LEDs are installed around each structure (such as a special winning opening) in the game area 4. The top frame lamp 21a, the left frame lamp 21b, the right frame lamp 21c, and the decoration LED are examples of a light emitting body provided in the gaming machine.
[0028]
Next, the structure of the back surface of the pachinko gaming machine 1 will be described with reference to FIG. FIG. 3 is a back view of the gaming machine viewed from the back. As shown in FIG. 3, on the back side of the gaming machine, an effect control board 100 for controlling the variable display device 6 and the like, and a game control board (main board) 30 on which a game control microcomputer and the like are mounted are installed. In addition, a payout control board 40 on which a payout control microcomputer or the like for performing ball payout control is mounted. Further, a power supply board 150 on which a power supply circuit for supplying a predetermined power supply voltage is mounted and a launch control board 91 are provided. Further, a board external terminal board 50 having terminals for outputting various information from the main board 30 to the outside of the gaming machine, and various information such as the number of winning balls and the number of lent balls are output to the outside of the gaming machine. And a frame external terminal board 51 provided with the above terminals.
[0029]
FIG. 4 is a block diagram showing an example of a system configuration centering on a game control unit. The pachinko gaming machine 1 according to the present embodiment mainly includes a power supply section (power supply board) 150, a game control section (main board) 30, an input section 52, an output section 53, and an effect control section (effect control board) 100. , A payout control unit (payout control board) 40, a board external terminal board 50, and a frame external terminal board 51.
[0030]
The game control unit 30 includes a ROM 31 for storing a game control program and the like, a RAM 32 used as a work memory, a CPU 33 for performing a control operation according to the program, and an I / O port unit 34. Note that the CPU 33 executes control according to a program stored in the ROM 31, and hence execution by the CPU 33 (or processing) means that the CPU 33 executes control according to the program. The same applies to the CPU mounted on a board other than the main board 30. Although not shown, the game control unit 30 includes a switch circuit that receives a signal input from the input unit 52, and a solenoid circuit that outputs a drive signal to the output unit 53. The game control unit 30 has a function of generating various random numbers used in the game, a function of outputting control commands to the effect control unit 100 and the payout control unit 40, and a function of outputting various information to the hall management computer. And various other functions.
[0031]
The input unit 52 includes a starting port switch 7a for detecting a winning ball to the starting winning port 7, a gate switch 13a for detecting a winning ball to the gate 13, and a winning ball guided to the back of the game board 2 from the large winning port 10. A specific area switch 22 for detecting a winning ball entering one (V winning area), a count switch 23 for detecting a winning ball from the large winning opening 10, and a winning ball for each of the winning openings 16, 17, 18, and 19. Is configured by various detection means such as winning opening switches 16a, 17a, 18a, 19a. Each of the above switches may be called a sensor. That is, any name can be used as long as it can perform various detections such as detection of a game ball.
[0032]
The output unit 53 includes a normal electric accessory solenoid 9 a for opening and closing the variable winning ball device 9, a large winning opening door solenoid 11 a used for opening and closing the opening / closing plate 11, and a large used for switching a path in the large winning opening 10. It is constituted by various driving means such as the winning plate induction plate solenoid 12a.
[0033]
As shown in FIG. 4, the effect control unit 100 includes a display control unit 80 that controls the display of the variable display device 6 and the normal symbol display device 14 and the like, and a sound control unit that controls the sound of the speakers 20L and 20R. 70, and a lamp control unit 60 for controlling the luminous body such as the top frame lamp 21a. The effect control unit 100 controls the display of the variable display device 6 for variably displaying special symbols and the normal symbol display device 14 for variably displaying ordinary symbols, based on a control command from the game control unit 30, voice output control, and lamp display. Execute each control.
[0034]
The payout control unit 40 has a function of performing payout control such as lending of game balls and prize balls. The board external terminal board 50 and the frame external terminal board 51 play a role of outputting various game-related information to the outside. Further, the power supply unit 150 is provided to supply a predetermined power supply voltage to each circuit in the pachinko gaming machine 1.
[0035]
Here, the state of the game in the pachinko gaming machine 1 of the present example will be described. A game ball fired from the hitting ball launching device enters the game area 4 through the hitting ball rail, and then descends from the game area 4. When the hit ball enters the starting winning opening 7 and is detected by the starting opening switch 7a, the special display starts variable display (variation) on the variable display device 6 if the variable display of the symbol can be started. If it is not in a state where the variable display of the symbol can be started, the number of memorized start winnings is increased by one.
[0036]
The variable display of the special symbol on the variable display device 6 stops when a certain time has elapsed. If the combination of the special symbols on the activated line at the time of stop is the big hit display mode, the game shifts to the big hit game state. Specifically, the special winning opening 10 is opened until a predetermined time elapses or until a predetermined number (for example, 10) of hit balls is won. Then, when a hit ball wins in the V winning area while the special winning opening 10 is being opened and is detected by the specific area switch 22, a continuation right is generated and the special winning opening 10 is opened again. The generation of the continuation right is permitted a predetermined number of times (for example, 15 rounds).
[0037]
If the combination of special symbols in the variable display device 6 at the time of stoppage is a combination of a big hit symbol (probably variable symbol) with a probability change, the probability of the next big hit is increased. In other words, a more advantageous state (special game state) for the player, that is, a probable change state.
[0038]
In addition, the temporary stop timing, the variation time, and the like of the special symbol displayed on the variable display device 6 are uniquely determined according to a variation pattern designation command described later. That is, the effect control unit 100 performs the interlocking of the change of the special symbol on the variable display device 6, the sound output from the speakers 20L and 20R, and the blinking display of the lamp / LED 21a from the timing of receiving the change pattern command. Control as follows.
[0039]
FIG. 5 is a block diagram showing a circuit configuration of the effect control board 100. The effect control board 100 includes a display control unit 80, a sound control unit 70, a lamp control unit 60, an effect control CPU 101 for controlling each of the control units 60, 70, 80, an effect control program and a symbol display. A ROM 102 for storing various effect patterns such as light emission and voice output, and a RAM 103 used as a work memory. Although not shown, the effect control board 100 is provided with a command receiving circuit used for receiving an effect control command.
[0040]
The effect control CPU 101 operates in accordance with a program stored in the ROM 102 and receives an effect control command from the main board 30. Then, the effect control CPU 101 performs various controls such as display control of the variable display device 6, lighting / extinguishing control of the illuminant, sound output control, and drive control of the movable effect device in accordance with the received effect control command.
[0041]
Specifically, the display control of the variable display device 6 gives a command according to the effect control command to the GCL (Graphics Controller LSI) 81. The GCL 81 reads necessary data from the CGROM 83 or the like. The CGROM 83 stores data indicating frequently used characters. The frequently used character stored in the CGROM 83 is, for example, a person, an animal, or an image composed of characters, graphics, or symbols displayed on the variable display device 6. In addition, the character includes a moving image and a still image by actual shooting. The GCL 81 generates image data to be displayed on the variable display device 6 according to the input data, and outputs an R (red), G (green), B (blue) signal and a synchronization signal to the variable display device 6. The variable display device 6 performs, for example, a screen display by a dot matrix method using a large number of pixels (pixels). In this example, the R, G, and B signals are each represented by 8 bits. Therefore, according to the instruction from the GCL 81, the variable display device 6 can perform multicolor display of about 16.7 million colors with R, G, and B each having 256 gradations. The number of bits of the R, G, and B signals may be a number other than 8 bits, and the number of bits of each of the R, G, and B signals may be different from each other.
[0042]
The display control unit 80 includes various storage media such as a CGROM 83 and an SDRAM (VRAM) 84. The SDRAM 84 stores data related to a display image such as a frame buffer, source data of a character, and palette data used for specifying or changing a display color. The display control unit 80 includes a GCL 81 and a normal symbol drive circuit 82 for outputting a signal to the normal symbol display device 14.
[0043]
The GCL 81 stores various types of storage media such as a pallet data buffer 85 used for temporarily storing predetermined pallet data and a CG data buffer 86 used for temporarily storing predetermined CG data. In addition, it includes a drawing control unit, a variable display device control unit 87 and a DAC (digital-to-analog converter) 88 for outputting a signal to the variable display device 6, and a moving image compression / expansion unit 89 for performing moving image compression processing and expansion processing. . The drawing control unit includes an attribute analysis unit 81a, a VRAM address generation unit 81b, a clipping unit 81c, and a translucent brightness modulation unit 81d. The attribute analysis unit 81a analyzes parameters used when drawing a character. In this parameter, information for designating an image drawing order, the number of colors, a scaling ratio, a pallet number, coordinates, and the like are set. The moving image compression / decompression unit 89 may be configured to be controlled by the GCL 81 or may be configured to be controlled by the effect control CPU 101.
[0044]
The sound control unit 70 generates a sound or sound effect according to a control command from the game control unit 30, a sound ROM 72 that stores sound data and the like, and amplifies a sound signal to output to the speakers 20 </ b> L and 20 </ b> R. And a digital volume 74 for adjusting the output level of the audio signal output from the low frequency amplifier circuit 73 to a level corresponding to the set volume.
[0045]
The lamp control unit 60 outputs a signal to the game state decoration lamp 24a included in the lamp / LED 24 and a lamp drive circuit 61 for outputting a signal to the game state decoration LED 24b included in the lamp / LED 24. LED drive circuit 62.
[0046]
Next, the operation of the gaming machine will be described. FIG. 6 is a flowchart showing a main process executed by the game control means (the CPU 33 and peripheral circuits such as ROM and RAM) on the main board 30. When the power is turned on to the gaming machine and the input level of the reset terminal becomes a high level, the CPU 33 starts the main processing after step S1. In the main processing, the CPU 33 first performs necessary initial settings.
[0047]
In the initial setting process, the CPU 33 first sets interrupt prohibition (step S1). Next, the interrupt mode is set to the interrupt mode 2 (step S2), and a stack pointer designated address is set to the stack pointer (step S3). Then, the internal device registers are initialized (step S4). After initializing a built-in device (built-in peripheral circuit) CTC (counter / timer) and PIO (parallel input / output port) (step S5), the RAM is set to an accessible state (step S6).
[0048]
The CPU 33 used in this embodiment also has an I / O port (PIO) and a timer / counter circuit (CTC). The CTC has two external clock / timer trigger inputs CLK / TRG2,3 and two timer outputs ZC / TO0,1.
[0049]
The CPU 33 used in this embodiment has the following three types of maskable interrupt modes. When a maskable interrupt occurs, the CPU 33 automatically sets the interrupt disabled state and saves the contents of the program counter on the stack.
[0050]
Interrupt mode 0: The built-in device that has issued the interrupt request sends an RST instruction (1 byte) or a CALL instruction (3 bytes) onto the internal data bus of the CPU. Therefore, the CPU 33 executes the instruction at the address corresponding to the RST instruction or the address specified by the CALL instruction. Upon reset, the CPU 33 automatically enters the interrupt mode 0. Therefore, when it is desired to set the interrupt mode 1 or the interrupt mode 2, it is necessary to perform a process for setting the interrupt mode 1 or the interrupt mode 2 in the initial setting process.
[0051]
Interrupt mode 1: In this mode, when an interrupt is accepted, the operation always jumps to address 0038 (h).
[0052]
Interrupt mode 2: In this mode, an address synthesized from the value (1 byte) of the specific register (I register) of the CPU 33 and the interrupt vector (1 byte: least significant bit 0) output from the built-in device indicates an interrupt address. That is, the interrupt address is an address indicated by 2 bytes in which the upper address is the value of the specific register and the lower address is the interrupt vector. Therefore, an interrupt process can be set at an arbitrary (although discrete) even address. Each built-in device has a function of sending an interrupt vector when making an interrupt request.
[0053]
Therefore, when the interrupt mode 2 is set, it is possible to easily process an interrupt request from each built-in device, and it is possible to set an interrupt process at an arbitrary position in a program. Further, unlike the interrupt mode 1, it is easy to prepare an interrupt process for each interrupt occurrence factor. As described above, in this embodiment, the CPU 33 is set to the interrupt mode 2 in step S2 of the initial setting process.
[0054]
Next, the CPU 33 checks whether or not the clear switch provided on the gaming machine is in an on state (step S7). If ON is detected in the confirmation, the CPU 33 executes a normal initialization process (steps S10 to S12). If the clear switch is not on, whether or not data protection processing of the backup RAM area (for example, power supply stop processing such as addition of parity data) has been performed when power supply to the gaming machine has stopped. Confirm (step S8). After confirming that such a protection process has not been performed, the CPU 33 executes an initialization process. Whether or not there is backup data in the backup RAM area is confirmed, for example, by the state of the backup flag set in the backup RAM area in the power supply stop processing.
[0055]
When the backup is confirmed, the CPU 33 performs a game state restoring process for returning the internal state of the game control means and the control state of the electric component control means such as the effect control means to the state at the time of stopping the power supply (step S9). Then, the saved value of the PC (program counter) stored in the backup RAM area is set in the PC, and the program returns to that address.
[0056]
In the initialization process, the CPU 33 first performs a RAM clear process (step S10). In addition, a predetermined work area (for example, a normal symbol determination random number counter, a normal symbol determination buffer, a special symbol left middle right symbol buffer, a special symbol process flag, a payout command storage pointer, a winning ball flag, a ball out flag, a payout) A work area setting process of setting an initial value to a flag for selectively performing a process according to a control state such as a stop flag is performed. Further, a process of transmitting an initialization command for initializing the sub-board (the effect control board 100 and the payout control board 40) to the sub-board is executed (step S11). Examples of the initialization command include a command indicating an initial symbol displayed on the variable display device 6 and a payout possible state designation command indicating a payable state.
[0057]
Then, the register of the CTC provided in the CPU 33 is set so that a timer interrupt is periodically generated every 2 ms (step S12). That is, a value corresponding to 2 ms is set in a predetermined register (time constant register) as an initial value.
[0058]
When the execution of the initialization process (Steps S10 to S12) is completed, the display random number update process (Step S14) and the initial value random number update process (Step S15) are repeatedly executed in the main process. When the display random number update process and the initial value random number update process are executed, the interrupt is disabled (step S13), and when the display random number update process and the initial value random number update process are completed, the interrupt is enabled. (Step S16). The display random number is a random number for determining a symbol to be displayed on the variable display device 6, and the display random number update process is a process of updating a count value of a counter for generating a display random number. . The initial value random number updating process is a process of updating the count value of the counter for generating the initial value random number. The initial value random number is a random number for determining an initial value such as a counter (big hit determination random number generation counter) for generating a random number for determining whether or not to make a big hit. In a game control process described later, when the count value of the big hit determination random number generation counter makes one round, an initial value is set in the counter.
[0059]
When the display random number updating process is executed, the interrupt is prohibited. This is because the display random number updating process is also executed in a timer interrupt process described later, and thus conflicts with the process in the timer interrupt process. To avoid. That is, if a timer interrupt occurs during the process of step S14 and the count value of the counter for generating the display random number is updated during the timer interrupt process, the continuity of the count value may be lost. is there. However, such an inconvenience does not occur if the interrupt is disabled during the processing in step S14.
[0060]
When a timer interrupt occurs, the CPU 33 performs a register save process (step S20), and then executes a game control process of steps S21 to S31 shown in FIG. In the game control process, first, the CPU 33 inputs, via the switch circuit 58, detection signals of switches such as the gate switch 12a, the starting port switch 7a, the count switch 23, and the winning port switch 16a, and determines their states. (Switch processing: Step S21).
[0061]
Next, a process of updating the count value of each counter for generating each determination random number such as a big hit determination random number used for game control is performed (step S23). The CPU 33 further performs a process of updating the count value of the counter for generating the display random number (step S24).
[0062]
In this example, the big hit determination random number used to determine whether or not to generate a big hit, the loss symbol determination random number used to determine the left-middle-right loss symbol of the special symbol, the special symbol when generating the big hit The big hit symbol determining random number used when determining the combination, the changing pattern determining random number used for determining the special pattern changing pattern, the normal symbol hit judgment used to determine whether or not to generate a hit based on the normal symbol Various random numbers such as a random number for use and an initial value determination random number used for determining an initial value of each random number are prepared.
[0063]
In step S23, the CPU 33 counts up (adds 1) a counter for generating the big hit determination random number, the big hit symbol determination random number, and the normal symbol hit determination random number. That is, these are the random numbers for determination, and the other random numbers are the random numbers for display or the random numbers for initial values.
[0064]
Further, the CPU 33 performs a special symbol process (step S25). In the special symbol process control, a corresponding process is selected and executed according to a special symbol process flag for controlling the pachinko gaming machine 1 in a predetermined order according to a gaming state. Then, the value of the special symbol process flag is updated during each processing according to the gaming state. Also, a normal symbol process is performed (step S26). In the normal symbol process process, a corresponding process is selected and executed according to a normal symbol process flag for controlling the display state of the normal symbol display device 14 in a predetermined order. Then, the value of the normal symbol process flag is updated during each processing according to the gaming state.
[0065]
Next, the CPU 33 performs a process of setting an effect control command relating to the special symbol in a predetermined area of the RAM 55 and transmitting the effect control command (special symbol command control process: step S27). Further, a process of setting an effect control command relating to a normal symbol in a predetermined area of the RAM 32 and transmitting the effect control command is performed (ordinary symbol command control process: step S28).
[0066]
Further, the CPU 33 performs an information output process of outputting data such as big hit information, start information, and probability fluctuation information supplied to the hall management computer (step S29).
[0067]
Further, the CPU 33 issues a drive command to the solenoid circuit when a predetermined condition is satisfied (step S30). In order to open or close the variable winning ball device 9 or the opening / closing plate 11 or to switch the game ball path in the special winning opening 10, the solenoid circuit provided in the main board 30 uses a solenoid 9a in response to a drive command. , 11a, 12a.
[0068]
Then, the CPU 33 executes a prize ball process for setting the number of prize balls based on the detection signals of the winning opening switches 16a, 17a, 18a, 19a (step S32). Specifically, a payout control command indicating the number of prize balls is output to the payout control board 40 in response to a winning detection based on the turning on of any of the winning opening switches 16a, 17a, 18a, 19a. The payout control CPU mounted on the payout control board 40 drives the ball payout device according to a payout control command indicating the number of winning balls. Thereafter, the contents of the register are restored (step S32), and the state is set to an interrupt permission state (step S33).
[0069]
According to the above control, in this embodiment, the game control process is started every 2 ms. In this embodiment, the game control process is executed in the timer interrupt process. However, in the timer interrupt process, for example, only a flag indicating that an interrupt has occurred is set, and the game control process is executed in the main process. It may be executed.
[0070]
In this embodiment, symbols “1” to “12” are variably displayed (varied) on the variable display device 6 as a left symbol, a middle symbol, and a right symbol, respectively. The symbols “1” to “12” are assigned symbol numbers 0 to 11. A big hit occurs when the final stop symbols (fixed symbols) on the variable display device 6 are completed. When the odd symbols are completed, the state changes to a high probability state (probable change state) in which the probability of the occurrence of a big hit is improved.
[0071]
FIG. 8 is a flowchart showing an example of a special symbol process processing program executed by the CPU 33. The special symbol process shown in FIG. 8 is a specific process of step S25 in the flowchart of FIG. When performing the special symbol process process, the CPU 33 performs the variation reduction timer subtraction process (step S310) and the winning confirmation process (step S311), and then performs any one of steps S301 to S309 according to the internal state. Perform processing. The fluctuation shortening timer is a timer for setting the fluctuation time when the fluctuation time of the special symbol is shortened.
[0072]
Winning confirmation process (step S311): Waits for a hit ball in the starting winning opening 7 and waits for the starting opening switch 7a to be turned on. When the start port switch 7a is turned on, unless the number of stored start winnings is full (in a state where the maximum value of 4 in this embodiment has been reached), the number of stored start winnings is incremented by 1 and the big hit determination Extract each random number such as a random number. Then, they are stored in a random number value storage area corresponding to the value of the number of stored start winnings. In addition, a process for transmitting a command for specifying the start winning storage memory that specifies the number of start winning storages after the addition is performed.
[0073]
Special symbol normal processing (step S301): Waits for the state where the variable display of the special symbol can be started (when the value of the special symbol process flag is a value indicating step S301). The case where the value of the special symbol process flag is a value indicating step S301 is a case where the symbol is not changed on the variable display device 6 and the big hit game is not being performed. When the state in which the variable display of the special symbol can be started, the number of the start winning prize stored is confirmed. If the start winning storage number is not 0, the internal state (special symbol process flag) is updated to shift to step S302.
[0074]
Stop symbol setting process (step S302): Reads out the value stored in the random number storage area corresponding to the number of start winning storage = 1, reduces the value of the number of start winning storage by 1, and stores the value of each random number storage area. Shift the value. That is, each value stored in the random number value storage area corresponding to the number of start winning prizes = n (n = 2, 3, 4) is stored in the random number value storage area corresponding to the number of start prize memories = n-1. I do. Then, based on the value (such as the value of the random number for jackpot determination) stored in the random number value storage area corresponding to the number of start winning memorandum = 1, it is determined whether a jackpot, a loss, a reach, and the like are determined. And the stop symbol of the left middle right symbol is determined based on the control state at the start of variable display and the like. Upon completion of the process, the internal state (special symbol process flag) is updated so as to proceed to step S303.
[0075]
Variation pattern setting process (step S303): The variation pattern of the symbol is determined based on the value of the stop symbol or the variation pattern determination random number determined in the stop symbol setting process. Upon completion of the processing, the internal state (special symbol process flag) is updated so as to shift to step S304.
[0076]
All symbol variation processing (step S304): The variable display device 6 is controlled so that all symbols start to vary. At this time, the information (effect control command) for instructing the left middle right final stop symbol and the variation mode (variation pattern) is transmitted to the effect control board 100. Specifically, when starting the variable display, the game control means transmits an effect control command for designating a fluctuation pattern, and subsequently, an effect control command for designating a left symbol, a middle symbol, and a right symbol. . Upon completion of the process, the internal state (special symbol process flag) is updated so as to shift to step S305.
[0077]
All symbol stop processing (step S305): After a predetermined time (time corresponding to the value set in the timer in step S304) elapses, an instruction to stop all the symbols in order to finally stop (fix) the left and right middle symbols. Send a control command. All the symbols displayed on the variable display device 6 are stopped based on the reception of the effect control command. Then, when the stopped symbol is a combination of big hit symbols, the game control means updates the internal state (special symbol process flag) so as to shift to step S306. If not, the internal state is updated to shift to step S301.
[0078]
Preliminary winning opening processing (step S306): Control for opening the winning opening is started. Specifically, the counter and the flag are initialized, and the special winning opening door solenoid 11a is driven to open the special winning opening. Further, the execution time of the special winning opening opening process is set by the process timer, and a big hit flag (a flag indicating that a big hit is being performed) is set. Upon completion of the process, the internal state (special symbol process flag) is updated so as to shift to step S307.
[0079]
Processing during opening of the special winning opening (step S307): Control for transmitting effect control command data of the special winning opening round display to the effect control board 100, processing for confirming establishment of the closing condition of the special winning opening, and the like are performed. When the final closing condition of the special winning opening is satisfied, the internal state is updated to shift to step S308.
[0080]
Specific area valid time processing (step S308): The presence or absence of passage of the specific area switch 22 is monitored, and processing for confirming the establishment of the big hit game state continuation condition is performed. If the condition of the big hit game state continuation is satisfied and there are still remaining rounds, the internal state is updated to shift to step S306. Also, if the big hit game state continuation condition is not satisfied within the predetermined effective time, or if all rounds have been completed, the internal state is updated to shift to step S309.
[0081]
Big hit end processing (step S309): An effect control command for instructing a display to notify the player that the big hit gaming state has ended is transmitted. When the display period ends, the internal state is updated so as to shift to step S301.
[0082]
In this example, information transmission such as an instruction from the game control means to each electric component control means is performed by a control command. The control command has, for example, a 2-byte configuration. The first byte represents MODE (classification of command), and the second byte represents EXT (type of command). The effect control means mounted on the effect control board 100 detects that the INT signal (capture signal) has risen, starts the process of capturing one byte of data (MODE data) by interrupt processing, and thereafter The process of capturing 1-byte data (EXT data) is started by the interrupt process.
[0083]
Next, the operation of the effect control means will be described. FIG. 9 is a flowchart showing a main process executed by the effect control CPU 101. In the main process, first, an initialization process for clearing a RAM area, setting various initial values, and initializing a 2 ms timer for determining an activation interval of effect control is performed (step S701). After that, the effect control CPU 101 proceeds to a loop process for checking the monitoring of the timer interrupt flag (step S702). When a timer interrupt occurs, effect control CPU 101 sets a timer interrupt flag in the interrupt processing. In the main processing, if the timer interrupt flag is set, the effect control CPU 101 clears the flag (step S703) and executes the following effect control processing.
[0084]
In this embodiment, a timer interrupt occurs every 2 ms. That is, the effect control process is activated every 2 ms. Further, in this embodiment, only the flag is set in the timer interrupt process, and the specific effect control process is executed in the main process. However, the effect control process may be executed in the timer interrupt process.
[0085]
In the effect control process, first, effect control CPU 101 analyzes the received effect control command (command analysis execution process: step S704). Next, the effect control CPU 101 performs an effect control process (step S705). In the effect control process processing, a process corresponding to the current control state is selected and executed from among the processes corresponding to the control state. Then, a process of updating various random number counters used in the effect control board 100 is executed (step S706). Further, the effect control CPU 101 issues a drive command to a solenoid circuit (not shown) included in the movable accessory control unit 100 when performing an effect using the game effect devices 25A, 25B, and 25C (step S707). In order to operate the game effect devices 25A, 25B, and 25C, a solenoid circuit (not shown) provided in the movable accessory control unit 100 drives the solenoids 25a, 25b, and 25c according to a drive command. After that, the process returns to step S702 for checking the timer interrupt flag.
[0086]
Here, the reception of the effect control command from the main board 30 will be described. Although not shown, the effect control board 100 includes a command receiving buffer for storing the effect control command received from the main board 30. For example, a ring-buffer-type command reception buffer capable of storing six effect control commands having a 2-byte configuration is used. The effect control means is controlled based on the latest command stored in a storage area such as a fluctuation pattern. Thus, it is possible to quickly respond to an instruction from the main board 30. The effect control CPU 101 is interrupted when the INT signal from the main board 30 is turned on, executes a process for receiving an effect control command, and stores the received effect control command in a command reception buffer.
[0087]
Then, the contents of the command stored in the reception command buffer are confirmed in the command analysis processing (step S704), and processing such as setting of a flag corresponding to the reception command is performed. For example, if the received command in the command receiving buffer is a symbol designating command for designating the left middle right symbol, data that can specify the designated symbol included in the command is stored in the stop symbol storage area, and the corresponding validity is stored. Set a flag. Further, for example, if the received command in the command receiving buffer is a fluctuation pattern command specifying an effect pattern, data that can specify the fluctuation pattern included in the command is stored in the fluctuation pattern storage area, and the fluctuation pattern reception flag is stored. Is set.
[0088]
FIG. 10 is a flowchart showing the effect control process process (step S705) in the main process shown in FIG. In the effect control process, any one of steps S800 to S806 is performed according to the value of the display control process flag. In each process, the following process is performed.
[0089]
Variation pattern command reception waiting process (step S800): It is confirmed whether or not an effect control command (variation pattern command) capable of specifying a variation time has been received. Specifically, it is confirmed whether or not a flag indicating that the variation pattern command has been received (variation pattern reception flag) has been set. The variation pattern reception flag is set when it is confirmed in the command analysis processing that the effect control command for designating the variation pattern has been received. If the fluctuation pattern reception flag is set, the value of the display control process flag is set to a value corresponding to the reach announcement processing.
[0090]
Reach announcement process (step S801): Determines whether or not to perform the reach announcement effect, and determines the contents of the reach announcement effect when it is determined to perform the reach announcement effect. When determined, the value of the display control process flag is set to a value corresponding to the entire symbol change start process.
[0091]
All symbol variation start processing (step S802): Control is performed so that the variation of the left middle right symbol is started. Then, the value of the display control process flag is set to a value corresponding to the symbol change processing.
[0092]
Symbol variation processing (step S803): The switching timing of each variation state (variation speed) constituting the variation pattern is controlled, and the end of the variation time is monitored. Also, stop control of the left and right symbols is performed. When the processing is completed, the value of the display control process flag is set to a value corresponding to the all symbol stop waiting processing.
[0093]
All symbols stop wait setting process (step S804): At the end of the fluctuation time, if an effect control command instructing to stop all the symbols has been received, the control of stopping the fluctuation of the symbols and displaying a stopped symbol (fixed symbol) is performed. . Then, in the case of the jackpot display mode, the value of the display control process flag is set to a value corresponding to the jackpot display process, and in the case of a loss, the value of the display control process flag is set to a value corresponding to the variation pattern command reception waiting process. I do.
[0094]
Big hit display processing (step S805): After the end of the fluctuation time, the control of the probability change big hit display or the normal big hit display is performed. When the display period ends, the value of the display control process flag is set to a value corresponding to the big hit game processing.
[0095]
Big hit game processing (step S806): Control during the big hit game. For example, upon receiving an effect control command for display before opening the special winning opening or display when opening the special winning opening, display control of the number of rounds is performed. When the control during the big hit game is finished, the value of the display control process flag is set to a value corresponding to the fluctuation pattern command reception waiting process.
[0096]
FIG. 11 is an explanatory diagram showing a configuration example of process data set for each variation pattern table. The process data is constituted by data in which a plurality of combinations of the process timer set value and the effect control execution table are collected. In each of the effect control execution tables, display control execution data in which each change mode constituting a display control change pattern such as the variable display effect 9 is described, and a display control change pattern such as a lamp / LED are formed. Lamp control execution data describing each variation mode to be performed, and sound control execution data describing each variation mode constituting a variation pattern of the audio output control of the speaker 27 and the like. In the process timer set value, a variation time in the variation mode is set. The effect control CPU 101 refers to the process data, variably displays the symbols in the variation mode set in the effect control execution table for the time set in the process timer set value, and turns on / off the light emitter. , And output a sound from the speaker 27.
[0097]
The process data shown in FIG. 11 is stored in the ROM of the effect control board 100, and is based on the process data set in the variation pattern table selected as the use table in the all symbol variation start processing (step S802). The control of the variable display device 6, the lamp / LED 24, and the speakers 20L and 20R is started, and the control according to the control execution data is sequentially executed in the symbol change processing (step S803). The process data is prepared according to each of the variation patterns.
[0098]
FIG. 12 is an explanatory diagram showing an example of a data structure of moving image data used in a game effect. In this example, the moving image data is stored in the ROM included in the effect control board 100. In this example, the moving image data used in the game effect is stored in the CGROM 83 provided in the effect control board 100 in a state where the data is compressed by an encoding technique called MPEG2.
[0099]
In this example, a plurality of types of moving image effects based on moving image data are prepared in advance. That is, a plurality of types of moving image data are prepared in advance and stored in the CGROM 83. In this example, the CGROM 83 stores the moving image data used at the time of the big hit game effect, the moving image data used at the time of the reach effect, and the like for each effect used. Then, for example, when a moving image effect is executed, moving image data to be used is selected using, for example, a random number or the like, and a moving image effect based on the selected moving image data is executed.
[0100]
As shown in FIG. 12, the moving image data is configured by stream data called a sequence. A sequence starts with a sequence header that contains information related to the entire sequence, such as information indicating the size of an image, and ends with a sequence end. This sequence is composed of, for example, encoded data of the entire video program for realizing one unit of game presentation by a moving image. That is, in this example, a sequence is prepared in advance for each type of game effect by a moving image, and the moving image data for executing the game effect by the moving image is constituted by one sequence. The sequence includes MPEG2 function extension information and at least one GOP (Group Of Picture). The MPEG2 function extension information included in the sequence includes various information such as information indicating that the data is encoded data conforming to MPEG2.
[0101]
Each GOP includes a GOP header and at least one of I, P, and B pictures. Here, an I picture is a picture that has been encoded by intra-frame encoding. The P picture is a picture for which motion compensation prediction in the forward direction is performed using only past frames. A B picture is a picture for which bidirectional motion compensated prediction is performed using both past and future frames.
[0102]
Each picture includes a picture header, MPEG2 extension information, and at least one slice. The picture header includes information for identifying one of an I picture, a P picture, and a B picture, information for specifying a display order of each picture, and the like. The MPEG2 function extension information included in the picture includes, for example, information for setting a frame structure and a field structure. A slice refers to one unit into which a picture is subdivided in order to realize intra-frame coding.
[0103]
Each slice includes slice information and at least one macroblock. The slice information includes coding information used in the slice. For example, information indicating a quantization characteristic corresponds to the encoded information.
[0104]
Each macroblock includes macroblock information and a plurality of blocks. One macro block includes, for example, four luminance signal blocks and two (one each of a Cr signal and a Cb signal) color difference signal blocks. The macroblock information includes information for performing coding control in macroblock units. Each block is composed of DCT (discrete cosine transform) coefficient data (a coefficient group obtained by discrete cosine transform) of one of a luminance signal, a Cr signal, and a Cb signal. Each block ends with an EOB (End Of Block) code.
[0105]
In this example, each sequence uses a large number of I-pictures used as key frames in a portion where a display object such as a character displayed during reproduction moves fast. In addition, each sequence is configured to use many P-pictures and B-pictures in portions where the movement of a display object such as a character displayed during reproduction is small. In particular, in a portion where the display object does not move or a portion where the motion is particularly small, the configuration is such that many B pictures having the least data amount are used.
[0106]
As described above, since the moving image data is constituted by using a lot of key frame data (for example, I picture data) in a portion where the movement of the display object is fast, the effect is produced by the moving image in which the fast moving object is displayed. Even in the case of performing this, it is possible to obtain an image of good image quality with almost no loss of information by decoding, and it is possible to produce a moving image with such a good image. Therefore, it is possible to improve the image quality of the portion where the movement of the display object is fast.
[0107]
In addition, as described above, in the portion where the movement of the display object is slow, a large amount of forward prediction coded frame data (for example, P picture data) or bidirectional prediction coded frame data (for example, B picture data) is used for moving image data. Therefore, the data amount of the moving image data can be reduced without deteriorating the image quality. Such an effect is more remarkable as the portion of the moving image reproduced by the moving image data where the movement of the display object is faster is smaller because the data compression ratio is improved.
[0108]
That is, as described above, the key frame data is frequently used for the portion where the movement of the display object is fast, and the forward prediction coded frame data or the bidirectional prediction coded frame data is frequently used for the portion where the movement of the display object is slow. Since the moving image data is created in this way, the overall image quality can be improved, and the total amount of moving image data can be reduced.
[0109]
Next, a function of the GCL 81 mounted on the effect control board 100 will be described. The GCL 81 has a function of executing various effects based on moving images using moving image data in accordance with instructions from the effect control CPU 101.
[0110]
FIG. 13 is a flowchart illustrating an example of a decoding process performed by the GCL 81. In the decoding process, first, if all of a fade-in flag, a fade-out flag, and a still display flag described later are off (N in step S201), the GCL 81 uses the moving image data ( The picture data indicating the picture is read from the sequence (step S202). The picture data is read out in such an order that it can be reproduced according to the order arranged in the moving picture data. The order of reproduction and the order of decoding do not always match. For example, a B picture is decoded after decoding an I picture or a P picture arranged thereafter.
[0111]
If the read picture data is a still display target picture (Y in step S203), the GCL 81 turns on the still display flag (step S204), and starts the still display time timer (step S205).
[0112]
The still display target picture means a picture that is predetermined as a picture that is to be displayed continuously for a predetermined period. Information indicating whether the picture is a still display target picture is stored in the MPEG2 function extension information of each picture. Therefore, the GCL 81 can determine whether or not the read picture is a still display target picture by checking the MPEG2 function extension information of each picture.
[0113]
The still display flag is provided, for example, in a predetermined area of the RAM 103 included in the effect control board 100, and is turned off after the still display flag is turned on in the processing shown in FIG. 13 and FIG. This is a flag used to determine whether or not a series of processes up to the setting is performed.
[0114]
The still display time timer is a timer for measuring a period (for example, a period of 3 seconds, 5 seconds, or the like) during which the still display processing is performed by the still display target picture. For example, the still display time timer is configured by the effect control CPU 301 including a counter. Specifically, the effect control CPU 301 monitors the count value of a counter that counts up every predetermined period (for example, 2 ms), and performs a predetermined number of times after the start of measurement (for example, 1500 times when measuring 3 seconds). When it is determined that the counting has been performed, it is determined that the measurement time has elapsed, so that the still display time is measured.
[0115]
If the picture data read in step S202 is a picture to be faded-in (Y in step S206), the GCL 81 turns on the fade-in flag (step S207), and controls the moving image compression / decompression unit 89 to read out. The picture data is decoded (step S208), and the decoded picture data is stored in a predetermined fade-in still image storage area for each frame (step S209). When performing decoding, the moving image compression / expansion unit 89 executes a decoding process according to whether the target picture data is I picture data, P picture data, or B picture data. I do.
[0116]
The fade-in target picture means a picture that is predetermined as a picture used for the fade-in process. Information indicating whether or not the picture is a fade-in target picture is stored in the MPEG2 function extension information of each picture. Therefore, the GCL 81 can determine whether or not the read picture is a fade-in target picture by checking the MPEG2 function extension information of each picture.
[0117]
The fade-in flag is provided, for example, in a predetermined area of the RAM 103 included in the effect control board 100, and is a flag used to determine whether to execute the fade-in process.
[0118]
The fade-in still image storage area is provided, for example, in a predetermined area of the SDRAM 84 in order to store a fade-in target picture, which is a fade-in target still image, in frame units.
[0119]
If the picture data read in step S202 is a picture to be faded out (Y in step S210), the GCL 81 turns on the fade-out flag (step S211) and controls the moving picture compression / decompression unit 89 to read out the picture data. Is decoded (step S212), and the decoded picture data is stored in a predetermined fade-out target still image storage area in frame units (step S213).
[0120]
The fade-out target picture means a picture that is predetermined as a picture used for the fade-out processing. Information indicating whether or not the picture is a fade-out target picture is stored in the MPEG2 function extension information of each picture. Therefore, the GCL 81 can determine whether the read-out picture is a picture to be faded out by checking the MPEG2 function extension information of each picture.
[0121]
The fade-out flag is provided, for example, in a predetermined area of the RAM 103 included in the effect control board 100, and is a flag used for determining whether or not to execute the fade-out process.
[0122]
The fade-out target still image storage area is provided, for example, in a predetermined area of the SDRAM 84 in order to store a fade-out target picture, which is a fade-out target still image, in frame units.
[0123]
If the picture data read in step S202 is a picture to be combined and displayed (Y in step S214), the GCL 81 executes a continuous decoding process (step S215). The continuous decoding process will be described later in detail.
[0124]
If the picture data read in step S202 is not any of the still display target picture, the fade-in target picture, the fade-out target picture, and the composite display target picture (N in step S214), the GCL 81 causes the moving image compression / expansion unit 89 And decodes the read picture data (step S216), and expands the decoded picture data on a frame basis in a development area of the image memory pointed to by the development area designation pointer (step S217). Then, the GCL 81 updates the value of the development area designation pointer so that the development area designation pointer points to the next development area to be used (step S218).
[0125]
The image memory is provided, for example, in a predetermined area of the SDRAM 84 in order to expand image data used for reproduction in frame units. The image memory is provided with a plurality of development areas for developing image data in frame units. The development area designation pointer is a pointer provided in, for example, a predetermined area of the SDRAM 84 and pointing to a development area where the decoded image data is developed. For example, when the image memory is provided with twelve development areas from the development area 0 to the development area 11, the development area designation pointer takes a value in the range of 0 to 11. Then, in step S218, the value of the development area designation pointer is updated to a value that is developed in the image memory in the order in which the decoded image data is reproduced. Then, in step S217 of the next decoding process, the GCL 81 selects a development area in which the same value as the value of the development area designation pointer is set as an area for developing image data.
[0126]
Specifically, for example, when the pictures are reproduced in the order of an I picture, a B1 picture, a B2 picture, and a P picture, the pictures are decoded in the order of an I picture, a P picture, a B1 picture, and a B2 picture. In this case, after expanding the image data of the I picture in the image memory, add 3 to the value of the expansion area designation pointer, expand the image data of the P picture in the expansion area indicated by the expansion area specification pointer after the addition, and then specify the expansion area. The value of the pointer is subtracted by 2, the image data of the B1 picture is expanded to the expansion area indicated by the expansion area specification pointer after the subtraction, and the value of the expansion area specification pointer is incremented by one. After the image data of the B2 picture is expanded in the area, the value of the expansion area designation pointer may be updated according to the picture to be decoded next. When the value of the development area designation pointer becomes 12, the value is returned to 0.
[0127]
FIG. 14 is a flowchart illustrating an example of the continuous decoding process (step S215) executed by the GCL 81. In the continuous decoding process, a process of continuously decoding a plurality of pictures for generating one composite image is executed. In the continuous decoding process, the GCL 81 first adds 1 to the remaining number of combined display executions (step S221), and in this example, sets the number of processes to 3 (step S222). Note that, in this example, the remaining number of combined display executions and the number of processes are stored in a predetermined area of the RAM 103 provided in the effect control board 100. The remaining number of combined display executions indicates the number of remaining images for which decoding processing for performing combined display has been performed but for which combined display has not been completed. Further, in this example, the number of processes is equal to the number of images used to generate the composite image.
[0128]
Next, the GCL 81 controls the moving image compression / decompression unit 89 to decode the read picture data (step S223), designate depth display position information for the read picture (step S224), and decode the decoded picture data. Is stored in a predetermined compositing target image storage area in frame units (step S225).
[0129]
The synthesis target picture means a picture that is predetermined as a synthesis target image for generating a synthesis image. The information indicating whether or not the picture is a composite display target picture is stored in the MPEG2 function extension information of each picture. Therefore, the GCL 81 can determine whether or not the read-out picture is a picture to be combined and displayed by checking the MPEG2 function extension information of each picture. In this example, among the plurality of pictures to be combined with each other, only the MPEG2 function extension information of the first combined display target picture that is read out includes information indicating that the picture is the combined display target picture and the picture of the picture used for combination. Information indicating the number is stored. Then, the number of processes set in step S222 is set according to the information indicating the number of pictures used for synthesis stored in the MPEG2 function extension information.
[0130]
The depth display position information is information indicating the coordinates in the depth direction when displayed on the LCD 6, and is stored in the MPEG2 function extension information of each picture used for synthesis. Therefore, the GCL 81 can acquire the depth display position information of the read picture by checking the MPEG2 function extension information of each picture. In the processing in steps S224 and S225, the decoded picture data and the depth display position information for the picture data are stored in a predetermined compositing target image storage area. The coordinate in the depth direction means a value on a coordinate axis when the coordinate axis is set in the front-rear direction (a direction from the front side to the back side) of the display screen of the LCD 6. Set to be larger. Therefore, when a combined image is generated, an image having a smaller value of depth display position information is combined with the front side, and an image having a larger value of depth display position information is combined with the back side. Further, since the value of the depth display position information is small and the image synthesized on the front side is smaller than the image synthesized on the back side with the large value of the depth display position information, it can be said that the image has a smaller value. An image having depth display position information may be referred to as a “high-priority image”, and an image having a greater depth display position information may be referred to as a “low-priority image”.
[0131]
In the present example, a group of compositing target image storage areas having a number of compositing target image storage areas equal to the number of pictures used for compositing is provided. For example, a predetermined number of image storage area groups are prepared in a predetermined area of the SDRAM 84. In this example, each group of the synthesis target image storage areas includes three synthesis target image storage areas corresponding to the number of processes. In step S225, the decoded picture data and the like are stored in the compositing target image storage area corresponding to the current number of processes in the compositing target image storage area group indicated by the image group storage area designation pointer.
[0132]
The image group storage area designation pointer is a pointer provided in, for example, a predetermined area of the SDRAM 84 and pointing to a group of synthesis target image storage areas for storing a group of synthesis target image data used for generating one synthesized image. For example, when there are twelve image storage area groups from the storage area group 0 to the storage area group 11, the image group storage area designation pointer takes a value in the range of 0 to 11. Then, in step S229, which will be described later, the value of the image group storage area designation pointer is updated to a value indicating the image storage area group to be combined that stores the next group of picture data used for composition. Then, in the next continuous decoding process, the GCL 81 sets the synthesis target image storage area group in which the same value as the value of the updated image group storage area designation pointer is set as an area for storing a group of picture data. Is selected as
[0133]
When the process in step S225 is completed, the GCL 81 subtracts 1 from the number of processes (step S226), and if the number of processes is not 0 (N in step S227), reads out the next picture data from the moving image data to be used (step S227). S228). Then, the processing of steps S223 to S227 is executed again. In this example, the processing of step S223 to step S227 is repeatedly performed three times, three pieces of picture data for generating one combined image are read, and the decoded combining target image data and the depth display position information Are stored in the respective synthesis target image storage areas in the synthesis target image storage area group.
[0134]
If the number of processes is 0 in the confirmation process in step S227 (Y in step S227), the GCL 81 changes the value to a value indicating the group of image storage regions to be used in the next continuous decoding process. Then, the value of the image group storage area designation pointer is updated (step S229).
[0135]
As described above, the plurality of synthesis target images used to generate one composite image are stored in each synthesis target image storage area in the synthesis target image storage area group together with the respective depth display position information. You.
[0136]
FIG. 15 is a flowchart illustrating an example of the moving image reproduction process executed by the GCL 81. In the moving image reproduction process, if the fade-in flag is on (Y in step S231), the GCL 81 executes a fade-in process described later (step S232). If the fade-out flag is on (Y in step S233), a fade-out process described later is executed (step S234).
[0137]
If neither the fade-in flag nor the fade-out flag is in the ON state (N in step S233), the GCL 81 checks the value of the remaining number of combined display executions, and if the remaining number of combined display execution is not 0 (Y in step S235). Then, a composite image display process is executed (step S236). The composite image display processing will be described later in detail.
[0138]
If the remaining number of combined display executions is 0 (N in step S235), the GCL 81 displays an image on the LCD 6 using the frame data developed in the development area of the image memory pointed to by the reproduction area designation pointer (step S237). ).
[0139]
Next, if the still display flag is in the ON state (Y in step S238), the GCL 81 confirms whether or not the still display time timer has timed out because the still display process is being performed using the still display target picture. (Step S239). If the still display time timer has timed out, the GCL 81 sets the still display flag to the off state (step S240), and sets the reproduction area designation pointer to the next development area to be used. The value of the area designation pointer is updated (step S241). If the still display time timer has not timed out, the value of the reproduction area designation pointer is not updated in order to continue the still display processing.
[0140]
The reproduction area designation pointer is, for example, a pointer provided in a predetermined area of the SDRAM 84 and indicates a development area in which image data to be used next for performing moving image reproduction is developed. For example, when the image memory is provided with twelve development areas from the development area 0 to the development area 11, the reproduction area designation pointer takes a value in the range from 0 to 11, and the reproduction area is designated in step S241. The value of the area designation pointer is configured to be incremented by one. When the value of the reproduction area designation pointer becomes 12, the value is returned to 0. In step S237, the GCL 81 selects, in step S237, a development area in which the same value as the value of the reproduction area designation pointer is set as an area in which image data to be used next for moving image reproduction is stored. .
[0141]
The above-described moving image reproduction process is executed, for example, after the above-described decryption process. However, since the order in which the image data is decoded and the order in which the image data is reproduced are different, the decoding process needs to be executed at least several times before the moving image reproduction process. The decoding process and the moving image reproduction process are called up and repeatedly executed when a game effect using a moving image is performed. By repeatedly executing the decoding process and the moving image reproduction process, a moving image based on the compressed moving image data is displayed on the screen of the LCD 6, and a game effect is executed.
[0142]
Next, a composite image display process performed by the effect control unit will be described. FIG. 16 is a flowchart illustrating an example of the composite image display process (step S236) executed by the GCL 81. In the composite image display process, the GCL 81 first sets the number of processes (step S251). In this example, the same number of values as the number of processes set in step S222 described above is set as the number of processes. Therefore, for example, the number of processes set in step S222 is stored in a predetermined compositing target image storage area, and a reference is made to a compositing target image storage area in which picture data used for a translucent process described later is stored. The number of processes may be set by setting.
[0143]
After setting the number of processes, the GCL 81 executes a translucent process described below (step S252), and subtracts 1 from the number of processes (step S253). Then, the translucent process is repeatedly executed until the number of processes becomes 0 (steps S252 to S254). When the number of processes becomes zero, the GCL 81 generates synthesized image data obtained by synthesizing a plurality of synthesized execution image data generated by the translucent process and stored in the synthesized execution image storage area (step S255). At the time of combining, it is determined whether each combined execution image is to be the front side or the back side based on the depth display position information in each combined execution image data. Then, the GCL 81 displays the composite image based on the generated composite image data on the LCD 6 (step S256), subtracts 1 from the remaining number of the composite display execution (step S257), and sets the value of the compositing target image group designation pointer to be described later. Update (step S258).
[0144]
Next, the fade-in process by the effect control unit will be described. FIG. 17 is a flowchart illustrating an example of the fade-in process executed by the GCL 81. The fade-in process is executed, for example, when switching between an effect based on a still image and an effect based on a moving image. Here, as the fade-in processing, the transparency (transparency) of the still image to be faded in is gradually reduced when the effect of the still image ends and the effect is switched to the effect of the moving image. Processing is performed to make the still image appear gradually and gradually. The fade-in target still image is, for example, an image that is displayed first among the moving images used for the effect. In this case, the picture reproduced first in the sequence is the still image to be faded in.
[0145]
In the fade-in processing, the GCL 81 reads out the image data of the still image to be fade-in stored in the still image storage area to be fade-in, and also reads out image data predetermined as an intermediate image (step S261). For example, a background image of a single color such as blue or white is used as the intermediate image.
[0146]
Next, the GCL 81 creates a fade-in image by executing the transparency calculation processing (step S262). In the present example, as the transparency calculation processing, a calculation as shown in FIG. 18 is performed. In the transparency calculation processing, for each pixel data (R, G, B data for specifying the display color of each pixel) in the fade-in target still image, each pixel data in the intermediate image at the same display position is converted. The used arithmetic processing is performed. Specifically, as shown in FIG. 18, the transparency calculation process divides the difference between the value indicated by the pixel data of the corresponding intermediate image and the value indicated by the pixel data of the still image subject to fade-in by 99, and calculates the value And N are added to the value indicated by the pixel data of the still image subject to fade-in. Each pixel data obtained by the transparency calculation processing is used as pixel data of a fade-in image. For example, the pixel data of the intermediate image at a certain display position is (R, G, B = 240, 160, 160), and the pixel data of the still image to be faded in at the same position is (R, G, B = 180, 130, 130) and N = 33, the pixel data of the fade-in image at that position is (R, G, B = 200, 140, 140). If the operation result does not become an integer, it may be converted to an integer by performing processing such as truncation below the decimal point.
[0147]
Note that “N” shown in FIG. 18 is a value for specifying the transparency of the fade-in image, and in this example, an integer from 0 to 99 is taken so that the transparency can be changed in 100 steps. I have to. In this example, when “N” is “0”, the fade-in image is the same as the fade-in target still image (that is, the transparency is 0%), and when “N” is “99”, the fade-in image is faded. The in-image is the same as the intermediate image (that is, the transparency is 100%). More specifically, in this example, when “N” in the numerical formula shown in FIG. 18 used for the transparency calculation processing is sequentially subtracted from “99” to “0”, the fade-in image obtained by the calculation result is , The intermediate image gradually approaches the fade-in target still image. In this example, the transparency is set to 100 levels, but may be set to other levels. In that case, the possible value of “N” is changed (if it is 200 stages, it is sufficient to take a value from 0 to 199), and “99” of the denominator shown in FIG. If it is a stage, it may be changed to "199").
[0148]
The formula used in the transparency calculation processing shown in FIG. 18 is a formula used when the value indicated by the pixel data of the still image to be faded in is smaller than the value indicated by the pixel data of the intermediate image. When the value indicated by the pixel data of the still image is larger than the value indicated by the pixel data of the intermediate image, “+” in the mathematical expression shown in FIG. 18 is changed to “−”, and the numerator of the fractional part is displayed. It is only necessary to use a mathematical expression in which the terms are replaced. That is, the difference between the value indicated by the pixel data of the corresponding fade-in target still image and the value indicated by the pixel data of the intermediate image is divided by 99, and the resulting value is multiplied by N to obtain the pixel data of the fade-in target still image. May be subtracted from the value indicated by.
[0149]
In this example, the transparency calculation processing in the fade-in processing is performed by using the mathematical formulas and the like shown in FIG. 18, but other calculation processing may be performed. Using the mathematical formula shown in FIG. 18, as the value of N decreases, a fade-in image that linearly approaches the fade-in target still image from the intermediate image can be obtained. Alternatively, a mathematical expression that can obtain a fade-in image that curves and approaches the fade-in target still image from the intermediate image may be used.
[0150]
When the fade-in image is created by the transparency calculation process, the GCL 81 executes a process of displaying the created fade-in image on the LCD 6 (step S263).
[0151]
The GCL 81 checks the value of N in the equation shown in FIG. 18 (step S264). If the value of N is not 0, the GCL 81 determines the transparency of the still image to be faded in by the fade-in process executed at the next timing. In order to further decrease the value, the value of N is updated to a value obtained by subtracting 1 (step S265). On the other hand, if the value of N is 0, the still image to be faded-in is clearly displayed in a complete state that is not completely transparent, and the still image to be faded in gradually appears. Since the series of fade-in processing to be performed has been completed, the value of N is updated to the initial value “99” in order to execute the next series of fade-in processing (step S266). . Further, since a series of fade-in processing is completed, the fade-in flag is turned off (step S267).
[0152]
The above-described fade-in process is called, for example, during the process of changing the symbol in the effect control process process. The call is made first at a predetermined timing when the fade-in process is started, and thereafter, the call is repeated a predetermined number of times (for example, 100 times including the first time) every predetermined period (for example, every 10 ms). Since the transparency calculation processing using the value of N that is subtracted is performed each time the call is repeatedly made, the transparency of the still image to be faded in gradually decreases by repeatedly performing the fade-in processing. Fade-in display is performed. For example, when an effect based on a moving image is started during the variable display effect, display is performed by the fade-in process such that the first image in the moving image that is a fade-in target still image gradually appears. . Then, finally, the still image to be faded in is displayed in a complete state in which the transparency is not reduced. Thereafter, reproduction of a moving image with the fade-in target still image as the first image is executed. Note that a series of fade-in processes repeatedly executed may be referred to as “fade-in process”.
[0153]
FIG. 19 is an explanatory diagram illustrating an example of a display state of the LCD 6 when the fade-in process is being performed. Here, a case where a fade-in process is executed in a game effect in the big hit game state will be described as an example. In this example, an image of a person, which is the first image in a moving image used for producing a moving image, is used as a fade-in still image, and a white single-color image is used as an intermediate image.
[0154]
In the case of performing the effect using the fade-in image, after the display effect using the still image ends, the intermediate image is displayed on the LCD 6 as shown in FIG. 19A, and the fade-in process is started. When the fade-in process is started, a fade-in target still image appears from the intermediate image as shown in FIG. 19 (B), and gradually becomes clear as shown in FIG. 19 (C). The image is displayed. Finally, as shown in FIG. 19D, the image of the person is displayed as a fade-in image in a completely opaque state that is not completely transparent. Note that the fade-in image shown in FIG. 19A is an image obtained by performing the above-described transparency calculation processing at N = 99, and FIG. FIG. 19C is an image obtained by executing the transparency calculation processing at, for example, N = 33, and FIG. 19D is an image obtained by performing the transparency calculation processing. This is an image obtained by performing the arithmetic processing with, for example, N = 0.
[0155]
When the image of the person is displayed in the opaque state shown in FIG. 19D and the fade-in process ends, in this example, the effect of the moving image using the finally displayed fade-in image as the initial image Is started. That is, for example, a moving image in which a person displayed in an opaque state starts moving and performs various operations is displayed on the LCD 6.
[0156]
As described above, the fade-in display is performed using the image data for one frame included in the moving image data, so that the fade-in display is performed without increasing the data amount of the moving image data. be able to. Therefore, the required capacity of the storage area for moving image data can be reduced. Further, since the data amount of the moving image data does not increase, it is not necessary to shorten the execution period of the fade-in display, and it is possible to perform the fade-in display in which the effect period is sufficiently secured. . Therefore, the fade-in display can be performed smoothly.
[0157]
In addition, as described above, in the fade-in process, the image is configured to appear stepwise via a predetermined intermediate image, so that it is easy to visually recognize the appearance of the image gradually. Fade-in display that can be performed can be performed.
[0158]
Next, the fade-out processing by the effect control means will be described. FIG. 20 is a flowchart illustrating an example of a fade-out process performed by the GCL 81. The fade-out process is executed, for example, when switching between an effect based on a still image and an effect based on a moving image. Here, as the fade-out processing, when the effect by the moving image ends and the effect is switched to the effect by the still image, the transparency of the still image to be faded out is gradually increased so that the still image to be faded out gradually disappears. A process is performed to make it go. The fade-out target still image is, for example, an image displayed last among the moving images used for the effect. In this case, the picture reproduced last in the sequence is the still image to be faded out.
[0159]
In the fade-out processing, the GCL 81 reads out the image data of the still image to be faded out stored in the still image storage area to be faded out, and also reads out the image data predetermined as the intermediate image (step S271). For example, a background image of a single color such as blue or white is used as the intermediate image.
[0160]
Next, the GCL 81 creates a fade-out image by executing the transparency calculation processing (step S272). In the present example, a calculation as shown in FIG. 21 is performed as the transparency calculation process. In the transparency calculation processing, for each pixel data (R, G, B data for specifying the display color of each pixel) in the fade-out target still image, each pixel data in the intermediate image having the same display position is used. Is performed. Specifically, as shown in FIG. 21, the transparency calculation processing divides the difference between the value indicated by the pixel data of the corresponding intermediate image and the value indicated by the pixel data of the still image image to be faded out by 99, and divides the difference by 99. The value indicated by the pixel data of the still image to be faded out is added to the value multiplied by M. Each pixel data obtained by the transparency calculation processing is used as pixel data of a fade-out image. For example, pixel data of an intermediate image at a certain display position is (R, G, B = 240, 160, 160), and pixel data of a still image to be faded out at the same position is (R, G, B = 180, 130, 130). ), And when M = 66, the pixel data of the fade-out image at that position is (R, G, B = 220, 150, 150). If the operation result does not become an integer, it may be converted to an integer by performing processing such as truncation below the decimal point.
[0161]
Note that “M” shown in FIG. 21 is a value for specifying the transparency of the fade-out image, and in this example, an integer from 0 to 99 is set so that the transparency can be changed in 100 steps. ing. In this example, when “M” is “0”, the fade-out image is the same as the fade-out target still image (that is, the transparency is 0%), and when “M” is “99”, the fade-out image is It is the same as the intermediate image (that is, the transparency is 100%). More specifically, in this example, when “M” of the mathematical expression shown in FIG. 21 used for the transparency calculation processing is sequentially added from “0” to “99”, the fade-out image obtained by the calculation result is The fade-out target still image gradually approaches the intermediate image. In this example, the transparency is set to 100 levels, but may be set to other levels. In this case, the possible value of “M” is changed (if it is 200, it is sufficient to take 0 to 199), and “99” of the denominator shown in FIG. If it is a stage, it may be changed to "199").
[0162]
The formula used in the transparency calculation processing shown in FIG. 21 is used when the value indicated by the pixel data of the still image to be faded out is smaller than the value indicated by the pixel data of the intermediate image. 21 is larger than the value indicated by the pixel data of the intermediate image, the “+” in the mathematical expression shown in FIG. 21 is changed to “−”, and each of the numerators in the fractional part is expressed. What is necessary is just to use the formula which replaced the term. That is, the difference between the value indicated by the pixel data of the corresponding fade-out target still image and the value indicated by the pixel data of the intermediate image is divided by 99, and the value obtained by multiplying the value by M is indicated by the pixel data of the fade-out target still image. What is necessary is just to subtract from a value.
[0163]
In this example, the transparency calculation processing in the fade-out processing is performed by using the mathematical formulas and the like shown in FIG. 21, but other calculation processing may be performed. Using the mathematical formula shown in FIG. 21, as the value of M is increased, a fade-out image that linearly approaches the intermediate image can be obtained from the fade-out target still image. It is also possible to use a mathematical formula that can obtain a fade-out image that approaches the intermediate image in a curved manner from the target still image.
[0164]
When the fade-out image is created by the transparency calculation process, the GCL 81 executes a process of displaying the created fade-out image on the LCD 6 (step S273).
[0165]
Then, the GCL 81 checks the value of M in the formula shown in FIG. 21 (step S274). If the value of M is not 99, the transparency of the still image to be faded out is further increased by the fade-out process executed at the next timing. Therefore, the value of M is updated to a value obtained by adding 1 (step S275). On the other hand, if the value of M is 99, the image is completely transparent and the image of the fade-out target still image has disappeared, and a series of fade-out processing in which the fade-out target still image gradually disappears is performed. Is completed, the value of M is updated to the initial value “0” for the next series of fade-out processing (step S276). Further, since a series of fade-out processing is completed, the fade-out flag is turned off (step S277).
[0166]
The above-described fade-out process is called, for example, during the process of changing symbols in the effect control process process. The call is made first at a predetermined timing at which the fade-out process is started, and thereafter, the call is repeated a predetermined number of times (for example, 100 times including the first time) every predetermined period (for example, every 10 ms). The fade-out display in which the transparency of the still image to be faded out is gradually increased by repeatedly performing the fade-out processing because the transparency calculation processing using the value of M added each time the call is repeatedly performed is performed. Will be done. For example, an effect by a moving image is performed during the variable display effect, and when the effect by the moving image ends, the last image in the moving image that is a fade-out target still image gradually disappears by the fade-out processing. Is displayed. Finally, the still image to be faded out is completely transparent, and the intermediate image is displayed. Then, the game effect by the moving image ends, for example, the effect by the still image is started. A series of fade-out processes that are repeatedly executed may be referred to as “fade-out process”.
[0167]
FIG. 22 is an explanatory diagram illustrating an example of a display state of the LCD 6 when the fade-out process is being performed. Here, a case will be described as an example where a fade-out process is executed in a game effect in the big hit game state. In this example, an image of a person, which is the last image in a moving image used for producing a moving image, is used as a still image to be faded out, and a white single-color image is used as an intermediate image.
[0168]
In the case of performing an effect using a fade-out image, the fade-out process starts when the last image of the reproduced moving image is displayed, as shown in FIG. When the fade-out process starts, the still image to be faded out gradually becomes blurred as shown in FIG. 22 (B), and becomes a display state in which it becomes gradually difficult to visually recognize as shown in FIG. 22 (C). A fading out image is displayed. Finally, as shown in FIG. 22D, an image in which the image of the person has been completely transparentized and the image of the person has disappeared is displayed as the fade-out image, and the same image as the intermediate image is displayed. . Note that the fade-out image shown in FIG. 22A is an image obtained by executing the above-described transparency calculation processing at M = 0, and FIG. 22 (C) is an image obtained by performing the transparency calculation processing at, for example, M = 66, and FIG. 22 (D) is an image obtained by performing the transparency calculation. This is an image obtained by executing the processing at, for example, M = 99.
[0169]
When the same fade-out image as the intermediate image shown in FIG. 22 (D) is displayed and the fade-out processing is completed, a subsequent effect such as an effect using a still image is started. The effect may be ended by the end of the fade-out processing.
[0170]
As described above, the configuration in which the fade-out display is performed using the image data for one frame included in the moving image data allows the fade-out display to be performed without increasing the data amount of the moving image data. it can. Therefore, the required capacity of the storage area for moving image data can be reduced. Further, since the data amount of the moving image data does not increase, it is not necessary to shorten the execution period of the fade-out display, and it is possible to perform the fade-out display in which the effect period is sufficiently secured. Therefore, the fade-out display can be performed smoothly.
[0171]
Further, as described above, in the fade-out processing, the image is gradually erased and a predetermined intermediate image is displayed, so that it is easy to visually recognize a state in which the image gradually disappears. A fade-out display can be performed.
[0172]
Next, the semi-transparency processing by the effect control means will be described. FIG. 23 is a flowchart illustrating an example of the translucent process performed by the GCL 81. The translucent process is a process for generating a synthesized execution image for generating a synthesized image from a synthesis target image prepared in advance as moving image data, and displays the transparency (transparency) of the synthesis target image in depth. A process is performed to generate a combined execution image that is lowered based on the position information and has transparency according to the depth display position information.
[0173]
In the translucent process, the GCL 81 reads out the image data of the compositing target image from the compositing target image storage area corresponding to the number of processes in the compositing target image storage area group pointed to by the compositing target image group designation pointer, and determines the image data in advance. The image data of the background image being read is read (step S281). As the background image, for example, a single color image such as blue or white is used.
[0174]
The compositing target image group designation pointer is, for example, a pointer provided in a predetermined area of the SDRAM 84 and points to a compositing target image storage region group in which a plurality of compositing target images used in the present translucent process are stored. For example, when twelve synthesis target image storage area groups from the synthesis target image storage area group 0 to the synthesis target image storage area group 11 are provided, the synthesis target image group designation pointers A value of the range is taken, and the value of the compositing target image group designation pointer is incremented by 1 in step S258 described above. Note that when the value of the compositing target image group designation pointer becomes 12, the value is returned to 0.
[0175]
Next, the GCL 81 sets the value indicated by the depth display position information stored in the compositing target image storage area from which the compositing target image data has been read, as a variable P (see FIG. 24) of a mathematical expression used in the translucent operation processing. Then, a combined execution image is generated by executing the transparency calculation processing (step S282) (step S283). Next, the GCL 81 stores the generated image data of the combined execution image in the combined execution image storage area together with the corresponding depth display position information (step S284). The combined execution image storage area is a storage area in which a plurality of combined execution images for generating one combined image are respectively stored, and is provided in a predetermined area of the SDRAM 84, for example. In step S284, the generated combined execution image data and the depth display position information are stored in a storage area corresponding to the number of processes in the combined execution image storage area.
[0176]
In the present example, a calculation as shown in FIG. 24 is performed as the transparency calculation process executed in the translucent process. In this transparency calculation processing, for each pixel data (R, G, B data for specifying the display color of each pixel) in the image to be synthesized, each pixel data in the background image at the same display position is used. Is performed. Specifically, as shown in FIG. 24, the transparency calculation processing divides the difference between the value indicated by the pixel data of the corresponding background image and the value indicated by the pixel data of the synthesis target image by 99, and divides the difference by P Is added to the value indicated by the pixel data of the image to be combined. Each pixel data obtained by the transparency calculation processing is used as pixel data of a combined execution image. For example, the pixel data of the background image at a certain display position is (R, G, B = 240, 160, 160), and the pixel data of the synthesis target image at the same position is (R, G, B = 180, 130, 130). When P = 33, the pixel data of the combined execution image at that position is (R, G, B = 200, 140, 140). If the operation result does not become an integer, it may be converted to an integer by performing processing such as truncation below the decimal point.
[0177]
Note that “P” shown in FIG. 24 is a value for specifying the transparency of the combined execution image, and in this example, an integer from 0 to 99 is taken so that the transparency can be changed in 100 steps. I have to. In this example, a different depth of appearance is obtained by making the transparency of the combined execution image different. Therefore, the value of “P”, that is, the transparency of the combined execution image is determined by the value indicated by the depth display position information. For example, if the value indicated by the depth display position information is 20, P may be set to 20. In this example, when “P” is “0”, the combined execution image is the same as the combination target image (that is, the transparency is 0%), and when “P” is “99”, the combined execution image is Is the same as the background image (that is, the transparency is 100%). In this example, the transparency is set to 100 levels, but may be set to other levels. In this case, the possible value of “P” is changed (if it is 200, it is sufficient to take 0 to 199), and “99” of the denominator shown in FIG. If it is a stage, it may be changed to "199").
[0178]
The formula used in the transparency calculation processing shown in FIG. 24 is a formula used when the value indicated by the pixel data of the synthesis target image is smaller than the value indicated by the pixel data of the background image, and When the value indicated by the data is larger than the value indicated by the pixel data of the background image, “+” in the mathematical expression shown in FIG. 24 is changed to “−”, and each term of the numerator of the fractional part is changed. What is necessary is just to use the replaced numerical formula. That is, the difference between the value indicated by the pixel data of the corresponding synthesis target image and the value indicated by the pixel data of the background image is divided by 99, and a value obtained by multiplying the value by P is calculated from the value indicated by the pixel data of the synthesis target image. What is necessary is just to make it subtract.
[0179]
In this example, the transparency calculation processing in the semi-transparency processing is performed by using the mathematical formulas and the like shown in FIG. 24, but other calculation processing may be performed. By using the mathematical formula shown in FIG. 24, as the value of P is reduced, a synthesis execution image that linearly approaches the synthesis target image from the background image can be obtained. A mathematical expression may be used so as to obtain a synthesis execution image that approaches the synthesis target image in a curved manner from the image.
[0180]
FIG. 25 is an explanatory diagram illustrating a synthesis target image and a synthesis execution image. FIG. 26 is an explanatory diagram illustrating an example of a display state of the LCD 6 when a composite image is displayed.
[0181]
FIGS. 25A to 25C show a compositing target image used for generating a composite image. For example, in the loop processing of steps S237 to S239, the translucent processing based on the value indicated by the depth display position information is repeatedly performed three times, and thereby each of the processing illustrated in FIGS. 25A to 25C is performed. From the synthesis target images, synthesis execution images shown in FIGS. 25A to 25C are respectively generated.
[0182]
In this example, the value indicated by the depth display position information of the synthesis target image shown in FIG. 25A is the smallest (for example, “0”), and the value indicated by the depth display position information of the synthesis target image shown in FIG. Is the largest (for example, “50”). That is, the depth display position information of each synthesis target image is set such that the priority of the synthesis target image illustrated in FIG. 25A is the highest and the priority of the synthesis target image illustrated in FIG. 25C is the lowest. Have been.
[0183]
Since the value indicated by the depth display position information is “0” in the synthesis target image shown in FIG. 25A, the same image shown in FIG. ) Is generated. That is, the synthesis target image shown in FIG. 25A is the same image as the synthesis target image shown in FIG. 25A in which the transparency is not reduced.
[0184]
In addition, by the translucent process, the synthesis execution image shown in FIG. 25B in which the transparency is reduced from the synthesis target image shown in FIG. 25B is generated, and the transparency execution image is generated from the synthesis target image shown in FIG. Is further reduced, and a combined execution image shown in FIG. 25C is generated.
[0185]
Then, the respective combined execution images shown in FIGS. 25 (a) to 25 (c) are combined based on the priority corresponding to the value indicated by the depth display position information, and thereby the combination shown in FIG. An image is generated. The priority is higher as the value indicated by the depth display position information is smaller, and is lower as the value indicated by the depth display position information is larger. In other words, the value indicated by the depth display position information is a value indicating a coordinate axis in the depth direction on the display screen of the LCD 6, and is set to “0” when the display position is at the foremost position. It is set to take a large value.
[0186]
By repeatedly executing the moving image reproducing process of repeatedly performing the translucent process as described above a plurality of times, the moving image effect by the composite image is performed. Specifically, for example, in a moving image effect, after the composite image shown in FIG. 26A is displayed, the composite images shown in FIG. 26B and FIG. A moving image display that is gradually shifted to the left is executed.
[0187]
Note that, in the above example, for simplicity of explanation, an example in which a game effect is performed using a moving image using a composite image in which three trees are arranged in the front-back direction has been described. It may be a game production, for example, even if a moving image that displays a scene where petals and leaves are falling in a three-dimensional space is used, even if it is raining in a three-dimensional space A moving image that displays a special scene may be used.
[0188]
As described above, the display control unit performs the translucent process on the image data to be combined in the moving image data based on the depth display position information to generate combined execution image data, and combines the generated combined execution image data. Since the game effect is performed by using the moving image using the synthesized image data, the transparency of the image displayed on the rear side in the front-rear direction with low priority and the image of high priority displayed on the near side By making the transmittance different from that of the image, it is possible to display an image with an enhanced sense of depth, and it is possible to perform an effect display with a sense of realism with an enhanced stereoscopic effect. In particular, in the above-described embodiment, the transparency of the image displayed on the rear side in the front-rear direction with a low priority is made higher than the transparency of the image with high priority displayed on the front side, and Since the transparency of the image synthesized with the image is enhanced, it is possible to obtain an image close to the real space in which the sense of depth is emphasized. Therefore, by adjusting the difference between the transparency of the image displayed on the rear side of the lower priority order in the front-rear direction and the transparency of the higher priority image displayed on the front side, is the user seeing the real space? Can be displayed, and an effect display with a sense of realism with an enhanced three-dimensional effect can be performed.
[0189]
In the gaming machine of this example, the above-described decoding processing and moving image reproduction processing are executed, so that the still display processing is executed using the still display target picture. That is, by repeatedly executing image display based on predetermined one frame of image data included in the moving image data, the same image is continuously displayed for a predetermined period of time. Is realized using the image data included in.
[0190]
The still display target picture is, for example, an image indicating a scene in which a change in the display image does not change for a predetermined period in a moving image used for the effect. When the still display target image by the still display target picture is displayed for a predetermined period, the moving image display is executed by each picture provided after the still display target picture.
[0191]
FIG. 27 is an explanatory diagram illustrating an example of a display state of the LCD 6 when still display processing is performed using a still display target picture. Here, a case will be described as an example where a still display processing of a still display target image is performed by a still display target picture in a game effect in the big hit gaming state. In this example, an image of a person constituting a scene in which there is no change in a display image in a moving image effect for a predetermined period is used as the still display target image.
[0192]
In the case of performing an effect using a still display target image, as shown in FIG. 27A and FIG. 27B, for example, a moving image in which a person is moving is displayed, and then the image is displayed as shown in FIG. The image in which the person who was operating is stopped is displayed. Note that the image shown in FIG. 27C is a still display target image.
[0193]
Once the still display target image is displayed on the LCD 6 as shown in FIG. 27 (C), the still display target image is displayed until the still display time timer times out as shown in FIGS. 27 (D) and 27 (E). Is displayed repeatedly and continuously. Then, when a predetermined time period elapses and the still display time timer times out, as shown in FIG. 27 (F) and FIG. 27 (G), the person who is stationary starts moving and performs various operations. A moving image is displayed on the LCD 6, and a moving image effect is executed on the LCD 6.
[0194]
As described above, the configuration is such that the still image is displayed for a predetermined period by using the image data for one frame included in the moving image data, so that the display screen does not change during the moving image effect. When there is a scene, it is possible to eliminate the need to prepare moving image data for displaying such a scene, so that it is possible to reduce moving image data for performing a still display, The data amount of the entire data can be reduced. Therefore, the required capacity of the storage area for moving image data can be reduced.
[0195]
Further, as described above, the fade-in display is performed using the image data for one frame included in the moving image data so that the fade-in display is performed without increasing the data amount of the moving image data, In addition, moving image data for performing still display is reduced in a configuration in which still image is displayed for a predetermined period using image data for one frame included in moving image data, so that moving image data for performing still display is reduced. The data amount of the entire image data can be significantly reduced.
[0196]
Further, as described above, the fade-out display is performed using the image data for one frame included in the moving image data so as to perform the fade-out display without increasing the data amount of the moving image data, and Since the configuration for performing still display in which a display image is stopped for a predetermined period using image data for one frame included in moving image data is used to reduce the amount of moving image data for performing still display, the moving image data The entire data amount can be significantly reduced.
[0197]
In the above-described embodiment, the configuration in which the fade-in display is performed when switching from the effect based on the still image to the effect based on the moving image is performed. A configuration in which fade-in display in which an image gradually appears may be performed.
[0198]
Further, in the above-described embodiment, the configuration in which the fade-out display is performed when switching from the effect based on the moving image to the effect based on the still image is performed. A configuration in which a fade-out display that gradually disappears may be performed.
[0199]
Further, in the above-described embodiment, for example, an effect based on a moving image is executed during the process of changing the symbol and the fade-in process or the fade-out process is executed. In various effects such as a jackpot effect in the jackpot game state during a jackpot round or a jackpot round in the jackpot game state, the above-described fade-in display and fade-out display by the fade-in process and the fade-out process are used. The effect may be performed.
[0200]
For example, a fade-in display is executed at the time of developing to a reach with a high jackpot reliability called a super-reach, an effect by a moving image is executed after the fade-in display, and a fade-out display is performed at the end of the effect by the moving image. You may. Further, for example, a fade-in display may be performed when a demonstration image is displayed, a demonstration effect using a moving image may be performed after the fade-in display, and a fade-out display may be performed at the end of the effect using the moving image.
[0201]
Further, in the above-described embodiment, for example, an effect based on a moving image is executed during the process of changing a symbol and the still display process is executed. However, for example, it is notified in advance that a reach or a big hit will occur. In a variety of effects such as a notice effect for performing, a jackpot effect performed during a jackpot round in the jackpot game state or between jackpot rounds, a demonstration effect, etc., an effect using the still display by the above-described still display process is performed. Is also good.
[0202]
Further, in the above-described embodiment, when there is a scene where the display screen does not change during the moving image effect, the still display by the still display target image is performed. For example, when there is almost no change in the display screen during the moving image effect, the still display by the still display target image may be executed.
[0203]
In the above-described embodiment, the composition target image data for generating each composite image used for the effect by the moving image is included in one moving image data. However, the same number of moving images as the number of images to be combined is included. A composite image may be generated using image data. For example, when a composite image is generated by synthesizing three images, as shown in FIG. 28, three types of moving image data of near, middle, and back are prepared in advance, and each moving image data is prepared. Each image data for one frame read from the data is used as each composition target image for generating one composite image, and each composition execution image generated based on each composition target image is composed to generate a composite image. Then, a game effect using a moving image may be executed using the synthesized images sequentially synthesized. Note that the three types of moving image data of the front, middle, and back are each configured by arranging picture data in, for example, the order of combination. Then, for example, a composite image is generated using each picture 1 in each moving image data shown in FIG. 28, and then the picture data is read out in the order of picture 2, picture 3,. In this case, the effect by the moving image may be executed.
[0204]
More specifically, in a case where a combined image is generated using the same number of moving image data as the number of images to be combined, in step S202 in the above-described decoding process, the sequence shown in FIG. It is sufficient to read out the picture data and read out the sequence (medium) or sequence (back) picture data according to the number of processes in step S228 in the continuous decoding process. For example, the sequence (medium) picture data may be read when the number of processes is “2”, and the sequence (back) picture data may be read when the number of processes is “1”. Then, in the moving image reproduction process, based on the read picture data, the combined execution image data is generated in steps S252 to S254 in the combined image display process, and the combined image data is generated in step S255. By repeatedly executing the above-described decoding processing and moving image reproduction processing, a moving image effect using a composite image is realized.
[0205]
In this case, each piece of image data set in the plurality of pieces of moving image data may be linked image data having relevance to each other. That is, even when each moving image data set in each moving image data is configured to be a combined image having some relevance by the images on the front, middle, and back sides when combined, Good. For example, in each piece of moving image data, each of the compositing target images for generating one composite image may be data generated so as to be related to each other. For example, in the case of using a moving image showing the state of “the seaside” in the effect of the synthetic image, the data showing the state of “the person wearing the swimsuit” is included in the moving image data for generating the synthetic execution image synthesized on the near side Is set, data indicating the state of “sea” is set in the moving image data for generating a combined execution image that is combined in the middle, and moving image data for generating a combined execution image that is combined on the back side. In this case, data indicating the state of “sand beach” may be set. With this configuration, a three-dimensional landscape image at the seaside can be realized by the entire front, middle, and rear images, and a moving image based on a composite image generated using a plurality of different pieces of moving image data. The image can be a coherent image as a whole.
[0206]
FIG. 29 is an explanatory diagram illustrating an example of a display state of a combined image generated by combining linked image data. FIG. 29 shows an image showing the state of the seaside. In FIG. 29A, moving image data indicating a state of “a person wearing a swimsuit” is synthesized on the near side in the front-rear direction, and moving image data indicating a state of “sea” is synthesized in the middle of the front-rear direction. In addition, a combined image generated by combining moving image data indicating a state of “sand beach” on the back side in the front-back direction is shown. Then, by sequentially generating the composite images as shown in FIGS. 29B and 29C and sequentially updating the generated composite images, for example, the “human wearing a swimsuit” operates. Or a moving image display in which the sea waves gradually come to the near side. In this case, since each piece of linked image data has relevance to each other, each image displayed by each piece of linked image data performs a moving image effect by a synthetic image having relevance to each other. Specifically, for example, a moving image effect by a synthetic image showing that a “human wearing a swimsuit” grasps the sand of “sand beach” or a synthetic image showing that a “human wearing a swimsuit” is immersed in the “sea” A moving image effect using images is executed.
[0207]
Further, each of the image data set in the plurality of moving image data may be independent image data having no relation to each other. In this case, for example, in each moving image data, in order to generate one composite image, the respective synthesis target images may be generated so as to be independent from each other. In other words, with the intention of creating a composite image having independence, if each image data is provided so that images that are not consciously related are synthesized before and after and displayed three-dimensionally Good. Specifically, for example, when performing an effect using a composite image, data indicating the state of a “turtle” is set in moving image data for generating a composite execution image to be composited on the near side, and the image is composited in the middle. Data indicating that an “airplane” is flying is set in the moving image data for generating a combined execution image, and “waterfall” is included in the moving image data for generating a combined execution image to be synthesized on the back side. Image data for displaying an unrelated character or the like before and after may be set, for example, by setting data indicating the state. With this configuration, a game effect can be performed by a moving image of a composite image generated using a plurality of different moving image data having different independence.
[0208]
FIG. 30 is an explanatory diagram illustrating an example of a display state of a combined image generated by combining independent image data. FIG. 30 illustrates an image showing a state in which a plurality of independent objects are displayed. In FIG. 30A, the moving image data indicating the state of “animal” is synthesized on the near side in the front-rear direction, and the moving image data indicating the state of “airplane” is synthesized in the middle of the front-rear direction. On the far side, a combined image generated by combining moving image data indicating the state of “flow of a waterfall” is shown. Then, by sequentially generating composite images as shown in FIGS. 30B and 30C and sequentially updating the generated composite images, for example, “animal” is displayed from the left side of the screen to the right side. A moving image display such as performing a moving operation or flying an “airplane” from the right side to the left side of the screen is realized. In this case, since each independent image data is configured to display a display object that is not related to each other, each image displayed by each independent image data includes a plurality of objects that operate independently and independently of each other. And a moving image effect by such a synthesized image is executed. Specifically, for example, there is no related display such as “animal” and “airplane” collided, and a moving image effect by a composite image showing that each display object operates independently. Is executed.
[0209]
In addition, when performing a game effect by a synthesized image obtained by synthesizing a plurality of related images described above, the game effect may be performed in a variable display area of a special symbol. For example, on the front side or the back side of the special symbol, a game effect may be executed by a composite image in which a plurality of related images are composited. With this configuration, a special symbol is displayed in a special pattern in which images having a high degree of depth and having a high relevance to each other are displayed with a higher transparency than an image displayed on the near side in an image displayed on the back side in the depth direction. The effect can be displayed in the area, and an effect display with a sense of reality in which the stereoscopic effect is further enhanced can be performed.
[0210]
Further, when performing a game effect by a synthesized image obtained by synthesizing a plurality of images having the above-mentioned independence, the game effect may be performed in a variable display area of a special symbol. For example, on the front side or the back side of the special symbol, a game effect may be executed by a composite image obtained by compositing a plurality of independent images. According to this structure, the image displayed on the back side in the depth direction has a higher transparency than the image displayed on the front side, and the unrelated video with the enhanced sense of depth is changed to the special symbol variation. The image can be displayed on the back of the display area, and a more realistic effect display with an enhanced three-dimensional effect can be performed.
[0211]
In each of the above-described embodiments, the composite image is generated by synthesizing the three images on the near side, the intermediate side, and the rear side. However, the composite image is generated by synthesizing another number of images. You may do so. For example, a synthetic image is generated by synthesizing two images, that is, a background image synthesized on the back side and an image indicating a character or the like synthesized on the front side, and an effect by a moving image is generated using the synthesized image. It may be performed.
[0212]
Although not specifically mentioned in the above-described embodiment, the above-described effect using the composite image may be performed, for example, during the symbol change processing. Also, in various effects such as a notice effect for giving a notice of a reach or a big hit and a big hit effect performed during a big hit round or during a big hit round in a big hit game state, the above-described effect using the composite image is performed. It may be.
[0213]
In addition, for example, the effect of the above-described composite image may be performed at the time of developing to reach, which is referred to as super reach, with high hit reliability, or when displaying a demonstration image.
[0214]
Although not specifically mentioned in the above-described embodiment, in a series of moving image effects, still image display processing using one frame of image data at the time of the moving image effect after the above-described fade-in display is performed. Alternatively, a configuration may be employed in which an effect using a composite image is performed, and a fade-out display is performed after the end of the effect. In this case, a fade-in display or a fade-out display may be performed using a composite image, or still display processing may be performed using one composite image. With the above configuration, various effects can be performed without increasing the amount of moving image data.
[0215]
Although not specifically mentioned in the above-described embodiment, the moving image data is data for reproducing a moving image by animation, even if the moving image data is data for reproducing a moving image captured by a moving image photographing apparatus. Or data for reproducing a moving image of a CG image using computer graphics (CG) drawn by an information processing device such as a personal computer. In the case of using the moving image data based on the real image, the movement of a person or an animal can be realistically expressed. Further, in the case of using a moving image data based on a CG image, since an image can be freely created by computer graphics, it is possible to easily create an image which is difficult to obtain by actual shooting. This makes it possible to easily create moving image data including necessary moving images. Note that moving image data may be created by combining a real image and a CG image.
[0216]
Further, in the above-described embodiment, the game effect by the moving image is described as being performed by the variable display device 9 on which the variable display of the special symbol is performed. However, the display device on which the variable display of the special symbol is performed is performed. A game effect using a moving image may be executed on an image display device separate from the above.
[0217]
In the above-described embodiment, as an example of a gaming machine, a pachinko machine provided with a variable display device 6 having both a function as a variable display device for variably displaying identification information and a function as an image display device for displaying effect images. Although the description has been given using the gaming machine, the present invention is not limited to the pachinko gaming machine, and the present invention can be applied to other gaming machines such as a slot machine provided with a variable display device and an image display device separately. Hereinafter, an example in which the present invention is applied to a slot machine which is an example of another gaming machine will be described.
[0218]
FIG. 31 is a front view of the slot machine (slot machine) 500 as viewed from the front. As shown in FIG. 31, in the slot machine 500, a game panel 501 is detachably attached near the center. In the vicinity of the center of the front surface of the game panel 501, a variable display device 502 for variably displaying a plurality of types of symbols is provided. In this embodiment, the variable display device 502 has three symbol display areas of “left”, “middle”, and “right”, and the symbol display reels 502a, 502b, and 502c correspond to the respective symbol display areas. Is provided.
[0219]
At the lower part of the game panel 501, an operation table 520 provided with various input switches for a player to perform various operations is provided. Behind the operation table 520, a BET switch 521 for betting (putting) coins one by one, and a MAXBET switch 522 for betting coins by the maximum number (three in this example) that can be put in a game. , A settlement switch 523, and a coin slot 524. The coin inserted into the coin insertion slot 524 is detected by a not-shown inserted coin sensor.
[0220]
On the near side of the operation table 520, a start switch 525, a left reel stop switch 526a, a middle reel stop switch 526b, a right reel stop switch 526c, and a coin jam clearing switch 527 are provided. Lamps 528a and 528b are provided on the left and right sides of the operation table 520, respectively. A speaker 530 that outputs sound effects and the like is provided below the operation table 520.
[0221]
An image display device (LCD: liquid crystal display device) 540 that notifies a player of a game method, a game state, and the like is provided above the game panel 501. For example, when a winning occurs, an image in which the character performs a predetermined action is displayed on the image display device 540, thereby notifying the player that a winning flag described later is set. In this example, a moving image based on the moving image data is reproduced and displayed on the image display device 540. That is, in the slot machine 500, the decoding process and the moving image playback process are executed in the same manner as the pachinko gaming machine described above, and the game effect by the fade-in process and the fade-out process is executed, and the display area of the image display device 540 is displayed. Various displays using moving images including a fade-in display and a fade-out display are performed. Also, in the slot machine 500, the decoding process and the moving image playback process are executed in the same manner as the pachinko gaming machine described above, so that the game effect is executed in the still display process using the still display target picture, and the image display is performed. Various displays using moving image data, such as a still display using a still display target picture, are performed in the display area of the device 540. Further, similarly to the pachinko gaming machine 1 described above, a moving image based on a synthesized image generated by synthesizing a plurality of images based on one or more moving image data is reproduced and displayed on the image display device 540. . For example, a game effect using a moving image based on a combined image in which a plurality of related images are combined, or a moving image based on a combined image in which a plurality of independent images are combined. Note that two speakers 541L and 541R that emit sound effects are provided on the left and right sides of the image display device 540.
[0222]
The winning combinations generated in the slot machine 500 include a small winning combination, a replay winning, a big bonus winning, and a regular bonus winning. In the slot machine 500, a random number is extracted at the timing when the start switch 525 is operated, and it is determined whether or not the occurrence of a winning by any of the above winning combinations is permitted. The fact that a winning is allowed is called "internal winning". When an internal win is made, a win flag indicating that fact is set inside the slot machine 500. In the game with the winning flag set, the reels 502a to 502c are controlled so that a winning combination corresponding to the winning flag can be drawn. On the other hand, in the game in which the winning flag is not set, the reels 502a to 502c are controlled so that no winning occurs.
[0223]
Next, an outline of the game provided by the slot machine will be described.
For example, when a coin is inserted from the coin insertion slot 524 and the BET switch 521 or the MAXBET switch 522 is pressed and the number of bets is set, the operation of the start switch 525 becomes effective. When the player operates the start switch 525, each of the symbol display reels 502a to 502c provided on the variable display device 502 starts rotating. When a regular bonus or a big bonus is internally won at the timing when the start switch 525 is operated, for example, a screen in which a predetermined character performs a predetermined operation is displayed on the image display device 540. Then, the player or the like is notified that the internal prize has been won.
[0224]
When a predetermined time elapses after the symbol display reels 502a to 502c start rotating, the operations of the reel stop switches 526a to 526c become valid. In this state, if the player presses any of the reel stop switches 526a to 526c, the rotation of the reel corresponding to the operated stop switch is stopped. If the symbol display reels 502a to 502c are left for a predetermined period of time without stopping, the symbol display reels 502a to 502c automatically stop.
[0225]
When all the symbol display reels 502a to 502c are stopped, the symbol display reels 502a to 502c displayed on the variable display device 502 are determined according to the number of symbols in the upper, middle, and lower symbols of the three stages. Whether or not a prize has been won is determined by a combination of symbols located on an effective prize line. When the number of multiplications is 1, only one horizontal line of pay lines in the middle stage of the variable display device 502 is valid. When the number of multiplications is 2, the upper, middle, and lower three horizontal pay lines on the variable display device 502 are valid. When the multiplier is three, a total of five pay lines of three horizontal rows and two diagonally opposite rows in the variable display device 502 are effective pay lines.
[0226]
When a combination of the symbols on the activated line has a predetermined specific display mode and a prize is generated, a predetermined game effect is performed by sound, light, display on the image display device 540, etc., and the prize is generated. The game according to is started.
[0227]
FIG. 32 is a block diagram showing an example of a circuit configuration of a main board (game control board) 600 provided in the slot machine 500. FIG. 32 also shows the effect control board 630 and the reel unit 650. Note that other substrates such as a power supply substrate and a relay substrate are also connected to the main substrate 600, but are not shown in FIG. The main board 600 includes a CPU 602 for performing a control operation according to a program, a RAM 603 as an example of a storage unit used as a work memory, a ROM 604 for storing a game control program and the like, and an I / O port unit 605. I have.
[0228]
The reel unit 650 stores a reel motor 651, a reel lamp 652, and a reel sensor 653. The reel motor 651 is a motor for rotating each of the reels 502a to 502c. The reel lamp 652 is provided inside each of the reels 502a to 502c, and is a lamp for illuminating, from the inside of the reel, a symbol visually recognized on the variable display device 502 among the symbols drawn on each of the reels 502a to 502c. . The reel sensor 653 is a sensor for detecting a rotation state, a rotation speed, and the like of each of the reels 502a to 502c.
[0229]
In this embodiment, the effect control means mounted on the effect control board 630 controls the display of the image display device 540 provided in the slot machine 500 and the lighting control of the reel lamp 652. Under the control of the effect control means, the image display device 540 displays a variety of information such as a fluctuating display of a decorative symbol and a display for informing a game state and a game method. In this example, the effect control means mounted on the effect control board 630 includes an effect control CPU, a GCL, and the like. Therefore, the effect control means mounted on the effect control board 630 is configured to be able to execute a game effect based on a moving image based on the moving image data, similarly to the pachinko gaming machine described above. The effect control means mounted on the effect control board 630 controls lighting of various game effect lamps 550, 551, 552, 553 provided in the slot machine 500, and a speaker provided in the slot machine 500. The sound output control of 501, 541L and 541R is performed.
[0230]
In this example, the effect control board 630 controls the image display device 540, the game effect lamp 550, the speaker 530, and the like according to the effect pattern based on the control command received from the main board 600. In the image display device 540, the decoration design is displayed in a variable manner according to a predetermined image display pattern (an example of an effect pattern). In the variation display effect of the decorative symbol, for example, an effect such as a symbol combination effect display such as a change display of a special symbol in a pachinko machine or a symbol combination effect such as a change display of reels 502a to 502c is executed. Which of the effect patterns is to be used from a plurality of effect patterns provided in advance is determined by the CPU 602 at the timing when the start switch 525 is operated, for example.
[0231]
In the above-described slot machine 500, effects such as moving images based on moving image data are performed. For example, during the normal game period in which no winning is made, the regular bonus game is played by the regular bonus winning. During the running period, the game may be executed during a period in which a big bonus game with a big bonus prize is being played.
[0232]
In this example, for example, at the beginning or end of a moving image effect displayed on the image display device 540 by a fade-in process or a fade-out process, fade-in display or fade-out using image data included in the moving image data is performed. The display is executed. Further, for example, a process of displaying a still image on the image display device 540 is performed by a moving image reproduction process using a still target picture included in the moving image data. Further, a moving image effect using the composite image displayed on the image display device 540 is performed by a process of generating a composite image or the like.
[0233]
As described above, the present invention can be applied to a slot machine, and even when applied to a slot machine, the effects of the above embodiments can be obtained.
[0234]
Each of the gaming machines described above is configured to give a predetermined game value to a player when the display result of the variable display on the variable display device becomes a predetermined specific display mode. The game value is, for example, that a variable prize ball device provided in a gaming area of a gaming machine is in an advantageous state for a player who is easy to win a prize, or generates a right to be in an advantageous state for a player. Or a condition in which the conditions for paying out premium game media are easily satisfied.
[0235]
In the above-described embodiment, the “reach display state” means that a symbol other than a symbol that is a final stop symbol (for example, a middle symbol among left and right middle symbols) is continuously displayed for a predetermined time on the variable display device. In the state consistent with the aspect, the display state is stopped, rocking, scaling or deforming, or a plurality of symbols fluctuate synchronously with the same symbol, or the position of the display symbol is switched, This is a display state in which the possibility of occurrence of a big hit continues before the final result is displayed. An effect performed in the reach display state is called a reach effect. Further, the reach display state and the state thereof are referred to as a reach display mode.
[0236]
The “specific game state” means a state that is advantageous to a player who has been given a predetermined game value. Specifically, in the “specific game state”, for example, a state in which the state of the variable prize ball device is favorable for a player who is likely to win (big hit game state), or a right to be in a state advantageous for the player is generated. This is a state in which a predetermined game value is given, such as a state, a state in which the conditions for paying out premium game media are easily satisfied, and the like.
[0237]
Further, the “special game state” means a state that is advantageous for a player who is likely to be a big hit. Specifically, the "special game state" is, for example, a probable change state in which the special symbol is a big hit symbol and the probability of being aligned is a high probability state, a time reduction state in which the number of times the normal symbol changes per unit time is increased, a variable winning ball device. 9 is a high-probability state in which the probability of a big hit is increased, such as an open extension state in which the opening period and the number of times of opening are increased. In the time reduction state, the number of winnings per unit time increases because the number of times the variable winning prize ball device 9 is opened is increased, and the number of times that the special symbol is variablely displayed per unit time is increased. Can be said to have been raised. Similarly, in the extended open state, the number of winnings per unit time increases because the opening period and the number of times of opening of the variable winning ball device 9 are increased, and the number of variable display times of the special symbol per unit time increases. Therefore, it can be said that the probability of a big hit is increased.
[0238]
【The invention's effect】
As described above, according to the first aspect of the present invention, the data reproducing unit interrupts the moving image reproduction process of the operation target image based on the moving image data in response to the predetermined still target image display timing. Interrupting means, when the moving image reproduction processing is interrupted at the still target image display timing, the operation target image on the image display device is converted into a predetermined still target image based on the still target image data included in the moving image data; A still target image switching unit for switching and displaying, and a predetermined still target image which is a part of an operation target image based on moving image data during an interruption period in which moving image reproduction processing is interrupted, image display is performed. A still image reproduction processing means for performing a still image reproduction process using the still target image on the device, and switching the still target image on the image display device into an operation target image when the interruption period ends. An operation target image switching unit for changing and displaying, a moving image reproduction process restarting unit for restarting a moving image reproduction process from the operation target image displayed by the operation target image switching unit, and a plurality of frame data continuously expanded by the data expansion unit A composite display unit that performs composite display using a plurality of frame data having different priorities in the front-rear direction by executing a composite process of superimposing in the front-rear direction according to the priority specified by the priority specifying unit. Wherein the fade-in switching display means includes a plurality of fade-in image generating means for generating a plurality of fade-in images having gradually increased transparency from frame data used at the start of reproduction, and a fade-in image generating means. Each of the generated fade-in images is compared with the fade-in image with the highest transparency. Fade-in processing means for sequentially performing transition to a low fade-in image, and finally performing fade-in processing by displaying an image of frame data, and after the fade-in processing by the fade-in processing means is completed, data reproduction means Video playback start means for starting the video playback process from the image of the frame data displayed when the fade-in process is completed, so that the fade-in display can be performed without increasing the data amount of the moving image data. When there is a scene where the display screen does not change during the moving image production, moving image data for displaying such a scene is unnecessary, and moving image data for performing still display And the transparency of low priority images displayed on the back side in the front-rear direction, By making the transparency of a high-priority image displayed on the near side different from that of the image, it is possible to display an image with an enhanced sense of depth, and to provide a realistic display with an enhanced sense of three-dimensionality. There is an effect that can be.
[0239]
According to the second aspect of the present invention, the fade-in switching display means is configured to cause the image to appear stepwise through the predetermined intermediate image in the fade-in process, so that the image can be easily viewed. Fade-in display can be performed.
[0240]
Further, in the invention according to claim 3, the data reproducing means interrupts the moving image reproduction processing of the operation target image based on the moving image data in response to a predetermined still target image display timing, and When the moving image reproduction process is interrupted at the still target image display timing, the operation target image on the image display device is switched to a predetermined still target image based on the still target image data included in the moving image data and displayed. A still target image switching unit and a predetermined still target image that is a part of an operation target image based on moving image data during an interruption period during which the moving image reproduction process is interrupted, thereby displaying an image on the image display device. A still image reproduction processing means for performing a still image reproduction process using the still target image, and a table for switching the still target image on the image display device to the operation target image when the interruption period ends. Operation target image switching means, moving image reproduction processing restart means for restarting the moving image reproduction processing from the operation target image displayed by the operation target image switching means, and a plurality of frame data continuously expanded by the data expansion means, A composite display unit that performs composite display using a plurality of frame data having different priorities in the front-rear direction by performing a composite process of overlapping in the front-rear direction according to the priority specified by the priority specification unit. When the fade-out switching display means ends the moving image reproduction processing using the moving image data for executing the game effect, a moving image reproduction ending means for displaying an image of the frame data used at the end of the reproduction; A fade-out image generating means for generating a plurality of fade-out images having gradually increased transparency from Each fade-out image generated by the fade-out image generating means is sequentially shifted from the image of the frame data to the fade-out image having higher transparency, and finally the fade-out image having the highest transparency is displayed. Therefore, the present invention includes a fade-out processing means for executing a fade-out process, so that a fade-out display can be performed without increasing a data amount of moving image data. Therefore, the required capacity of the storage area for moving image data can be reduced. Therefore, the fade-out display can be smoothly performed, and when there is a scene where the display screen does not change during the moving image production, the moving image data for displaying such a scene is unnecessary and the static display is performed. The moving image data to be performed can be reduced, and the transparency of the low-priority image displayed on the rear side in the front-back direction and the transparency of the high-priority image displayed on the front side can be reduced. By making them different from each other, it is possible to display a video with an enhanced sense of depth, and it is possible to display an effect with a sense of reality with an enhanced stereoscopic effect.
[0241]
According to the fourth aspect of the present invention, the fade-out switching display means is configured to fade out the image in a fade-out process and display a predetermined intermediate image, so that the fade-out switching display means can be easily viewed. Display can be performed.
[0242]
According to the fifth aspect of the present invention, the compressed data storage means generates at least a composite image including a plurality of display objects that are related to each other and that are related to each other by cooperation of the display contents. The cooperative moving image data is stored, the data decompressing means continuously decompresses a plurality of related cooperative moving image data stored in the compressed data storing means, and the priority designating means is continuously decompressed by the data decompressing means. For the frame data of each cooperatively expanded video data, the priority in the front-back direction of the image based on the frame data is specified, and the combined display unit is configured to sequentially cooperate each of the cooperative video images continuously expanded by the data expansion unit. By performing a synthesizing process of superimposing the frame data of the data in the front-rear direction according to the priority specified by the priority specifying unit, the identification information image can be changed. On the front side or the back side of the display area, since the composite display using a plurality of frame data having different priorities in the front-back direction is configured to be performed, an image with a low priority displayed on the rear side in the front-back direction And the transparency of a high-priority image displayed on the front side are different from each other, so that images having a high degree of depth can be associated with each other. The front side or the back side of the variable display area of the identification information image. Can be displayed on the side, and an effect display with a sense of reality in which the stereoscopic effect is further enhanced can be performed.
[0243]
According to the sixth aspect of the present invention, the compressed data storage means generates a composite image including a plurality of independent display objects at least by mutually independent display contents, and by disabling the mutual display contents. The non-cooperative moving image data is stored, and the data decompressing means continuously decompresses the plurality of independent non-cooperative moving image data stored in the compressed data storing means. For the frame data of each non-cooperative moving image data continuously expanded by the expansion unit, the priority in the front-back direction of the image based on the frame data is specified, and the combined display unit is continuously expanded by the data expansion unit. By executing the synthesizing process of superimposing the frame data of each non-cooperative moving image data in the front-rear direction according to the priority specified by the priority specifying means, A plurality of non-cooperative moving images in which a combined display using a plurality of frame data having different priorities in the front-back direction is performed on the front side or the back side of the variable display area of the identification information image, and the combining processing is performed by the combining display means The data includes at least moving image data for displaying a background image in a display image of the image display device, and moving image data for displaying a front image displayed on the front side of the background image. The depth of view is enhanced by differentiating the transparency of the lower priority image displayed on the back side in the front-rear direction from the transparency of the higher priority image displayed on the front side. Independent images having no relevance to each other can be displayed on the front side or the back side of the variable display area of the identification information image of the identification information, and a more realistic effect display with an enhanced three-dimensional effect is provided. It is possible.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing an outline of the present invention.
FIG. 2 is a front view of the pachinko gaming machine viewed from the front.
FIG. 3 is a rear view of the gaming machine as viewed from the back.
FIG. 4 is a block diagram illustrating an example of a system configuration centering on a game control unit.
FIG. 5 is a block diagram illustrating a circuit configuration example of an effect control board.
FIG. 6 is a flowchart illustrating a main process executed by a CPU on a main board.
FIG. 7 is a flowchart showing a 2 ms timer interrupt process.
FIG. 8 is a flowchart showing a special symbol process process.
FIG. 9 is a flowchart showing a main process executed by the effect control CPU.
FIG. 10 is a flowchart showing an effect control process.
FIG. 11 is an explanatory diagram showing a configuration example of process data.
FIG. 12 is an explanatory diagram illustrating an example of a data structure of moving image data.
FIG. 13 is a flowchart illustrating an example of a decoding process.
FIG. 14 is a flowchart illustrating an example of a continuous decoding process.
FIG. 15 is a flowchart illustrating an example of a moving image reproduction process.
FIG. 16 is a flowchart illustrating an example of a composite image display process.
FIG. 17 is a flowchart illustrating an example of a fade-in process;
FIG. 18 is an explanatory diagram illustrating an example of a mathematical expression used for a fade-in process.
FIG. 19 is an explanatory diagram illustrating a display state of a fade-in image created by a fade-in process.
FIG. 20 is a flowchart illustrating an example of a fade-out process.
FIG. 21 is an explanatory diagram illustrating an example of a mathematical expression used for a fade-out process.
FIG. 22 is an explanatory diagram illustrating a display state of a fade-in image created by a fade-out process.
FIG. 23 is a flowchart illustrating an example of a translucent process.
FIG. 24 is an explanatory diagram showing an example of a mathematical expression used for the translucent process.
FIG. 25 is an explanatory diagram illustrating an example of a composition target image and a composition execution image.
FIG. 26 is an explanatory diagram showing a display state of a composite image.
FIG. 27 is an explanatory diagram illustrating a display state and the like of a still display target image.
FIG. 28 is an explanatory diagram showing a plurality of pieces of moving image data including each image data to be combined used for generating a combined image.
FIG. 29 is an explanatory diagram showing a display state of a composite image generated by the cooperation image data.
FIG. 30 is an explanatory diagram showing a display state of a composite image generated from independent image data.
FIG. 31 is a front view of the slot machine as viewed from the front.
FIG. 32 is a block diagram showing an example of a circuit configuration of a main board mounted on the slot machine.
[Explanation of symbols]
1 Pachinko machine
6. Variable display device (image display device)
30 Main board
33 CPU
60 Lamp control unit
70 sound control unit
80 Display control unit
81 GCL
100 production control board
101 Effect Control CPU
500 slot machine
540 image display device
600 main board
630 Production control board

Claims (6)

複数種類の識別情報の可変表示を行い、前記識別情報の表示結果が特定表示結果となったときに遊技者にとって有利な特定遊技状態とする遊技機であって、
遊技演出に用いられる画像を表示する画像表示装置と、
動き補償予測符号化による圧縮データを含む動画像データを格納する圧縮データ格納手段と、
前記圧縮データ格納手段に格納されている動画像データを伸張するデータ伸張手段と、
前記データ伸張手段により伸張された動画像データに基づいて生成される画像を前記画像表示装置に順次表示させることによって動画再生処理を行うデータ再生手段と、
前記データ伸張手段により伸張された動画像データにおける各フレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定する優先度指定手段と、
前記優先度指定手段によって指定された優先度に応じて、フレームデータに基づいて生成される画像の透過度を高めるための半透明化処理を行うことによって、当該フレームデータに基づく画像を半透明化された画像とする半透明化処理手段と、
段階的に画像を出現させるフェードイン処理を行うことで前記画像表示装置上の表示画像の切替表示を実行させるフェードイン切替表示手段とを備え、
前記データ再生手段は、
所定の静止対象画像表示タイミングとなったことに応じて前記動画像データに基づく動作対象画像の動画再生処理を中断する動画再生処理中断手段と、
前記静止対象画像表示タイミングにて動画再生処理が中断されたときに、動画像データに含まれる静止対象画像データに基づいて、前記画像表示装置上の動作対象画像を所定の静止対象画像に切り替え表示する静止対象画像切替手段と、
動画再生処理が中断される中断期間の間、前記動画像データに基づく動作対象画像の一部とされている前記所定の静止対象画像を使用することで、前記画像表示装置上に前記静止対象画像を用いた静止画再生処理を行う静止画再生処理手段と、
前記中断期間が終了したときに、前記画像表示装置上の静止対象画像を動作対象画像に切り替え表示する動作対象画像切替手段と、
前記動作対象画像切替手段によって表示された動作対象画像から動画再生処理を再開する動画再生処理再開手段と、
前記データ伸張手段によって連続的に伸張された複数のフレームデータを、前記優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行う合成表示手段とを含み、
前記フェードイン切替表示手段は、
再生開始時に使用されるフレームデータから透過度を段階的に高めていった複数のフェードイン画像を生成するフェードイン画像生成手段と、
前記フェードイン画像生成手段により生成された各フェードイン画像を、透過度が最も高められているフェードイン画像から、透過度がより低いフェードイン画像に順次移行させ、最終的に前記フレームデータの画像を表示させることによって前記フェードイン処理を実行するフェードイン処理手段と、
前記フェードイン処理手段によるフェードイン処理が完了したあと、前記データ再生手段によりフェードイン処理の完了時に表示されている前記フレームデータの画像から動画再生処理を開始させる動画再生開始手段とを含む
ことを特徴とする遊技機。
A gaming machine that performs variable display of a plurality of types of identification information and sets a specific game state advantageous to a player when a display result of the identification information becomes a specific display result,
An image display device that displays an image used for a game effect,
Compressed data storage means for storing moving image data including compressed data by motion compensation prediction encoding;
Data decompression means for decompressing moving image data stored in the compressed data storage means,
A data reproducing unit for performing a moving image reproducing process by sequentially displaying an image generated based on the moving image data expanded by the data expanding unit on the image display device;
For each frame data in the moving image data decompressed by the data decompression means, priority designation means for designating the priority in the front-back direction of the image based on the frame data,
According to the priority specified by the priority specifying means, the image generated based on the frame data is subjected to a translucent process for increasing the transparency, thereby making the image based on the frame data translucent. Translucent processing means for making a processed image;
Fade-in switching display means for performing a switching display of a display image on the image display device by performing a fade-in process of causing an image to appear stepwise,
The data reproducing means,
A moving image reproduction process suspending unit that suspends a moving image reproduction process of an operation target image based on the moving image data in response to a predetermined still target image display timing;
When the moving image reproduction process is interrupted at the still target image display timing, the operation target image on the image display device is switched to a predetermined still target image based on the still target image data included in the moving image data and displayed. A still target image switching means for
During the interruption period in which the moving image reproduction process is interrupted, by using the predetermined still target image which is a part of the operation target image based on the moving image data, the still target image is displayed on the image display device. Still image reproduction processing means for performing a still image reproduction process using
When the interruption period has ended, an operation target image switching unit that switches and displays a still target image on the image display device to an operation target image,
A moving image reproduction process restarting unit that restarts a moving image reproduction process from the operation target image displayed by the operation target image switching unit;
By executing a synthesizing process of superimposing a plurality of frame data continuously expanded by the data expansion unit in the front-back direction according to the priority specified by the priority specification unit, the priority in the front-back direction is increased. Synthetic display means for performing synthetic display using a plurality of different frame data,
The fade-in switching display means,
A fade-in image generating means for generating a plurality of fade-in images having gradually increased transparency from frame data used at the start of reproduction,
Each fade-in image generated by the fade-in image generating means is sequentially shifted from a fade-in image having the highest transparency to a fade-in image having a lower transparency, and finally an image of the frame data is obtained. A fade-in processing means for executing the fade-in processing by displaying
After the fade-in processing by the fade-in processing means is completed, a moving-image reproduction start means for starting a moving-image reproduction processing from the image of the frame data displayed when the data reproduction means completes the fade-in processing. A gaming machine characterized by:
フェードイン切替表示手段は、フェードイン処理にて、所定の中間画像を介
して段階的に画像を出現させる
ことを特徴とする請求項1記載の遊技機。
The gaming machine according to claim 1, wherein the fade-in switching display means causes the image to appear stepwise through a predetermined intermediate image in the fade-in process.
複数種類の識別情報の可変表示を行い、前記識別情報の表示結果が特定表示結果となったときに遊技者にとって有利な特定遊技状態とする遊技機であって、
遊技演出に用いられる画像を表示する画像表示装置と、
動き補償予測符号化による圧縮データを含む動画像データを格納する圧縮データ格納手段と、
前記圧縮データ格納手段に格納されている動画像データを伸張するデータ伸張手段と、
前記データ伸張手段により伸張された動画像データに基づいて生成される画像を前記画像表示装置に順次表示させることによって動画再生処理を行うデータ再生手段と、
前記データ伸張手段により伸張された動画像データにおける各フレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定する優先度指定手段と、
前記優先度指定手段によって指定された優先度に応じて、フレームデータに基づいて生成される画像の透過度を高めるための半透明化処理を行うことによって、当該フレームデータに基づく画像を半透明化された画像とする半透明化処理手段と、
段階的に画像を消滅させるフェードアウト処理を行うことで前記画像表示装置上の表示画像の切替表示を実行させるフェードアウト切替表示手段とを備え、
前記データ再生手段は、
所定の静止対象画像表示タイミングとなったことに応じて前記動画像データに基づく動作対象画像の動画再生処理を中断する動画再生処理中断手段と、
前記静止対象画像表示タイミングにて動画再生処理が中断されたときに、動画像データに含まれる静止対象画像データに基づいて、前記画像表示装置上の動作対象画像を所定の静止対象画像に切り替え表示する静止対象画像切替手段と、
動画再生処理が中断される中断期間の間、前記動画像データに基づく動作対象画像の一部とされている前記所定の静止対象画像を使用することで、前記画像表示装置上に前記静止対象画像を用いた静止画再生処理を行う静止画再生処理手段と、
前記中断期間が終了したときに、前記画像表示装置上の静止対象画像を動作対象画像に切り替え表示する動作対象画像切替手段と、
前記動作対象画像切替手段によって表示された動作対象画像から動画再生処理を再開する動画再生処理再開手段と、
前記データ伸張手段によって連続的に伸張された複数のフレームデータを、前記優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行う合成表示手段とを含み、
前記フェードアウト切替表示手段は、
遊技演出を実行するための動画像データを用いた動画再生処理を終了するときに、再生終了時に使用されるフレームデータの画像を表示する動画再生終了手段と、
前記フレームデータから透過度を段階的に高めていった複数のフェードアウト画像を生成するフェードアウト画像生成手段と、
前記フェードアウト画像生成手段により生成された各フェードアウト画像を、前記フレームデータの画像から、透過度がより高められているフェードアウト画像に順次移行させ、最終的に透過度が最も高められているフェードアウト画像を表示させることによって前記フェードアウト処理を実行するフェードアウト処理手段とを含む
ことを特徴とする遊技機。
A gaming machine that performs variable display of a plurality of types of identification information and sets a specific game state advantageous to a player when a display result of the identification information becomes a specific display result,
An image display device that displays an image used for a game effect,
Compressed data storage means for storing moving image data including compressed data by motion compensation prediction encoding;
Data decompression means for decompressing moving image data stored in the compressed data storage means,
A data reproducing unit for performing a moving image reproducing process by sequentially displaying an image generated based on the moving image data expanded by the data expanding unit on the image display device;
For each frame data in the moving image data decompressed by the data decompression means, priority designation means for designating the priority in the front-back direction of the image based on the frame data,
According to the priority specified by the priority specifying means, the image generated based on the frame data is subjected to a translucent process for increasing the transparency, thereby making the image based on the frame data translucent. Translucent processing means for making a processed image;
Fade-out switching display means for performing a switching display of the display image on the image display device by performing a fade-out process of disappearing the image step by step,
The data reproducing means,
A moving image reproduction process suspending unit that suspends a moving image reproduction process of an operation target image based on the moving image data in response to a predetermined still target image display timing;
When the moving image reproduction process is interrupted at the still target image display timing, the operation target image on the image display device is switched to a predetermined still target image based on the still target image data included in the moving image data and displayed. A still target image switching means for
During the interruption period in which the moving image reproduction process is interrupted, by using the predetermined still target image which is a part of the operation target image based on the moving image data, the still target image is displayed on the image display device. Still image reproduction processing means for performing a still image reproduction process using
When the interruption period has ended, an operation target image switching unit that switches and displays a still target image on the image display device to an operation target image,
A moving image reproduction process restarting unit that restarts a moving image reproduction process from the operation target image displayed by the operation target image switching unit;
By executing a synthesizing process of superimposing a plurality of frame data continuously expanded by the data expansion unit in the front-back direction according to the priority specified by the priority specification unit, the priority in the front-back direction is increased. Synthetic display means for performing synthetic display using a plurality of different frame data,
The fade-out switching display means,
When ending the moving image reproduction process using the moving image data for executing the game effect, a moving image reproduction ending means for displaying an image of the frame data used at the end of the reproduction,
A fade-out image generating means for generating a plurality of fade-out images having gradually increased transparency from the frame data,
Each fade-out image generated by the fade-out image generating means is sequentially shifted from the image of the frame data to a fade-out image having higher transparency, and finally a fade-out image having the highest transparency is obtained. A fade-out processing means for executing the fade-out processing by displaying the game.
フェードアウト切替表示手段は、フェードアウト処理にて、段階的に画像を消滅させて所定の中間画像を表示させる
ことを特徴とする請求項3記載の遊技機。
4. The gaming machine according to claim 3, wherein the fade-out switching display means causes the image to disappear step by step and display a predetermined intermediate image in the fade-out processing.
圧縮データ格納手段は、少なくとも、互いの表示内容に関連性があり、互いの表示内容の連携によって関連性のある複数の表示物体を含む合成画像を生成するための連携動画像データを格納し、
データ伸張手段は、前記圧縮データ格納手段に格納されている関連性のある複数の連携動画像データを連続的に伸張し、
優先度指定手段は、前記データ伸張手段により連続的に伸張された各連携動画像データのフレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定し、
合成表示手段は、前記データ伸張手段によって連続的に伸張された各連携動画像データのフレームデータを、前記優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、識別情報画像の可変表示領域の前面側又は背面側に、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行う
ことを特徴とする請求項1から請求項4のうちいずれかに記載の遊技機。
The compressed data storage means is at least associated with the display contents of each other, and stores linked moving image data for generating a composite image including a plurality of display objects related by cooperation of the display contents of each other,
The data decompression means continuously decompresses a plurality of related linked moving image data stored in the compressed data storage means,
Priority specifying means, for the frame data of each linked moving image data continuously expanded by the data expansion means, to specify the priority in the front-back direction of the image based on the frame data,
The synthesizing display unit executes a synthesizing process of superimposing frame data of each piece of cooperative moving image data continuously expanded by the data expanding unit in the front-rear direction according to the priority specified by the priority specifying unit. The composite display using a plurality of frame data having different priorities in the front-rear direction is performed on the front side or the rear side of the variable display area of the identification information image. A gaming machine according to any of the above.
圧縮データ格納手段は、少なくとも、互いの表示内容に独立性があり、互いの表示内容を連携させないことによって独立性のある複数の表示物体を含む合成画像を生成するための非連携動画像データを格納し、
データ伸張手段は、前記圧縮データ格納手段に格納されている独立性のある複数の非連携動画像データを連続的に伸張し、
優先度指定手段は、前記データ伸張手段により連続的に伸張された各非連携動画像データのフレームデータに対し、フレームデータに基づく画像の前後方向の優先度を指定し、
合成表示手段は、前記データ伸張手段によって連続的に伸張された各非連携動画像データのフレームデータを、前記優先度指定手段によって指定された優先度に応じて前後方向に重ね合わせる合成処理を実行することによって、識別情報画像の可変表示領域の前面側又は背面側に、前後方向の優先度が異なる複数のフレームデータを用いた合成表示を行い、
前記合成表示手段によって合成処理が実行される複数の非連携動画像データには、少なくとも、前記画像表示装置の表示画像における背景画像を表示するための動画像データと、前記背景画像の前面側に表示される前面画像を表示するための動画像データとが含まれる
ことを特徴とする請求項1から請求項4のうちいずれかに記載の遊技機。
The compressed data storage means has at least non-cooperative moving image data for generating a composite image including a plurality of independent display objects by not mutually cooperating with each other in display contents. Store,
The data decompression means continuously decompresses a plurality of independent non-cooperative moving image data stored in the compressed data storage means,
Priority specifying means, for the frame data of each non-cooperative moving image data continuously expanded by the data expansion means, specifies the priority in the front-back direction of the image based on the frame data,
The synthesizing display unit executes a synthesizing process of superimposing frame data of each non-cooperative moving image data continuously expanded by the data expanding unit in the front-rear direction according to the priority specified by the priority specifying unit. By doing, on the front side or the back side of the variable display area of the identification information image, perform composite display using a plurality of frame data with different priorities in the front-back direction,
The plurality of non-cooperative moving image data on which the synthesizing process is performed by the synthesizing display unit includes at least moving image data for displaying a background image in a display image of the image display device, and a front side of the background image. The gaming machine according to any one of claims 1 to 4, further comprising moving image data for displaying a front image to be displayed.
JP2002236683A 2002-08-14 2002-08-14 Game machine Withdrawn JP2004073416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002236683A JP2004073416A (en) 2002-08-14 2002-08-14 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002236683A JP2004073416A (en) 2002-08-14 2002-08-14 Game machine

Publications (1)

Publication Number Publication Date
JP2004073416A true JP2004073416A (en) 2004-03-11

Family

ID=32020769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002236683A Withdrawn JP2004073416A (en) 2002-08-14 2002-08-14 Game machine

Country Status (1)

Country Link
JP (1) JP2004073416A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8228432B2 (en) 2007-06-26 2012-07-24 Sony Corporation Picture processing device, method therefor, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8228432B2 (en) 2007-06-26 2012-07-24 Sony Corporation Picture processing device, method therefor, and program

Similar Documents

Publication Publication Date Title
JP4275402B2 (en) Game machine
JP2004222876A (en) Game machine, method for controlling performance display, and performance display control display program
JP4435491B2 (en) Game machine, game machine effect control method, and game effect program
JP2005013477A (en) Game machine
JP2004201845A (en) Game machine
JP2005118146A (en) Game machine
JP2004073447A (en) Game machine
JPH07185088A (en) Image display device for game machine
JP2005028028A (en) Game machine
JP2004089487A (en) Game machine
JP2004174116A (en) Game machine
JP2004089285A (en) Game machine
JP2005208684A (en) Game machine
JP2004073457A (en) Game machine
JP2004073255A (en) Game machine
JP2004201858A (en) Game machine
JP2005013515A (en) Game machine
JP2004049568A (en) Game machine
JP2004073416A (en) Game machine
JP7210423B2 (en) game machine
JP2004073390A (en) Game machine
JP2004073458A (en) Game machine
JP2004073459A (en) Game machine
JP2004057409A (en) Game machine
JP2004057309A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040831

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060124

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080425