JP2021013844A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2021013844A
JP2021013844A JP2020189961A JP2020189961A JP2021013844A JP 2021013844 A JP2021013844 A JP 2021013844A JP 2020189961 A JP2020189961 A JP 2020189961A JP 2020189961 A JP2020189961 A JP 2020189961A JP 2021013844 A JP2021013844 A JP 2021013844A
Authority
JP
Japan
Prior art keywords
effect
data
display
image data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020189961A
Other languages
Japanese (ja)
Inventor
史郎 小尾
Shiro Obi
史郎 小尾
岡村 鉉
Gen Okamura
鉉 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2020189961A priority Critical patent/JP2021013844A/en
Publication of JP2021013844A publication Critical patent/JP2021013844A/en
Priority to JP2021150679A priority patent/JP7120421B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Display Devices Of Pinball Game Machines (AREA)
  • Pinball Game Machines (AREA)

Abstract

To provide a game machine capable of satisfactorily performing display control.SOLUTION: When displaying a bone display character, a display CPU 131 calculates coordinate data of each bone data of the bone display character by using a coordinate arithmetic area provided in a work RAM 132. In performing the calculation of the coordinate data, after performing an initial setting of the coordinate arithmetic area, the coordinate data of bone data included in one skeleton data is calculated, and when calculating coordinate data of bone data included in other skeleton data, an initial setting of the coordinate arithmetic area is performed again. In that case, bone data corresponding to a plurality of aggregate unit characters are consolidated and set in aggregation skeleton data, the coordinate data calculation of each bone data included in the aggregation skeleton data is performed after an initial setting of the coordinate arithmetic area is performed.SELECTED DRAWING: Figure 41

Description

本発明は、遊技機に関するものである。 The present invention relates to a game machine.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる(例えば特許文献1参照)。 Pachinko game machines, slot machines, and the like are known as a type of game machine. As these game machines, those provided with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. (See, for example, Patent Document 1).

特開2009−261415号公報Japanese Unexamined Patent Publication No. 2009-261415

ここで、上記例示等のような遊技機においては、表示制御を好適に行うことが可能な構成が求められており、この点について未だ改良の余地がある。 Here, in a game machine such as the above example, a configuration capable of suitably performing display control is required, and there is still room for improvement in this respect.

本発明は、上記例示した事情等に鑑みてなされたものであり、表示制御を好適に行うことが可能な遊技機を提供することを目的とするものである。 The present invention has been made in view of the above-exemplified circumstances and the like, and an object of the present invention is to provide a game machine capable of suitably performing display control.

上記課題を解決すべく請求項1記載の発明は、表示部を有する表示手段と、
データ生成手段によって生成された生成データを用いて前記表示部に画像を表示させる表示制御手段と、
を備え、
前記データ生成手段は、前記生成データを生成するために用いられる制御情報を導出する情報導出手段を備え、
当該情報導出手段は、
導出用記憶手段を導出前状態に設定する導出前設定手段と、
前記導出前状態に設定された前記導出用記憶手段を利用して前記制御情報を導出する導出実行手段と、
を備え、
前記導出前設定手段による前記導出前状態への設定は、一の画像の更新タイミングにおける前記生成データを生成するために複数回実行され得る構成であり、
前記導出実行手段は、前記導出前設定手段により前記導出前状態の設定が行われた後であって当該導出前状態の設定が新たに行われる前に、複数種類の個別画像に対応した前記制御情報を導出する複数対応導出手段を備えていることを特徴とする。
The invention according to claim 1 in order to solve the above problems includes a display means having a display unit and a display means.
A display control means for displaying an image on the display unit using the generated data generated by the data generation means, and
With
The data generation means includes information deriving means for deriving control information used for generating the generated data.
The information derivation means is
Pre-derivation setting means that sets the derivation storage means to the pre-derivative state,
A derivation execution means for deriving the control information by using the derivation storage means set in the pre-derivation state,
With
The setting to the pre-derivation state by the pre-derivation setting means is a configuration that can be executed a plurality of times to generate the generated data at the update timing of one image.
The derivation executing means is the control corresponding to a plurality of types of individual images after the pre-deriving state is set by the pre-deriving setting means and before the pre-deriving state is newly set. It is characterized in that it is provided with a plurality of correspondence derivation means for deriving information.

本発明によれば、表示制御を好適に行うことが可能となる。 According to the present invention, it is possible to preferably perform display control.

第1の実施形態におけるパチンコ機を示す斜視図である。It is a perspective view which shows the pachinko machine in 1st Embodiment. 遊技盤の構成を示す正面図である。It is a front view which shows the structure of the game board. (a)〜(j)図柄表示装置の表示面における表示内容を説明するための説明図である。It is explanatory drawing for demonstrating the display content on the display surface of the symbol display apparatus (a)-(j). (a),(b)図柄表示装置の表示面における表示内容を説明するための説明図である。It is explanatory drawing for demonstrating the display content on the display surface of the symbol display apparatus (a), (b). パチンコ機の電気的構成を示すブロック図である。It is a block diagram which shows the electric structure of a pachinko machine. 当否抽選などに用いられる各種カウンタの内容を説明するための説明図である。It is explanatory drawing for demonstrating the contents of various counters used for a winning or failing lottery. 主制御装置のMPUにて実行されるメイン処理を示すフローチャートである。It is a flowchart which shows the main process which is executed in MPU of a main control unit. 主制御装置のMPUにて実行されるタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interrupt processing executed by MPU of a main control unit. 音光側MPUにて実行されるタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interrupt processing executed in the sound light side MPU. 音光側MPUにて実行される主側コマンド対応処理を示すフローチャートである。It is a flowchart which shows the main side command correspondence processing which is executed in the sound light side MPU. 制御パターンテーブルを説明するための説明図である。It is explanatory drawing for demonstrating the control pattern table. (a)〜(c)音光側MPUから表示CPU72に送信されるコマンドの内容を説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the content of the command transmitted from the sound light side MPU to the display CPU 72. 各コマンドデータにより指示される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content instructed by each command data. 音光側MPUにて実行されるコマンド選択処理を示すフローチャートである。It is a flowchart which shows the command selection process executed in the sound light side MPU. 表示CPUにて実行されるV割込み処理を示すフローチャートである。It is a flowchart which shows the V interrupt processing executed by a display CPU. (a)表示CPUにて実行されるコマンド解析処理を示すフローチャートであり、(b)コマンド格納バッファを説明するための説明図である。(A) It is a flowchart which shows the command analysis processing executed by the display CPU, and (b) is explanatory drawing for explaining the command storage buffer. 表示CPUにて実行されるコマンド対応処理を示すフローチャートである。It is a flowchart which shows the command correspondence processing executed by the display CPU. 参照テーブルを説明するための説明図である。It is explanatory drawing for demonstrating the reference table. 表示CPUにて実行されるタスク処理を示すフローチャートである。It is a flowchart which shows the task processing which is executed by the display CPU. 音光側MPUにて実行される表示側コマンド対応処理を示すフローチャートである。It is a flowchart which shows the display side command correspondence processing which is executed in the sound light side MPU. タスク処理との関係で実行対象テーブルのポインタ情報の調整が行われる様子を示すタイムチャートである。It is a time chart which shows how the pointer information of the execution target table is adjusted in relation to the task processing. (a)〜(c)描画リストの内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a)-(c) drawing list. VDPにて実行される描画処理を示すフローチャートである。It is a flowchart which shows the drawing process which is executed by VDP. (a)〜(c)色替え演出の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a)-(c) color change effect. (a)色替え演出を実行するためのメモリモジュールのデータ構成を説明するための説明図であり、(b)カラーパレットを説明するための説明図である。It is explanatory drawing for demonstrating (a) the data structure of the memory module for executing a color change effect, and (b) is an explanatory diagram for demonstrating the color palette. 表示CPUにて実行される色替え演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the color change effect executed by the display CPU. VDPにて実行される色替え演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the color change effect executed by VDP. VDPにて実行される色替え演出用の書き込み処理を示すフローチャートである。It is a flowchart which shows the writing process for the color change effect executed by VDP. (a)〜(e)エフェクト演出を説明するための説明図である。It is explanatory drawing for demonstrating (a)-(e) effect effect. 表示CPUにて実行されるエフェクト演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for effect effect executed by the display CPU. VDPにて実行されるエフェクト演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for effect effect execution executed by VDP. VDPにて実行されるエフェクト演出用の書き込み処理を示すフローチャートである。It is a flowchart which shows the writing process for effect effect execution which is executed in VDP. (a)〜(e)発展演出を説明するための説明図である。It is explanatory drawing for demonstrating (a)-(e) development production. 各エフェクト用画像データを利用して発展演出が実行される様子を示すタイムチャートである。It is a time chart which shows how the development effect is executed using the image data for each effect. 表示CPUにて実行される発展演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for development effect executed by the display CPU. VDPにて実行される発展演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for development effect executed by VDP. (a)同時表示演出を説明するための説明図であり、(b)同時表示演出を実行するためのデータ構成を説明するための説明図であり、(c)増加時用エフェクト画像を表示するための画像データを説明するための説明図である。It is explanatory drawing for demonstrating (a) simultaneous display effect, (b) explanatory diagram for demonstrating the data structure for executing simultaneous display effect, and (c) displaying the effect image at the time of increase. It is explanatory drawing for demonstrating the image data for this. 増加時用エフェクト画像を表示するための画像データとして、通常エフェクト用画像データ及び簡易エフェクト用画像データが使い分けられる様子を示すタイムチャートである。It is a time chart which shows how the image data for a normal effect and the image data for a simple effect are properly used as the image data for displaying the effect image at the time of increase. 表示CPUにて実行される同時表示演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for simultaneous display effect executed by the display CPU. VDPにて実行される同時表示演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for simultaneous display effect executed by VDP. 第2の実施形態におけるパチンコ機の電気的構成を示すブロック図である。It is a block diagram which shows the electric structure of the pachinko machine in 2nd Embodiment. 表示CPUにて実行されるタスク処理を示すフローチャートである。It is a flowchart which shows the task processing which is executed by the display CPU. (a)〜(c)描画リストの内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a)-(c) drawing list. VDPにて実行される描画処理を示すフローチャートである。It is a flowchart which shows the drawing process which is executed by VDP. 描画処理の実行に伴い描画データが作成される様子を説明するための説明図である。It is explanatory drawing for demonstrating how drawing data is created with execution of drawing processing. (a),(b)ループ演出を説明するための説明図である。It is explanatory drawing for demonstrating (a), (b) loop effect. (a)ループ演出を実行するためのデータ構成を説明するための説明図であり、(b)配合テーブルを説明するための説明図である。(A) It is explanatory drawing for demonstrating the data structure for executing a loop effect, and (b) is explanatory drawing for demonstrating the compounding table. ループ演出が実行される様子を示すタイムチャートである。It is a time chart showing how a loop effect is executed. 表示CPUにて実行されるループ演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for a loop effect executed by a display CPU. 表示CPUにて実行される補間表示期間用処理を示すフローチャートである。It is a flowchart which shows the interpolation display period processing executed by a display CPU. ループ演出用Aキャラクタ及びループ演出用Bキャラクタについて配合による座標データの導出が開始されるタイミングを示すタイムチャートである。It is a time chart which shows the timing which the derivation of the coordinate data by a combination is started for A character for loop effect and B character for loop effect. VDPにて実行されるループ演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for a loop effect executed by VDP. 先開始対象決定用テーブルを説明するための説明図である。It is explanatory drawing for demonstrating the table for determining the first start target. 表示CPUにて実行される補間表示期間用処理を示すフローチャートである。It is a flowchart which shows the interpolation display period processing executed by a display CPU. (a),(b)ボーンモデル表示の内容を説明するための説明図である。It is explanatory drawing for demonstrating the contents of (a), (b) bone model display. ボーンモデル表示を行うためのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure for performing a bone model display. (a)骨格データを説明するための説明図であり、(b)座標演算用エリアを説明するための説明図である。It is explanatory drawing for demonstrating (a) skeleton data, and (b) is explanatory diagram for demonstrating the coordinate calculation area. 表示CPUにて実行されるボーンモデル表示演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the bone model display effect executed by the display CPU. 表示CPUにて実行される座標演算処理を示すフローチャートである。It is a flowchart which shows the coordinate calculation processing executed by the display CPU. VDPにて実行されるボーンモデル表示演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the bone model display effect executed by VDP. (a),(b)集合キャラクタ群を説明するための説明図である。It is explanatory drawing for demonstrating (a), (b) a set character group. 各集合単位キャラクタの骨格データを説明するための説明図である。It is explanatory drawing for demonstrating the skeleton data of each set unit character. (a)〜(c)ボーン表示用キャラクタと集合単位キャラクタとの各データ量を比較するための説明図である。It is explanatory drawing for comparing each data amount of (a)-(c) bone display character and set unit character. 集合用ボーンアニメーションデータを説明するための説明図である。It is explanatory drawing for demonstrating the bone animation data for a set. (a),(b)各集合単位キャラクタの動作内容を説明するための説明図である。It is explanatory drawing for demonstrating the operation content of each set unit character (a), (b). (a),(b)平面影表示の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a), (b) plane shadow display. 平面影表示を行うために必要なデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure necessary for performing a plane shadow display. 表示CPUにて実行される平面影表示用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for plane shadow display executed by the display CPU. VDPにて実行される平面影表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for plane shadow display executed by VDP. (a),(b)平面影表示の別形態の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of another form of (a), (b) plane shadow display. 表示CPUにて実行される平面影表示用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for plane shadow display executed by the display CPU. (a)段差影表示の内容を説明するための説明図であり、(b)段差影表示を行うために必要なデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a) step shadow display, and (b) is explanatory drawing for demonstrating the data structure necessary for performing step shadow display. 表示CPUにて実行される段差影表示用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the step shadow display executed by the display CPU. VDPにて実行される段差影表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the step shadow display executed by VDP. (a)変動表示演出の内容を説明するための説明図であり、(b)VRAMの展開用バッファにおいて変動表示演出の実行に際して利用されるエリアの構成を説明するための説明図である。(A) It is explanatory drawing for demonstrating the content of the variable display effect, and (b) is explanatory drawing for demonstrating the structure of the area used when executing the variable display effect in the expansion buffer of VRAM. 表示CPUにて実行される変動表示演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the variation display effect executed by the display CPU. VDPにて実行される変動表示演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the variation display effect executed by VDP. VDPにて実行される変動表示演出用の描画データ作成処理を示すフローチャートである。It is a flowchart which shows the drawing data creation process for the variation display effect executed by VDP. (a)〜(c)各保存用バッファに保存された図柄表示部の描画データを説明するための説明図である。It is explanatory drawing for demonstrating the drawing data of the symbol display part saved in each storage buffer (a) to (c). (a)〜(e)各保存用バッファに保存された描画データを利用して変動表示演出用画像の描画データが作成される様子を説明するための説明図である。It is explanatory drawing for demonstrating how the drawing data of the variable display effect image is created by using the drawing data saved in each storage buffer (a) to (e). (a),(b)歪み背景表示の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a), (b) distortion background display. (a)〜(c)歪み背景表示を行うための画像データを説明するための説明図である。It is explanatory drawing for demonstrating the image data for performing (a)-(c) distortion background display. 表示CPUにて実行される歪み背景表示用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for distortion background display executed by the display CPU. VDPにて実行される歪み背景表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for distortion background display executed by VDP. VDPにて実行される屈折適用処理を示すフローチャートである。It is a flowchart which shows the refraction application processing executed by VDP.

<第1の実施形態>
以下、遊技機の一種であるパチンコ遊技機(以下、「パチンコ機」という)の第1の実施形態を、図面に基づいて詳細に説明する。図1はパチンコ機10の斜視図である。
<First Embodiment>
Hereinafter, a first embodiment of a pachinko gaming machine (hereinafter, referred to as a “pachinko machine”), which is a type of gaming machine, will be described in detail with reference to the drawings. FIG. 1 is a perspective view of the pachinko machine 10.

パチンコ機10は、図1に示すように、当該パチンコ機10の外殻を形成する外枠11と、この外枠11に対して前方に回動可能に取り付けられた遊技機本体12とを有する。遊技機本体12は、内枠13と、その内枠13の前方に配置される前扉枠14と、内枠13の後方に配置される裏パックユニット15とを備えている。遊技機本体12のうち内枠13が外枠11に対して回動可能に支持されている。詳細には、正面視で左側を回動基端側とし右側を回動先端側として内枠13が前方へ回動可能とされている。内枠13には、前扉枠14が回動可能に支持されており、正面視で左側を回動基端側とし右側を回動先端側として前方へ回動可能とされている。また、内枠13には、裏パックユニット15が回動可能に支持されており、正面視で左側を回動基端側とし右側を回動先端側として後方へ回動可能とされている。 As shown in FIG. 1, the pachinko machine 10 has an outer frame 11 forming the outer shell of the pachinko machine 10 and a game machine main body 12 rotatably attached to the outer frame 11 in the forward direction. .. The game machine main body 12 includes an inner frame 13, a front door frame 14 arranged in front of the inner frame 13, and a back pack unit 15 arranged behind the inner frame 13. The inner frame 13 of the game machine main body 12 is rotatably supported with respect to the outer frame 11. Specifically, the inner frame 13 can rotate forward with the left side as the rotation base end side and the right side as the rotation tip side in front view. The front door frame 14 is rotatably supported on the inner frame 13, and is rotatable forward with the left side as the rotation base end side and the right side as the rotation tip side in front view. Further, the back pack unit 15 is rotatably supported on the inner frame 13, and can be rotated rearward with the left side as the rotation base end side and the right side as the rotation tip side in front view.

なお、遊技機本体12には、その回動先端部に施錠装置が設けられており、遊技機本体12を外枠11に対して開放不能に施錠状態とする機能を有しているとともに、前扉枠14を内枠13に対して開放不能に施錠状態とする機能を有している。これらの各施錠状態は、パチンコ機10前面にて露出させて設けられたシリンダ錠17に対して解錠キーを用いて解錠操作を行うことにより、それぞれ解除される。 The game machine main body 12 is provided with a locking device at the rotating tip portion thereof, and has a function of locking the game machine main body 12 with respect to the outer frame 11 so as not to be openable. It has a function of locking the door frame 14 so that it cannot be opened with respect to the inner frame 13. Each of these locked states is released by performing an unlocking operation using the unlocking key on the cylinder lock 17 provided exposed on the front surface of the pachinko machine 10.

内枠13には遊技盤24が搭載されている。図2は遊技盤24の正面図である。 A game board 24 is mounted on the inner frame 13. FIG. 2 is a front view of the game board 24.

遊技盤24には、遊技領域PAの外縁の一部を区画するようにして内レール部25と外レール部26とが取り付けられており、これら内レール部25と外レール部26とにより誘導手段としての誘導レールが構成されている。内枠13において遊技盤24の下方に取り付けられた遊技球発射機構(図示略)から発射された遊技球は誘導レールにより遊技領域PAの上部に案内されるようになっている。遊技球発射機構は、前扉枠14に設けられた発射操作装置28が手動操作されることにより遊技球の発射動作を行う。 An inner rail portion 25 and an outer rail portion 26 are attached to the game board 24 so as to partition a part of the outer edge of the game area PA, and the guiding means is provided by the inner rail portion 25 and the outer rail portion 26. The guide rail is configured as. The game ball launched from the game ball launch mechanism (not shown) attached to the lower part of the game board 24 in the inner frame 13 is guided to the upper part of the game area PA by the guide rail. The game ball launch mechanism performs a game ball launch operation by manually operating the launch operation device 28 provided on the front door frame 14.

遊技盤24には、前後方向に貫通する大小複数の開口部が形成されている。各開口部には一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34、スルーゲート35、可変表示ユニット36、特図ユニット37及び普図ユニット38等がそれぞれ設けられている。 The game board 24 is formed with a plurality of large and small openings penetrating in the front-rear direction. Each opening is provided with a general winning opening 31, a special electric winning device 32, a first operating port 33, a second operating port 34, a through gate 35, a variable display unit 36, a special drawing unit 37, a normal drawing unit 38, and the like. ing.

スルーゲート35への入球が発生したとしても遊技球の払い出しは実行されない。一方、一般入賞口31、特電入賞装置32、第1作動口33及び第2作動口34への入球が発生すると、所定数の遊技球の払い出しが実行される。当該賞球個数について具体的には、第1作動口33への入球が発生した場合又は第2作動口34への入球が発生した場合には、3個の賞球の払い出しが実行され、一般入賞口31への入球が発生した場合には、10個の賞球の払い出しが実行され、特電入賞装置32への入球が発生した場合には、15個の賞球の払い出しが実行される。 Even if the ball enters the through gate 35, the game ball is not paid out. On the other hand, when a ball enters the general winning opening 31, the special electric winning device 32, the first operating port 33, and the second operating port 34, a predetermined number of game balls are paid out. Specifically, when the number of prize balls enters the first operating port 33 or when the balls enter the second operating port 34, three prize balls are paid out. , When a ball is entered into the general winning opening 31, 10 prize balls are paid out, and when a ball is entered into the special electric winning device 32, 15 prize balls are paid out. Will be executed.

なお、上記賞球個数は任意であり、例えば、第2作動口34の方が第1作動口33よりも賞球個数が少ない構成としてもよく、第2作動口34の方が第1作動口33よりも賞球個数が多い構成としてもよい。 The number of prize balls is arbitrary. For example, the number of prize balls in the second operating port 34 may be smaller than that in the first operating port 33, and the second operating port 34 is the first operating port. The number of prize balls may be larger than 33.

その他に、遊技盤24の最下部にはアウト口24aが設けられており、各種入賞口等に入らなかった遊技球はアウト口24aを通って遊技領域PAから排出される。また、遊技盤24には、遊技球の落下方向を適宜分散、調整等するために多数の釘24bが植設されているとともに、風車等の各種部材が配設されている。 In addition, an out port 24a is provided at the lowermost portion of the game board 24, and a game ball that does not enter various winning openings or the like is discharged from the game area PA through the out opening 24a. Further, on the game board 24, a large number of nails 24b are planted in order to appropriately disperse and adjust the falling direction of the game ball, and various members such as a windmill are arranged.

ここで、入球とは所定の開口部を遊技球が通過することを意味し、開口部を通過した後に遊技領域PAから排出される態様だけでなく、開口部を通過した後に遊技領域PAから排出されることなく遊技領域PAの流下を継続する態様も含まれる。但し、以下の説明では、アウト口24aへの遊技球の入球と明確に区別するために、一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34及びスルーゲート35への遊技球の入球を、入賞とも表現する。 Here, the entry ball means that the game ball passes through a predetermined opening, and not only the mode in which the game ball is discharged from the game area PA after passing through the opening, but also from the game area PA after passing through the opening. A mode in which the flow of the game area PA is continued without being discharged is also included. However, in the following description, in order to clearly distinguish the ball from entering the game ball into the out port 24a, the general winning opening 31, the special electric winning device 32, the first operating port 33, the second operating port 34, and the through gate 35 The entry of a game ball into the game is also referred to as a prize.

第1作動口33及び第2作動口34は、作動口装置としてユニット化されて遊技盤24に設置されている。第1作動口33及び第2作動口34は共に上向きに開放されている。また、第1作動口33が上方となるようにして両作動口33,34は鉛直方向に並んでいる。第2作動口34には、左右一対の可動片よりなるガイド片としての普電役物34aが設けられている。普電役物34aの閉鎖状態では遊技球が第2作動口34に入賞できず、普電役物34aが開放状態となることで第2作動口34への入賞が可能となる。 The first operating port 33 and the second operating port 34 are unitized as an operating port device and installed on the game board 24. Both the first operating port 33 and the second operating port 34 are opened upward. Further, both operating ports 33 and 34 are arranged in the vertical direction so that the first operating port 33 faces upward. The second operating port 34 is provided with a general electric accessory 34a as a guide piece composed of a pair of left and right movable pieces. In the closed state of the general electric accessory 34a, the game ball cannot win the prize in the second operating port 34, and when the general electric accessory 34a is in the open state, the prize can be won in the second operating port 34.

第2作動口34よりも遊技球の流下方向の上流側に、スルーゲート35が設けられている。スルーゲート35は縦方向に貫通した図示しない貫通孔を有しており、スルーゲート35に入賞した遊技球は入賞後に遊技領域PAを流下する。これにより、スルーゲート35に入賞した遊技球が第2作動口34へ入賞することが可能となっている。 A through gate 35 is provided on the upstream side in the flow direction of the game ball from the second operating port 34. The through gate 35 has a through hole (not shown) penetrating in the vertical direction, and the game ball winning the through gate 35 flows down the game area PA after winning the prize. As a result, the game ball that has won the through gate 35 can win the second operating port 34.

スルーゲート35への入賞に基づき第2作動口34の普電役物34aが閉鎖状態から開放状態に切り換えられる。具体的には、スルーゲート35への入賞をトリガとして内部抽選が行われるとともに、遊技領域PAにおいて遊技球が通過しない領域である右下の隅部に設けられた普図ユニット38の普図表示部38aにて絵柄の変動表示が行われる。そして、内部抽選の結果が電役開放当選であり当該結果に対応した停止結果が表示されて普図表示部38aの変動表示が終了された場合に普電開放状態へ移行する。普電開放状態では、普電役物34aが所定の態様で開放状態となる。 Based on the winning of the through gate 35, the general electric accessory 34a of the second operating port 34 is switched from the closed state to the open state. Specifically, an internal lottery is performed triggered by winning a prize in the through gate 35, and a normal map display of the normal map unit 38 provided in the lower right corner, which is an area where the game ball does not pass in the game area PA. The variable display of the pattern is performed in the part 38a. Then, when the result of the internal lottery is the winning of the electric service opening, the stop result corresponding to the result is displayed, and the variable display of the general map display unit 38a is completed, the state shifts to the general electric opening state. In the open state of the general electric power, the general electric accessory 34a is in the open state in a predetermined mode.

なお、普図表示部38aは、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT又はドットマトリックス表示器等その他のタイプの表示装置によって構成されていてもよい。また、普図表示部38aにて変動表示される絵柄としては、複数種の文字が変動表示される構成、複数種の記号が変動表示される構成、複数種のキャラクタが変動表示される構成又は複数種の色が切り換え表示される構成などが考えられる。 The cathode ray display unit 38a is composed of a segment display device in which a plurality of segment light emitting units are arranged in a predetermined manner, but the present invention is not limited to this, and a liquid crystal display device and an organic EL display device are used. , CRT or other types of display devices such as dot matrix display devices. In addition, as the pattern that is variablely displayed on the general map display unit 38a, a configuration in which a plurality of types of characters are variablely displayed, a configuration in which a plurality of types of symbols are variablely displayed, a configuration in which a plurality of types of characters are variablely displayed, or A configuration in which multiple types of colors are switched and displayed can be considered.

普図ユニット38において、普図表示部38aに隣接した位置には、普図保留表示部38bが設けられている。遊技球がスルーゲート35に入賞した個数は最大4個まで保留され、普図保留表示部38bの点灯によってその保留個数が表示されるようになっている。 In the normal drawing unit 38, a normal drawing holding display unit 38b is provided at a position adjacent to the normal drawing display unit 38a. The maximum number of game balls that have won a prize in the through gate 35 is reserved, and the reserved number is displayed by lighting the general drawing reservation display unit 38b.

第1作動口33又は第2作動口34への入賞をトリガとして当たり抽選が行われる。そして、当該抽選結果は特図ユニット37及び可変表示ユニット36の図柄表示装置41における表示演出を通じて明示される。 A winning lottery is performed triggered by winning a prize in the first operating port 33 or the second operating port 34. Then, the lottery result is clarified through the display effect on the symbol display device 41 of the special figure unit 37 and the variable display unit 36.

特図ユニット37について詳細には、特図ユニット37には特図表示部37aが設けられている。特図表示部37aの表示領域は図柄表示装置41の表示面Pよりも狭い。特図表示部37aでは、第1作動口33への入賞又は第2作動口34への入賞をトリガとして当たり抽選が行われることで絵柄の変動表示又は所定の表示が行われる。そして、抽選結果に対応した結果が表示される。なお、特図表示部37aは、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT又はドットマトリックス表示器等その他のタイプの表示装置によって構成されていてもよい。また、特図表示部37aにて表示される絵柄としては、複数種の文字が表示される構成、複数種の記号が表示される構成、複数種のキャラクタが表示される構成又は複数種の色が表示される構成などが考えられる。 More specifically, the special figure unit 37 is provided with a special figure display unit 37a. The display area of the special figure display unit 37a is narrower than the display surface P of the symbol display device 41. In the special figure display unit 37a, a winning lottery is performed triggered by a prize in the first operating port 33 or a winning in the second operating port 34, so that a variable display of the pattern or a predetermined display is performed. Then, the result corresponding to the lottery result is displayed. The special figure display unit 37a is composed of a segment display in which a plurality of segment light emitting units are arranged in a predetermined manner, but the present invention is not limited to this, and a liquid crystal display device and an organic EL display device are used. , CRT or other types of display devices such as dot matrix display devices. Further, as the pattern displayed on the special figure display unit 37a, a configuration in which a plurality of types of characters are displayed, a configuration in which a plurality of types of symbols are displayed, a configuration in which a plurality of types of characters are displayed, or a configuration in which a plurality of types of colors are displayed. Can be considered.

特図ユニット37において、特図表示部37aに隣接した位置には、特図保留表示部37bが設けられている。遊技球が第1作動口33又は第2作動口34に入賞した個数は最大4個まで保留され、特図保留表示部37bの点灯によってその保留個数が表示されるようになっている。 In the special figure unit 37, a special figure holding display unit 37b is provided at a position adjacent to the special figure display unit 37a. The number of winning game balls in the first operating port 33 or the second operating port 34 is reserved up to a maximum of four, and the reserved number is displayed by lighting the special figure reservation display unit 37b.

図柄表示装置41について詳細には、図柄表示装置41は、液晶ディスプレイを備えた液晶表示装置として構成されており、後述する表示制御装置により表示内容が制御される。なお、図柄表示装置41は、液晶表示装置に限定されることはなく、プラズマディスプレイ装置、有機EL表示装置又はCRTといった表示面を有する他の表示装置であってもよく、ドットマトリクス表示器であってもよい。 Regarding the symbol display device 41 In detail, the symbol display device 41 is configured as a liquid crystal display device provided with a liquid crystal display, and the display content is controlled by a display control device described later. The symbol display device 41 is not limited to the liquid crystal display device, and may be another display device having a display surface such as a plasma display device, an organic EL display device, or a CRT, and is a dot matrix display device. You may.

図柄表示装置41では、第1作動口33への入賞又は第2作動口34への入賞に基づき特図表示部37aにて絵柄の変動表示又は所定の表示が行われる場合にそれに合わせて図柄の変動表示又は所定の表示が行われる。すなわち、特図表示部37aにおいて変動表示が行われる場合には、それに合わせて図柄表示装置41において変動表示が行われる。そして、例えば、遊技結果が大当たり結果となる遊技回では、図柄表示装置41では予め設定されている有効ライン上に所定の組合せの図柄が停止表示される。 In the symbol display device 41, when the special symbol display unit 37a performs a variable display or a predetermined display of the symbol based on the winning of the first operating port 33 or the winning of the second operating port 34, the symbol is displayed accordingly. A variable display or a predetermined display is performed. That is, when the special figure display unit 37a performs the variable display, the symbol display device 41 performs the variable display accordingly. Then, for example, in a game round in which the game result is a big hit result, the symbol display device 41 stops and displays a predetermined combination of symbols on a preset effective line.

図柄表示装置41の表示内容について、図3及び図4を参照して詳細に説明する。図3は図柄表示装置41にて変動表示される図柄を個々に示す図であり、図4は図柄表示装置41の表示面Pを示す図である。 The display contents of the symbol display device 41 will be described in detail with reference to FIGS. 3 and 4. FIG. 3 is a diagram showing individual symbols that are variablely displayed by the symbol display device 41, and FIG. 4 is a diagram showing a display surface P of the symbol display device 41.

図3(a)〜(j)に示すように、絵柄の一種である図柄は、「1」〜「9」の数字が各々付された9種類の主図柄と、貝形状の絵図柄からなる副図柄とにより構成されている。より詳しくは、タコ等の9種類のキャラクタ図柄に「1」〜「9」の数字がそれぞれ付されて主図柄が構成されている。 As shown in FIGS. 3 (a) to 3 (j), a design which is a kind of design consists of nine main designs with numbers "1" to "9" and a shell-shaped design. It is composed of sub-designs. More specifically, nine types of character symbols such as an octopus are assigned numbers "1" to "9" to form a main symbol.

図4(a)に示すように、図柄表示装置41の表示面Pには、複数の表示領域として、上段・中段・下段の3つの図柄列Z1,Z2,Z3が設定されている。各図柄列Z1〜Z3は、主図柄と副図柄が所定の順序で配列されて構成されている。詳細には、上図柄列Z1には、「1」〜「9」の9種類の主図柄が数字の降順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。下図柄列Z3には、「1」〜「9」の9種類の主図柄が数字の昇順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。 As shown in FIG. 4A, on the display surface P of the symbol display device 41, three symbol rows Z1, Z2, and Z3 of an upper row, a middle row, and a lower row are set as a plurality of display areas. Each symbol row Z1 to Z3 is configured by arranging a main symbol and a sub symbol in a predetermined order. Specifically, in the upper symbol row Z1, nine types of main symbols "1" to "9" are arranged in descending order of numbers, and one sub symbol is arranged between each main symbol. .. In the lower symbol row Z3, nine types of main symbols "1" to "9" are arranged in ascending order of numbers, and one sub symbol is arranged between each main symbol.

つまり、上図柄列Z1と下図柄列Z3は18個の図柄により構成されている。これに対し、中図柄列Z2には、数字の昇順に「1」〜「9」の9種類の主図柄が配列された上で「9」の主図柄と「1」の主図柄との間に「4」の主図柄が付加的に配列され、これら各主図柄の間に副図柄が1つずつ配されている。つまり、中図柄列Z2に限っては、10個の主図柄が配されて20個の図柄により構成されている。そして、表示面Pでは、これら各図柄列Z1〜Z3の図柄が周期性をもって所定の向きにスクロールするように変動表示される。 That is, the upper symbol row Z1 and the lower symbol row Z3 are composed of 18 symbols. On the other hand, in the middle symbol string Z2, nine types of main symbols "1" to "9" are arranged in ascending order of numbers, and then between the main symbol of "9" and the main symbol of "1". The main symbol of "4" is additionally arranged in the above, and one sub symbol is arranged between each of these main symbols. That is, only in the middle symbol row Z2, 10 main symbols are arranged and composed of 20 symbols. Then, on the display surface P, the symbols in each of the symbol rows Z1 to Z3 are variably displayed so as to scroll in a predetermined direction with periodicity.

図4(b)に示すように、表示面Pは、図柄列毎に3個の図柄が停止表示されるようになっており、結果として3×3の計9個の図柄が停止表示されるようになっている。また、表示面Pには、5つの有効ライン、すなわち左ラインL1、中ラインL2、右ラインL3、右下がりラインL4、右上がりラインL5が設定されている。そして、上図柄列Z1→下図柄列Z3→中図柄列Z2の順に変動表示が停止し、いずれかの有効ラインに同一の数字が付された図柄の組合せが形成された状態で全図柄列Z1〜Z3の変動表示が終了すれば、後述する通常大当たり結果又は15R確変大当たり結果の発生として大当たり動画が表示されるようになっている。 As shown in FIG. 4B, on the display surface P, three symbols are stopped and displayed for each symbol row, and as a result, a total of nine symbols of 3 × 3 are stopped and displayed. It has become like. Further, five effective lines, that is, a left line L1, a middle line L2, a right line L3, a right-down line L4, and a right-up line L5 are set on the display surface P. Then, the variable display is stopped in the order of the upper symbol row Z1 → the lower symbol row Z3 → the middle symbol row Z2, and all the symbol rows Z1 are formed in a state where a combination of symbols with the same number is formed on one of the effective lines. When the variation display of ~ Z3 is completed, the jackpot moving image is displayed as the occurrence of the normal jackpot result or the 15R probability variation jackpot result described later.

本パチンコ機10では、奇数番号(1,3,5,7,9)が付された主図柄は「特定図柄」に相当するとともに、偶数番号(2,4,6,8)が付された主図柄は「非特定図柄」に相当する。15R確変大当たり結果が発生する場合には、同一の特定図柄の組合せ又は同一の非特定図柄の組合せが停止表示される。また、通常大当たり結果が発生する場合には、同一の非特定図柄の組合せが停止表示される。また、後述する明示2R確変大当たり結果となる場合には、同一の図柄の組合せとは異なる所定の図柄の組合せが形成された状態で全図柄列Z1〜Z3の変動表示が終了し、その後に、明示用動画が表示されるようになっている。 In this pachinko machine 10, the main symbols with odd numbers (1,3,5,7,9) correspond to "specific symbols" and even numbers (2,4,5,6,8) are assigned. The main symbol corresponds to a "non-specific symbol". When the 15R probability variation jackpot result occurs, the same combination of specific symbols or the same combination of non-specific symbols is stopped and displayed. In addition, when a normal jackpot result occurs, the same combination of non-specific symbols is stopped and displayed. Further, in the case of the explicit 2R probability variation jackpot result described later, the variation display of all the symbol rows Z1 to Z3 is completed in a state where a predetermined symbol combination different from the same symbol combination is formed, and then, An explicit video is displayed.

なお、図柄表示装置41における図柄の変動表示の態様は上記のものに限定されることはなく任意であり、図柄列の数、図柄列における図柄の変動表示の方向、各図柄列の図柄数などは適宜変更可能である。また、図柄表示装置41にて変動表示される絵柄は上記のような図柄に限定されることはなく、例えば絵柄として数字のみが変動表示される構成としてもよい。 The mode of variable display of symbols in the symbol display device 41 is not limited to the above, and is arbitrary, such as the number of symbol rows, the direction of variable display of symbols in the symbol row, the number of symbols in each symbol row, and the like. Can be changed as appropriate. Further, the pattern to be variablely displayed by the symbol display device 41 is not limited to the above-mentioned symbol, and for example, only numbers may be variablely displayed as the symbol.

また、いずれかの作動口33,34への入賞に基づいて、特図表示部37a及び図柄表示装置41にて変動表示が開始され、所定の停止結果を表示し上記変動表示が停止されるまでが遊技回の1回に相当する。 Further, based on the winning of any of the operating ports 33 and 34, the variation display is started on the special figure display unit 37a and the symbol display device 41, a predetermined stop result is displayed, and the variation display is stopped. Is equivalent to one game.

図2の説明に戻り、第1作動口33への入賞又は第2作動口34への入賞に基づく当たり抽選にて大当たり当選となった場合には、特電入賞装置32への入賞が可能となる開閉実行モードへ移行する。特電入賞装置32は、遊技盤24の背面側へと通じる図示しない大入賞口を備えているとともに、当該大入賞口を開閉する開閉扉32aを備えている。開閉扉32aは、閉鎖状態及び開放状態のいずれかに配置される。具体的には、開閉扉32aは、通常は遊技球が入賞できない閉鎖状態になっており、内部抽選において開閉実行モードへの移行に当選した場合に遊技球が入賞可能な開放状態に切り換えられるようになっている。ちなみに、開閉実行モードとは、当たり結果となった場合に移行することとなるモードである。なお、閉鎖状態では入賞が不可ではないが開放状態よりも入賞が発生しづらい状態となる構成としてもよい。また、開閉実行モードにおいては、当該開閉実行モードに対応した表示演出が図柄表示装置41にて実行される。 Returning to the explanation of FIG. 2, if a big hit is won in the winning lottery based on the winning of the first operating port 33 or the winning of the second operating port 34, the special electric winning device 32 can be won. Shift to open / close execution mode. The special electric winning device 32 includes a large winning opening (not shown) leading to the back side of the game board 24, and also includes an opening / closing door 32a for opening and closing the large winning opening. The opening / closing door 32a is arranged in either a closed state or an open state. Specifically, the opening / closing door 32a is normally in a closed state in which the game ball cannot win a prize, and is switched to an open state in which the game ball can win a prize when the transition to the opening / closing execution mode is won in the internal lottery. It has become. By the way, the open / close execution mode is a mode in which the transition is made when a hit result is obtained. It should be noted that, although it is not impossible to win a prize in the closed state, it may be configured in a state in which it is more difficult to generate a prize than in the open state. Further, in the open / close execution mode, the display effect corresponding to the open / close execution mode is executed by the symbol display device 41.

図1に示すように、上記構成の遊技盤24を有する内枠13の前面側全体を覆うようにして前扉枠14が設けられている。前扉枠14には、図1に示すように、遊技領域PAのほぼ全域を前方から視認することができるようにした窓部42が形成されている。窓部42は、略楕円形状をなし、窓パネル43が嵌め込まれている。窓パネル43は、ガラスによって無色透明に形成されているが、これに限定されることはなく合成樹脂によって無色透明に形成されていてもよく、パチンコ機10前方から窓パネル43を通じて遊技領域PAを視認可能であれば有色透明に形成されていてもよい。 As shown in FIG. 1, the front door frame 14 is provided so as to cover the entire front surface side of the inner frame 13 having the game board 24 having the above configuration. As shown in FIG. 1, the front door frame 14 is formed with a window portion 42 so that almost the entire area of the game area PA can be visually recognized from the front. The window portion 42 has a substantially elliptical shape, and the window panel 43 is fitted therein. The window panel 43 is formed colorless and transparent by glass, but is not limited to this, and may be formed colorless and transparent by synthetic resin, and the game area PA is formed from the front of the pachinko machine 10 through the window panel 43. It may be colored and transparent as long as it is visible.

窓部42の上方には表示発光部44が設けられている。また、遊技状態に応じた効果音などが出力される左右一対のスピーカ部45が設けられている。また、窓部42の下方には、手前側へ膨出した上側膨出部46と下側膨出部47とが上下に並設されている。上側膨出部46内側には上方に開口した上皿46aが設けられており、下側膨出部47内側には同じく上方に開口した下皿47aが設けられている。上皿46aは、裏パックユニット15に設けられた払出装置より払い出された遊技球を一旦貯留し、一列に整列させながら遊技球発射機構側へ導くための機能を有する。また、下皿47aは、上皿46a内にて余剰となった遊技球を貯留する機能を有する。 A display light emitting unit 44 is provided above the window unit 42. Further, a pair of left and right speaker units 45 for outputting sound effects and the like according to the game state are provided. Further, below the window portion 42, an upper bulging portion 46 bulging toward the front side and a lower bulging portion 47 are vertically arranged side by side. An upper plate 46a that opens upward is provided inside the upper bulging portion 46, and a lower plate 47a that also opens upward is provided inside the lower bulging portion 47. The upper plate 46a has a function of temporarily storing the game balls paid out from the payout device provided in the back pack unit 15 and guiding them to the game ball launching mechanism side while arranging them in a row. Further, the lower plate 47a has a function of storing excess game balls in the upper plate 46a.

内枠13の背面側には、主制御装置と、音声発光制御装置と、表示制御装置とが搭載されている。また、裏パックユニット15には、払出装置を含む払出機構部と、払出制御装置と、電源・発射制御装置とが搭載されている。以下、パチンコ機10の電気的な構成について説明する。 A main control device, a voice emission control device, and a display control device are mounted on the back side of the inner frame 13. Further, the back pack unit 15 is equipped with a payout mechanism unit including a payout device, a payout control device, and a power supply / emission control device. Hereinafter, the electrical configuration of the pachinko machine 10 will be described.

<パチンコ機10の電気的構成>
図5は、パチンコ機10の電気的構成を示すブロック図である。
<Electrical configuration of pachinko machine 10>
FIG. 5 is a block diagram showing an electrical configuration of the pachinko machine 10.

<主制御装置50>
主制御装置50は、遊技の主たる制御を司る主制御基板51を具備している。なお、主制御装置50において主制御基板51などを収容する基板ボックスに対して、その開放の痕跡を残すための痕跡手段を付与する又はその開放の痕跡を残すための痕跡構造を設けておくようにしてもよい。当該痕跡手段としては、基板ボックスを構成する複数のケース体を分離不能に結合するとともにその分離に際して所定部位の破壊を要する結合部(カシメ部)の構成や、引き剥がしにして粘着層が接着対象に残ることで剥がされたことの痕跡を残す封印シールを複数のケース体間の境界を跨ぐようにして貼り付ける構成が考えられる。また、痕跡構造としては、基板ボックスを構成する複数のケース体間の境界に対して接着剤を塗布する構成が考えられる。
<Main controller 50>
The main control device 50 includes a main control board 51 that controls the main control of the game. In the main control device 50, the substrate box accommodating the main control board 51 and the like is provided with a trace means for leaving a trace of its opening, or a trace structure for leaving a trace of its opening is provided. It may be. As the trace means, a plurality of case bodies constituting the substrate box are inseparably bonded together, and a joint portion (caulking portion) that requires destruction of a predetermined portion at the time of separation thereof is formed, or an adhesive layer is peeled off and adhered to an adhesive layer. It is conceivable that a sealing sticker that leaves a trace of being peeled off by remaining on the case is attached so as to straddle the boundary between a plurality of case bodies. Further, as the trace structure, a configuration in which an adhesive is applied to the boundary between a plurality of case bodies constituting the substrate box can be considered.

主制御基板51には、MPU52が搭載されている。MPU52には、当該MPU52により実行される各種の制御プログラムや固定値データを記憶したROM53と、そのROM53内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM54と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 The MPU 52 is mounted on the main control board 51. The MPU 52 is a ROM 53 that stores various control programs and fixed value data executed by the MPU 52, and a memory for temporarily storing various data and the like when the control program stored in the ROM 53 is executed. A RAM 54, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, and the like are built in.

なお、ROM53として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。具体的には、NOR型キャッシュメモリが用いられている。但し、これに限定されることはなく、ランダムアクセスが可能であれば、ROM53として用いるメモリの種類は任意である。また、制御及び演算部分と、ROM53と、RAM54とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 53, a storage means (that is, a non-volatile storage means) that can be randomly accessed when reading a control program or fixed value data and does not require an external power supply for storage retention is used. Specifically, a NOR type cache memory is used. However, the present invention is not limited to this, and the type of memory used as the ROM 53 is arbitrary as long as random access is possible. Further, the configuration in which the control and calculation portion, the ROM 53, and the RAM 54 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions may be mounted as separate chips. It may be installed.

MPU52には、入力ポート及び出力ポートがそれぞれ設けられている。MPU52の入力側には、電源・発射制御装置57が接続されている。電源・発射制御装置57は、例えば、遊技場等における商用電源(外部電源)に接続されている。そして、その商用電源から供給される外部電力に基づいて主制御基板51に動作電力を供給する。ちなみに、当該動作電力は主制御基板51だけでなく、払出制御装置55や後述する表示制御装置70といった他の機器にも供給される。 The MPU 52 is provided with an input port and an output port, respectively. A power supply / emission control device 57 is connected to the input side of the MPU 52. The power supply / launch control device 57 is connected to, for example, a commercial power supply (external power supply) in a playground or the like. Then, the operating power is supplied to the main control board 51 based on the external power supplied from the commercial power source. By the way, the operating power is supplied not only to the main control board 51 but also to other devices such as the payout control device 55 and the display control device 70 described later.

なお、MPU52と電源・発射制御装置57との電力経路上に停電監視基板を設けてもよい。この場合、当該停電監視基板により停電の発生が監視され、停電の発生が確認された場合にはMPU52に対して停電信号が送信されるようにすることで、MPU52において停電時用の処理を実行することが可能となる。 A power failure monitoring board may be provided on the power path between the MPU 52 and the power supply / emission control device 57. In this case, the occurrence of a power failure is monitored by the power failure monitoring board, and when the occurrence of a power failure is confirmed, a power failure signal is transmitted to the MPU 52, so that the MPU 52 executes a process for a power failure. It becomes possible to do.

また、MPU52の入力側には、図示しない各種センサが接続されている。当該各種センサの一部として、一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34及びスルーゲート35といった入賞対応入球部に対して1対1で設けられた検知センサが含まれており、MPU52において各入球部への入賞判定(入球判定)が行われる。また、MPU52では第1作動口33及び第2作動口34への入賞に基づいて大当たり発生抽選及び大当たり結果種別抽選を実行するとともに、各遊技回のリーチ発生抽選や表示継続期間の決定抽選を実行する。 Further, various sensors (not shown) are connected to the input side of the MPU 52. As a part of the various sensors, detection provided on a one-to-one basis for winning balls such as a general winning opening 31, a special electric winning device 32, a first operating port 33, a second operating port 34, and a through gate 35. A sensor is included, and the MPU 52 makes a winning determination (ball entry determination) for each ball entry portion. Further, in the MPU 52, a big hit generation lottery and a big hit result type lottery are executed based on the winnings in the first operating port 33 and the second operating port 34, and a reach generation lottery for each game and a lottery for determining the display continuation period are executed. To do.

ここで、MPU52にて各種抽選を行うための構成について説明する。 Here, a configuration for performing various lottery in the MPU 52 will be described.

MPU52は遊技に際し各種カウンタ情報を用いて、大当たり発生抽選、特図表示部37aの表示の設定、図柄表示装置41の図柄表示の設定、普図表示部38aの表示の設定などを行うこととしており、具体的には、図6に示すように、大当たり発生抽選に使用する当たり乱数カウンタC1と、確変大当たり結果や通常大当たり結果等の大当たり種別を判定する際に使用する大当たり種別カウンタC2と、図柄表示装置41が外れ変動する際のリーチ発生抽選に使用するリーチ乱数カウンタC3と、当たり乱数カウンタC1の初期値設定に使用する乱数初期値カウンタCINIと、特図表示部37a及び図柄表示装置41における変動表示時間を決定する変動種別カウンタCSとを用いることとしている。さらに、第2作動口34の普電役物34aを電役開放状態とするか否かの抽選に使用する普電役物開放カウンタC4を用いることとしている。なお、これら各カウンタC1〜C3,CINI,CS,C4は、抽選カウンタ用バッファ54aに設けられている。 The MPU 52 uses various counter information during the game to perform a big hit generation lottery, a setting of the display of the special figure display unit 37a, a setting of the symbol display of the symbol display device 41, a setting of the display of the normal figure display unit 38a, and the like. Specifically, as shown in FIG. 6, the hit random number counter C1 used for the jackpot generation lottery, the jackpot type counter C2 used for determining the jackpot type such as the probability variation jackpot result and the normal jackpot result, and the symbol. Reach occurrence when the display device 41 deviates and fluctuates The reach random number counter C3 used for lottery, the random number initial value counter CINI used for setting the initial value of the hit random number counter C1, and the special figure display unit 37a and the symbol display device 41. A fluctuation type counter CS that determines the fluctuation display time is used. Further, the general electric accessory opening counter C4 used for the lottery as to whether or not the general electric accessory 34a of the second operating port 34 is set to the electric service open state is used. Each of these counters C1 to C3, CINI, CS, and C4 is provided in the lottery counter buffer 54a.

各カウンタC1〜C3,CINI,CS,C4は、その更新の都度前回値に1が加算され、最大値に達した後「0」に戻るループカウンタとなっている。当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3に対応した情報は、第1作動口33又は第2作動口34への入賞が発生した場合に、取得情報記憶手段としての保留格納エリア54bに格納される。 Each of the counters C1 to C3, CINI, CS, and C4 is a loop counter in which 1 is added to the previous value each time the counter is updated, and the counter returns to "0" after reaching the maximum value. The information corresponding to the hit random number counter C1, the jackpot type counter C2, and the reach random number counter C3 is a reserved storage area 54b as an acquisition information storage means when a prize is generated in the first operating port 33 or the second operating port 34. Stored in.

保留格納エリア54bは、保留用エリアREと、実行エリアAEとを備えている。保留用エリアREは、第1保留エリアRE1、第2保留エリアRE2、第3保留エリアRE3及び第4保留エリアRE4を備えており、第1作動口33又は第2作動口34への入賞履歴に合わせて、当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報が保留情報として、いずれかの保留エリアRE1〜RE4に格納される。 The hold storage area 54b includes a hold area RE and an execution area AE. The holding area RE includes a first holding area RE1, a second holding area RE2, a third holding area RE3, and a fourth holding area RE4, and is used in the winning history of the first operating port 33 or the second operating port 34. At the same time, each numerical information of the hit random number counter C1, the jackpot type counter C2, and the reach random number counter C3 is stored as hold information in any of the hold areas RE1 to RE4.

第1保留エリアRE1〜第4保留エリアRE4には、第1作動口33又は第2作動口34への入賞が複数回連続して発生した場合に、第1保留エリアRE1→第2保留エリアRE2→第3保留エリアRE3→第4保留エリアRE4の順に各数値情報が時系列的に格納されていく。このように4つの保留エリアRE1〜RE4が設けられていることにより、第1作動口33又は第2作動口34への遊技球の入賞履歴が最大4個まで保留記憶されるようになっている。なお、保留記憶可能な数は、4個に限定されることはなく任意であり、2個、3個又は5個以上といったように他の複数であってもよく、単数であってもよい。実行エリアAEは、特図表示部37aの変動表示を開始する際に、保留用エリアREの第1保留エリアRE1に格納された各値を移動させるためのエリアであり、1遊技回の開始に際しては実行エリアAEに記憶されている各種数値情報に基づいて、当否判定などが行われる。 In the first holding area RE1 to the fourth holding area RE4, when the first operating port 33 or the second operating port 34 is awarded a plurality of times in succession, the first holding area RE1 → the second holding area RE2 → Each numerical information is stored in the order of the third reserved area RE3 → the fourth reserved area RE4 in chronological order. By providing the four holding areas RE1 to RE4 in this way, up to four winning histories of the game balls in the first operating port 33 or the second operating port 34 can be held and stored. .. The number that can be stored on hold is not limited to 4, and may be any other number such as 2, 3, or 5 or more, or may be a single number. The execution area AE is an area for moving each value stored in the first hold area RE1 of the hold area RE when starting the variable display of the special figure display unit 37a, and at the start of one game round. Is determined based on various numerical information stored in the execution area AE.

各カウンタについて詳しくは、当たり乱数カウンタC1は、例えば0〜599の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。特に当たり乱数カウンタC1が1周した場合、その時点の乱数初期値カウンタCINIの値が当該当たり乱数カウンタC1の初期値として読み込まれる。なお、乱数初期値カウンタCINIは、当たり乱数カウンタC1と同様のループカウンタである(値=0〜599)。当たり乱数カウンタC1は定期的に更新され、遊技球が第1作動口33又は第2作動口34に入賞したタイミングで保留格納エリア54bに格納される。 More specifically, the hit random number counter C1 is configured to add 1 in order within the range of 0 to 599, and return to "0" after reaching the maximum value. In particular, when the hit random number counter C1 makes one round, the value of the random number initial value counter CINI at that time is read as the initial value of the hit random number counter C1. The random number initial value counter CINI is a loop counter similar to the hit random number counter C1 (value = 0 to 599). The hit random number counter C1 is periodically updated and stored in the hold storage area 54b at the timing when the game ball wins the first operating port 33 or the second operating port 34.

大当たり当選となる乱数の値は、ROM53に当否テーブルとして記憶されている。当否テーブルとしては、低確率モード用の当否テーブルと、高確率モード用の当否テーブルとが設定されている。つまり、本パチンコ機10は、当否抽選手段における抽選モードとして、低確率モードと高確率モードとが設定されている。 The value of the random number that wins the jackpot is stored in the ROM 53 as a winning / failing table. As the pass / fail table, a pass / fail table for the low probability mode and a pass / fail table for the high probability mode are set. That is, in the pachinko machine 10, a low probability mode and a high probability mode are set as the lottery mode in the winning / losing lottery means.

上記抽選に際して低確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は2個である。一方、上記抽選に際して高確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は20個である。なお、低確率モードよりも高確率モードの方の当選確率が高くなるのであれば、上記当選となる乱数の数は任意である。 In the gaming state in which the winning / failing table for the low probability mode is referred to in the lottery, the number of random numbers that win the big hit is two. On the other hand, in the gaming state in which the winning / failing table for the high probability mode is referred to in the lottery, the number of random numbers that win the big hit is 20. If the winning probability of the high probability mode is higher than that of the low probability mode, the number of random numbers to be won is arbitrary.

大当たり種別カウンタC2は、0〜29の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。大当たり種別カウンタC2は定期的に更新され、遊技球が第1作動口33又は第2作動口34に入賞したタイミングで保留格納エリア54bに格納される。 The jackpot type counter C2 is configured to be incremented by 1 in order within the range of 0 to 29, and return to "0" after reaching the maximum value. The jackpot type counter C2 is periodically updated, and is stored in the hold storage area 54b at the timing when the game ball wins the first operating port 33 or the second operating port 34.

本パチンコ機10では、複数の大当たり結果が設定されている。これら複数の大当たり結果は、(1)開閉実行モードにおける特電入賞装置32の開閉制御の態様、(2)開閉実行モード終了後の当否抽選手段における抽選モード、(3)開閉実行モード終了後の第2作動口34の普電役物34aにおけるサポートモード、という3つの条件に差異を設けることにより、複数の大当たり結果が設定されている。 In this pachinko machine 10, a plurality of jackpot results are set. These plurality of jackpot results are (1) an mode of opening / closing control of the special electric winning device 32 in the opening / closing execution mode, (2) a lottery mode in the winning / failing lottery means after the opening / closing execution mode ends, and (3) a third after the opening / closing execution mode ends. A plurality of jackpot results are set by providing differences in the three conditions of the support mode in the general electric accessory 34a of the two operating ports 34.

開閉実行モードにおける特電入賞装置32の開閉制御の態様としては、開閉実行モードが開始されてから終了するまでの間における特電入賞装置32への入賞の発生頻度が相対的に高低となるように高頻度入賞モードと低頻度入賞モードとが設定されている。具体的には、高頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口の開閉が15回行われるとともに、1回の開放は30secが経過するまで又は大入賞口への入賞個数が10個となるまで継続される。一方、低頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口の開閉が2回行われるとともに、1回の開放は0.2secが経過するまで又は大入賞口への入賞個数が6個となるまで継続される。 As an mode of opening / closing control of the special electric winning device 32 in the opening / closing execution mode, the frequency of winning the special electric winning device 32 from the start to the end of the opening / closing execution mode is relatively high and low. Frequent winning mode and low frequency winning mode are set. Specifically, in the high-frequency winning mode, the large winning opening is opened and closed 15 times from the start to the end of the opening / closing execution mode, and one opening is until 30 seconds have passed or the winning opening is won. It continues until the number reaches 10. On the other hand, in the low-frequency winning mode, the large winning opening is opened and closed twice from the start to the end of the opening / closing execution mode, and one opening is until 0.2 sec elapses or the number of winnings in the large winning opening. Continues until there are six.

本パチンコ機10では、発射操作装置28が遊技者により操作されている状況では、0.6secに1個の遊技球が遊技領域に向けて発射されるように遊技球発射機構58が駆動制御される。これに対して、低頻度入賞モードでは、上記のとおり1回の大入賞口の開放時間は0.2secとなっている。つまり、低頻度入賞モードでは、遊技球の発射周期よりも1回の大入賞口の開放時間が短くなっている。したがって、低頻度入賞モードにかかる開閉実行モードでは実質的に遊技球の入賞が発生しない。 In the pachinko machine 10, when the launch operation device 28 is operated by the player, the game ball launch mechanism 58 is drive-controlled so that one game ball is launched toward the game area every 0.6 sec. To. On the other hand, in the low frequency winning mode, as described above, the opening time of one large winning opening is 0.2 sec. That is, in the low-frequency winning mode, the opening time of one large winning opening is shorter than the firing cycle of the game ball. Therefore, in the open / close execution mode related to the low frequency winning mode, the winning of the game ball does not substantially occur.

なお、高頻度入賞モード及び低頻度入賞モードにおける大入賞口の開閉回数、1回の開放に対する開放制限時間及び1回の開放に対する開放制限個数は、高頻度入賞モードの方が低頻度入賞モードよりも、開閉実行モードが開始されてから終了するまでの間における特電入賞装置32への入賞の発生頻度が高くなるのであれば、上記の値に限定されることはなく任意である。具体的には、高頻度入賞モードの方が低頻度入賞モードよりも、開閉回数が多い、1回の開放に対する開放制限時間が長い又は1回の開放に対する開放制限個数が多く設定されていればよい。 In the high-frequency winning mode and the low-frequency winning mode, the number of times the large winning opening is opened and closed, the opening time limit for one opening, and the number of opening limits for one opening are higher in the high-frequency winning mode than in the low-frequency winning mode. However, as long as the frequency of winning the special electric winning device 32 increases from the start to the end of the opening / closing execution mode, the value is not limited to the above value and is arbitrary. Specifically, if the high-frequency winning mode has more opening and closing times than the low-frequency winning mode, the opening time limit for one opening is long, or the number of opening limits for one opening is set to be large. Good.

但し、高頻度入賞モードと低頻度入賞モードとの間での特典の差異を明確にする上では、低頻度入賞モードにかかる開閉実行モードでは、実質的に特電入賞装置32への入賞が発生しない構成とするとよい。例えば、高頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも短く設定する一方、低頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも長く設定する構成としてもよい。また、遊技球の発射間隔及び1回の大入賞口の開放時間が上記のものでなかったとしても、低頻度入賞モードでは、前者よりも後者の方が短くなるように設定することで、実質的に特電入賞装置32への入賞が発生しない構成を容易に実現することができる。 However, in order to clarify the difference in benefits between the high-frequency winning mode and the low-frequency winning mode, the special electric winning device 32 is not substantially won in the opening / closing execution mode related to the low-frequency winning mode. It is good to have a configuration. For example, in the high frequency winning mode, the product of the firing cycle of the game ball and the opening limit number is set shorter than the opening time limit for one opening, while in the low frequency winning mode, one opening is set. The product of the firing cycle of the game ball and the opening limit number may be set longer than the opening limit time. In addition, even if the firing interval of the game ball and the opening time of one large winning opening are not as described above, in the low frequency winning mode, the latter is set to be shorter than the former, so that the latter is substantially shorter. Therefore, it is possible to easily realize a configuration in which a prize is not generated in the special electric winning device 32.

第2作動口34の普電役物34aにおけるサポートモードとしては、遊技領域に対して同様の態様で遊技球の発射が継続されている状況で比較した場合に、第2作動口34の普電役物34aが単位時間当たりに開放状態となる頻度が相対的に高低となるように、低頻度サポートモードと高頻度サポートモードとが設定されている。 As a support mode in the universal power accessory 34a of the second operating port 34, when compared in a situation where the firing of the game ball is continued in the same manner with respect to the game area, the general electric power of the second operating port 34 A low-frequency support mode and a high-frequency support mode are set so that the frequency with which the accessory 34a is opened per unit time is relatively high or low.

具体的には、低頻度サポートモードと高頻度サポートモードとでは、普電役物開放カウンタC4を用いた電動役物開放抽選における電役開放状態当選となる確率は同一(例えば、共に4/5)となっているが、高頻度サポートモードでは低頻度サポートモードよりも、電役開放状態当選となった際に普電役物34aが開放状態となる回数が多く設定されており、さらに1回の開放時間が長く設定されている。この場合、高頻度サポートモードにおいて電役開放状態当選となり普電役物34aの開放状態が複数回発生する場合において、1回の開放状態が終了してから次の開放状態が開始されるまでの閉鎖時間は、1回の開放時間よりも短く設定されている。さらにまた、高頻度サポートモードでは低頻度サポートモードよりも、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で最低限確保される確保時間として短い時間が選択されるように設定されている。 Specifically, in the low-frequency support mode and the high-frequency support mode, the probability of winning the electric role open state in the electric accessory open lottery using the general electric accessory release counter C4 is the same (for example, both are 4/5). ), But in the high-frequency support mode, the number of times that the general electric accessory 34a is opened when the electric service open state is won is set more than in the low-frequency support mode, and once more. The opening time of is set long. In this case, in the high frequency support mode, when the electric service open state is won and the open state of the general electric accessory 34a occurs a plurality of times, from the end of one open state to the start of the next open state. The closing time is set shorter than the one-time opening time. Furthermore, in the high frequency support mode, a shorter time as the minimum secured time for the next electric accessory opening lottery to be held after one electric accessory opening lottery is performed than in the low frequency support mode. Is set to be selected.

上記のように高頻度サポートモードでは、低頻度サポートモードよりも第2作動口34への入賞が発生する確率が高くなる。換言すれば、低頻度サポートモードでは、第2作動口34よりも第1作動口33への入賞が発生する確率が高くなるが、高頻度サポートモードでは、第1作動口33よりも第2作動口34への入賞が発生する確率が高くなる。そして、第2作動口34への入賞が発生した場合には、所定個数の遊技球の払出が実行されるため、高頻度サポートモードでは、遊技者は持ち球をあまり減らさないようにしながら遊技を行うことができる。 As described above, in the high frequency support mode, the probability that the second operating port 34 is won is higher than in the low frequency support mode. In other words, in the low frequency support mode, the probability of winning the first operating port 33 is higher than that of the second operating port 34, but in the high frequency support mode, the second operation is higher than the first operating port 33. The probability that a prize will be given to the mouth 34 increases. Then, when a prize is won in the second operating port 34, a predetermined number of game balls are paid out. Therefore, in the high frequency support mode, the player plays a game while not reducing the number of balls held so much. It can be carried out.

なお、高頻度サポートモードを低頻度サポートモードよりも単位時間当たりに電役開放状態となる頻度を高くする上での構成は、上記のものに限定されることはなく、例えば電動役物開放抽選における電役開放状態当選となる確率を高くする構成としてもよい。また、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間(例えば、スルーゲート35への入賞に基づき普図表示部38aにて実行される変動表示の時間)が複数種類用意されている構成においては、高頻度サポートモードでは低頻度サポートモードよりも、短い確保時間が選択され易い又は平均の確保時間が短くなるように設定されていてもよい。さらには、開放回数を多くする、開放時間を長くする、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間を短くする(すなわち、普図表示部38aにおける1回の変動表示時間を短くする)、係る確保時間の平均時間を短くする及び当選確率を高くするのうち、いずれか1条件又は任意の組合せの条件を適用することで、低頻度サポートモードに対する高頻度サポートモードの有利性を高めてもよい。 The configuration for increasing the frequency of the high-frequency support mode to be in the electric service open state per unit time is not limited to the above, for example, the electric accessory open lottery. It may be configured to increase the probability of winning the electric service open state in. In addition, the secured time secured for the next electric accessory opening lottery after one electric accessory opening lottery is performed (for example, on the general map display unit 38a based on the winning of the through gate 35). In a configuration in which multiple types of variable display times to be executed) are prepared, the high frequency support mode is set so that a shorter reservation time is more easily selected or the average reservation time is shorter than the low frequency support mode. You may be. Furthermore, the number of times of opening is increased, the opening time is lengthened, and the securing time secured for the next electric accessory opening lottery after one electric accessory opening lottery is performed is shortened (that is,). , Shorten the one-time variable display time on the general map display unit 38a), shorten the average time of the secured time, and increase the winning probability, and apply any one condition or any combination of conditions. Therefore, the advantage of the high frequency support mode over the low frequency support mode may be enhanced.

大当たり種別カウンタC2に対する遊技結果の振分先は、ROM53に振分テーブルとして記憶されている。そして、かかる振分先として、通常大当たり結果と、明示2R確変大当たり結果と、15R確変大当たり結果とが設定されている。 The distribution destination of the game result with respect to the jackpot type counter C2 is stored in the ROM 53 as a distribution table. Then, as the distribution destination, a normal jackpot result, an explicit 2R probability variation jackpot result, and a 15R probability variation jackpot result are set.

通常大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが低確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。但し、この高頻度サポートモードは、移行後において遊技回数が終了基準回数(具体的には、100回)に達した場合に低頻度サポートモードに移行する。換言すれば、通常大当たり結果は、通常大当たり状態へ遊技状態を移行させる大当たり結果である。 The normal jackpot result is a jackpot result in which the open / close execution mode becomes the high-frequency winning mode, and after the open / close execution mode ends, the win / fail lottery mode becomes the low-probability mode and the support mode becomes the high-frequency support mode. However, this high-frequency support mode shifts to the low-frequency support mode when the number of games reaches the end reference number (specifically, 100 times) after the transition. In other words, the normal jackpot result is a jackpot result that shifts the gaming state to the normal jackpot state.

明示2R確変大当たり結果は、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、明示2R確変大当たり結果は、明示2R確変大当たり状態へ遊技状態を移行させる大当たり結果である。 The explicit 2R probability variation jackpot result is a jackpot result in which the open / close execution mode becomes the low frequency winning mode, and after the open / close execution mode ends, the win / fail lottery mode becomes the high probability mode and the support mode becomes the high frequency support mode. .. These high-probability mode and high-frequency support mode continue until the lottery result in the winning / losing lottery becomes a big hit state and the state shifts to the big hit state. In other words, the explicit 2R probability variation jackpot result is a jackpot result that shifts the gaming state to the explicit 2R probability variation jackpot state.

15R確変大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、15R確変大当たり結果は、15R確変大当たり状態へ遊技状態を移行させる大当たり結果である。 The 15R probability variation jackpot result is a jackpot result in which the open / close execution mode becomes the high-frequency winning mode, and after the open / close execution mode ends, the winning / losing lottery mode becomes the high-probability mode and the support mode becomes the high-frequency support mode. These high-probability mode and high-frequency support mode continue until the lottery result in the winning / losing lottery becomes a big hit state and the state shifts to the big hit state. In other words, the 15R probability variation jackpot result is a jackpot result that shifts the gaming state to the 15R probability variation jackpot state.

なお、上記各遊技状態との関係で通常遊技状態とは、当否抽選モードが低確率モードであり、サポートモードが低頻度サポートモードである状態をいう。 In relation to each of the above game states, the normal game state means a state in which the winning / failing lottery mode is a low probability mode and the support mode is a low frequency support mode.

振分テーブルでは、「0〜29」の大当たり種別カウンタC2の値のうち、「0〜9」が通常大当たり結果に対応しており、「10〜14」が明示2R確変大当たり結果に対応しており、「15〜29」が15R確変大当たり結果に対応している。 In the distribution table, among the values of the jackpot type counter C2 of "0 to 29", "0 to 9" corresponds to the normal jackpot result, and "10 to 14" corresponds to the explicit 2R probability variation jackpot result. The "15-29" corresponds to the 15R probability variation jackpot result.

上記のように、確変大当たり結果として、明示2R確変大当たり結果が設定されていることにより、確変大当たり結果の態様が多様化する。すなわち、2種類の確変大当たり結果を比較した場合、遊技者にとっての有利度合いは、開閉実行モードにおいて高頻度入賞モードとなり且つサポートモードでは高頻度サポートモードとなる15R確変大当たり結果が最も高く、開閉実行モードにおいて低頻度入賞モードとなるもののサポートモードでは高頻度サポートモードとなる明示2R確変大当たり結果が最も低くなる。これにより、遊技の単調化が抑えられ、遊技への注目度を高めることが可能となる。 As described above, since the explicit 2R probability variation jackpot result is set as the probability variation jackpot result, the mode of the probability variation jackpot result is diversified. That is, when comparing the two types of probability variation jackpot results, the degree of advantage for the player is that the 15R probability variation jackpot result, which is the high frequency winning mode in the open / close execution mode and the high frequency support mode in the support mode, is the highest, and the opening / closing execution is executed. In the mode, the low frequency winning mode is set, but in the support mode, the high frequency support mode is set, and the explicit 2R probability variation jackpot result is the lowest. As a result, the monotonousness of the game can be suppressed, and the degree of attention to the game can be increased.

なお、確変大当たり結果の一種として、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードがそれまでのモードに維持されることとなる非明示2R確変大当たり結果が含まれていてもよい。この場合、確変大当たり結果のさらなる多様化が図られる。 In addition, as a kind of probability change jackpot result, the open / close execution mode becomes the low frequency winning mode, and after the open / close execution mode ends, the win / fail lottery mode becomes the high probability mode and the support mode is maintained in the previous mode. The unspecified 2R probability variation jackpot result may be included. In this case, the probabilistic jackpot results will be further diversified.

さらにまた、当否抽選における外れ結果の一種として、低頻度入賞モードの開閉実行モードに移行するとともに、その終了後において当否抽選モード及びサポートモードの移行が発生しない特別外れ結果が含まれていてもよい。上記のような非明示2R確変大当たり結果と当該特別外れ結果との両方が設定されている構成においては、開閉実行モードが低頻度入賞モードに移行すること、及びサポートモードがそれまでのモードに維持されることで共通しているのに対して、当否抽選モードの移行態様が異なっていることにより、例えば通常遊技状態において非明示2R確変大当たり結果又は特別外れ結果の一方が発生した場合に、それが実際にいずれの結果に対応しているのかを遊技者に予測させることが可能となる。 Furthermore, as a kind of the winning / failing result in the winning / failing lottery, a special losing result that shifts to the open / close execution mode of the low frequency winning mode and does not cause the transition to the winning / failing lottery mode and the support mode after the end may be included. .. In the configuration in which both the unspecified 2R probability variation jackpot result and the special deviation result are set as described above, the open / close execution mode shifts to the low frequency winning mode, and the support mode is maintained in the previous mode. On the other hand, when the transition mode of the winning / failing lottery mode is different, for example, when either the unspecified 2R probability variation jackpot result or the special deviation result occurs in the normal game state, it is determined. It is possible to make the player predict which result actually corresponds to.

リーチ乱数カウンタC3は、例えば0〜238の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。リーチ乱数カウンタC3は定期的に更新され、遊技球が第1作動口33又は第2作動口34に入賞したタイミングで保留格納エリア54bに格納される。 The reach random number counter C3 is configured to be added one by one in order within the range of 0 to 238, and return to "0" after reaching the maximum value. The reach random number counter C3 is periodically updated, and is stored in the hold storage area 54b at the timing when the game ball wins the first operating port 33 or the second operating port 34.

ここで、本パチンコ機10には、図柄表示装置41における表示演出の一種として期待演出が設定されている。期待演出とは、図柄の変動表示を行うことが可能な図柄表示装置41を備え、特電入賞装置32の開閉実行モードが高頻度入賞モードとなる遊技回では変動表示後の停止表示結果が特別表示結果となる遊技機において、図柄表示装置41における図柄の変動表示が開始されてから停止表示結果が導出表示される前段階で、前記特別表示結果となり易い変動表示状態であると遊技者に思わせるための表示状態をいう。 Here, in the pachinko machine 10, an expected effect is set as a kind of display effect in the symbol display device 41. The expected effect is that the symbol display device 41 capable of displaying the fluctuation of the symbol is provided, and the stop display result after the fluctuation display is specially displayed in the game times in which the opening / closing execution mode of the special electric winning device 32 is the high frequency winning mode. In the resulting game machine, the player is made to think that the special display result is likely to be the variable display state before the stop display result is derived and displayed after the variable display of the symbol on the symbol display device 41 is started. Display state for.

期待演出には、上記リーチ表示と、当該リーチ表示が発生する前段階などにおいてリーチ表示の発生や特別表示結果の発生を期待させるための予告表示との2種類が設定されている。 Two types of expected effects are set: the above-mentioned reach display and a notice display for expecting the occurrence of a reach display or a special display result in a stage before the reach display occurs.

リーチ表示には、図柄表示装置41の表示面Pに表示される複数の図柄列のうち一部の図柄列について図柄を停止表示させることで、高頻度入賞モードの発生に対応した大当たり図柄の組合せが成立する可能性があるリーチ図柄の組合せを表示し、その状態で残りの図柄列において図柄の変動表示を行う表示状態が含まれる。また、上記のようにリーチ図柄の組合せを表示した状態で、残りの図柄列において図柄の変動表示を行うとともに、その背景画像において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものや、リーチ図柄の組合せを縮小表示させる又は非表示とした上で、表示面Pの略全体において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものが含まれる。 In the reach display, a combination of jackpot symbols corresponding to the occurrence of a high-frequency winning mode is performed by stopping and displaying some of the symbol rows among the plurality of symbol rows displayed on the display surface P of the symbol display device 41. Includes a display state in which a combination of reach symbols that may hold is displayed, and in that state, a variable display of symbols is performed in the remaining symbol sequence. In addition, in the state where the combination of reach symbols is displayed as described above, the remaining symbol rows are displayed in a variable manner, and a predetermined character or the like is displayed as a moving image in the background image to produce a reach effect. , A combination of reach symbols is reduced or hidden, and then a predetermined character or the like is displayed as a moving image on substantially the entire display surface P to perform a reach effect.

図柄の変動表示に係るリーチ表示について具体的には、図柄の変動表示を終了させる前段階として、図柄表示装置41の表示面P内の予め設定された有効ライン上に、高頻度入賞モードの発生に対応した大当たり図柄の組合せが成立する可能性のあるリーチ図柄の組合せを停止表示させることによりリーチラインを形成させ、当該リーチラインが形成されている状況下において最終停止図柄列により図柄の変動表示を行うことである。 Regarding the reach display related to the variable display of the symbol, specifically, as a step before ending the variable display of the symbol, a high frequency winning mode is generated on a preset effective line in the display surface P of the symbol display device 41. A reach line is formed by stopping and displaying a combination of reach symbols that may form a combination of jackpot symbols corresponding to, and in a situation where the reach line is formed, a variable display of symbols is displayed by the final stop symbol sequence. Is to do.

図4の表示内容について具体的に説明すると、最初に上段の図柄列Z1において図柄の変動表示が終了され、さらに下段の図柄列Z3において図柄の変動表示が終了された状態において、いずれかの有効ラインL1〜L5に同一の数字が付された主図柄が停止表示されることでリーチラインが形成され、当該リーチラインが形成されている状況化において中段の図柄列Z2において図柄の変動表示が行われることでリーチ表示となる。そして、高頻度入賞モードが発生する場合には、リーチラインを形成している主図柄と同一の数字が付された主図柄がリーチライン上に停止表示されるようにして中段の図柄列Z2における図柄の変動表示が終了される。 To specifically explain the display contents of FIG. 4, one of the valid states is obtained when the variable display of the symbol is first completed in the upper symbol row Z1 and then the variable display of the symbol is completed in the lower symbol row Z3. A reach line is formed by stopping and displaying the main symbols with the same numbers on the lines L1 to L5, and in the situation where the reach line is formed, the symbol variation is displayed in the middle symbol row Z2. It becomes a reach display by being told. Then, when the high-frequency winning mode occurs, the main symbol having the same number as the main symbol forming the reach line is stopped and displayed on the reach line in the middle symbol row Z2. The variable display of the symbol is finished.

予告表示には、図柄表示装置41の表示面Pにおいて図柄の変動表示が開始されてから、全ての図柄列Z1〜Z3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列Z1〜Z3上の図柄とは別にキャラクタを表示させる態様が含まれる。また、背景画像をそれまでの態様とは異なる所定の態様とするものや、図柄列Z1〜Z3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。かかる予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示の行われる場合の方がリーチ表示の行われない場合よりも高確率で発生するように設定されている。 In the notice display, after the variable display of the symbol is started on the display surface P of the symbol display device 41, the symbol is variablely displayed in all the symbol rows Z1 to Z3, or in some symbol rows. In the situation where the symbols are displayed in a variable manner in a plurality of symbol rows, a mode in which the character is displayed separately from the symbols on the symbol rows Z1 to Z3 is included. In addition, the background image has a predetermined mode different from the previous mode, and the symbols on the symbol rows Z1 to Z3 have a predetermined mode different from the previous mode. Such a notice display may occur in any of the game times when the reach display is performed and when the reach display is not performed, but the case where the reach display is performed is higher than the case where the reach display is not performed. It is set to occur with probability.

リーチ表示は、開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行される。また、開閉実行モードに移行しない遊技回では、ROM53のリーチ用テーブル記憶エリアに記憶されたリーチ用テーブルを参照して、所定のタイミングで取得したリーチ乱数カウンタC3がリーチ表示の発生に対応している場合に実行される。一方、予告表示を行うか否かの決定は、主制御装置50において行うのではなく、音声発光制御装置60において行われる。 The reach display is executed regardless of the value of the reach random number counter C3 in the game times when the mode shifts to the open / close execution mode. Further, in the game round that does not shift to the open / close execution mode, the reach random number counter C3 acquired at a predetermined timing corresponds to the occurrence of the reach display by referring to the reach table stored in the reach table storage area of the ROM 53. Executed if there is. On the other hand, the determination as to whether or not to display the notice is not performed by the main control device 50, but by the voice emission control device 60.

変動種別カウンタCSは、例えば0〜198の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。変動種別カウンタCSは、特図表示部37aにおける変動表示時間と、図柄表示装置41における図柄の変動表示時間とをMPU52において決定する上で用いられる。変動種別カウンタCSは、後述するタイマ割込み処理が1回実行される毎に1回更新され、後述するメイン処理の残余時間内でも繰り返し更新される。そして、特図表示部37aにおける変動表示の開始時及び図柄表示装置41による図柄の変動開始時における変動パターン決定に際して変動種別カウンタCSのバッファ値が取得される。なお、変動表示時間の決定に際しては、ROM53の変動表示時間テーブル記憶エリアに予め記憶されている変動表示時間テーブルが参照される。 The variation type counter CS is configured to be incremented by 1 in order within the range of 0 to 198, and return to "0" after reaching the maximum value. The variation type counter CS is used in the MPU 52 to determine the variation display time on the special symbol display unit 37a and the variation display time of the symbol on the symbol display device 41. The variation type counter CS is updated once every time the timer interrupt process described later is executed once, and is repeatedly updated even within the remaining time of the main process described later. Then, the buffer value of the variation type counter CS is acquired at the time of starting the variation display on the special symbol display unit 37a and at the start of the variation of the symbol by the symbol display device 41. When determining the variable display time, the variable display time table stored in advance in the variable display time table storage area of the ROM 53 is referred to.

普電役物開放カウンタC4は、例えば、0〜250の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。普電役物開放カウンタC4は定期的に更新され、スルーゲート35に遊技球が入賞したタイミングで電役保留エリア54cに格納される。そして、所定のタイミングにおいて、その格納された普電役物開放カウンタC4の値によって普電役物34aを開放状態に制御するか否かの抽選が行われる。 The general electric accessory opening counter C4 is configured to, for example, add 1 in order within the range of 0 to 250, reach the maximum value, and then return to "0". The general electric service opening counter C4 is periodically updated, and is stored in the electric service holding area 54c at the timing when the game ball wins the through gate 35. Then, at a predetermined timing, a lottery is performed as to whether or not to control the utility accessory 34a to the open state according to the value of the stored utility accessory opening counter C4.

MPU52の出力側には、払出制御装置55が接続されているとともに、電源・発射制御装置57が接続されている。払出制御装置55には、例えば、上記入賞対応入球部への入賞判定結果に基づいて賞球コマンドが送信される。払出制御装置55は、主制御装置50から受信した賞球コマンドに基づいて、払出装置56により賞球や貸し球の払出制御を行う。電源・発射制御装置57には、発射操作装置28が操作されていることに基づいて発射許可コマンドが送信される。電源・発射制御装置57は、主制御装置50から受信した発射許可コマンドに基づいて、遊技球発射機構58を駆動させ遊技球を遊技領域に向けて発射させる。 A payout control device 55 is connected to the output side of the MPU 52, and a power supply / emission control device 57 is also connected. A prize ball command is transmitted to the payout control device 55, for example, based on the winning determination result for the winning ball unit corresponding to the winning. The payout control device 55 controls the payout of prize balls and rental balls by the payout device 56 based on the prize ball command received from the main control device 50. A launch permission command is transmitted to the power supply / launch control device 57 based on the fact that the launch control device 28 is being operated. The power supply / launch control device 57 drives the game ball launch mechanism 58 to launch the game ball toward the game area based on the launch permission command received from the main control device 50.

また、MPU52の出力側には、特図表示部37a及び普図表示部38aが接続されており、これら特図表示部37a及び普図表示部38aの表示制御がMPU52により直接行われる。つまり、各遊技回に際しては、MPU52において特図表示部37aの表示制御が実行される。また、普電役物34aを開放状態とするか否かの抽選結果を明示する場合に、MPU52において普図表示部38aの表示制御が実行される。 Further, a special figure display unit 37a and a normal figure display unit 38a are connected to the output side of the MPU 52, and the display control of the special figure display unit 37a and the normal figure display unit 38a is directly performed by the MPU 52. That is, at each game round, the display control of the special figure display unit 37a is executed in the MPU 52. Further, when the lottery result of whether or not to open the general electric accessory 34a is clearly indicated, the display control of the general drawing display unit 38a is executed in the MPU 52.

MPU52の出力側には、特電入賞装置32の開閉扉を開閉動作させる特電入賞駆動部、及び第2作動口34の普電役物34aを開閉動作させる普電役物駆動部が接続されている。つまり、開閉実行モードにおいては大入賞口が開閉されるように、MPU52において特電入賞駆動部の駆動制御が実行される。また、普電役物34aの開放状態当選となった場合には、普電役物34aが開閉されるように、MPU52において普電役物駆動部の駆動制御が実行される。また、MPU52の出力側には、音声発光制御装置60が接続されており、当該音声発光制御装置60に対して演出用の各種コマンドを送信する。 On the output side of the MPU 52, a special electric winning drive unit that opens and closes the opening / closing door of the special electric winning device 32 and a general electric accessory driving unit that opens and closes the general electric accessory 34a of the second operating port 34 are connected. .. That is, in the open / close execution mode, the drive control of the special electric winning drive unit is executed in the MPU 52 so that the large winning opening is opened and closed. Further, when the open state of the utility accessory 34a is won, the drive control of the utility accessory drive unit is executed in the MPU 52 so that the utility accessory 34a is opened and closed. Further, a voice emission control device 60 is connected to the output side of the MPU 52, and various commands for effect are transmitted to the voice emission control device 60.

ここで、MPU52にて実行される処理について説明する。かかるMPU52の処理としては大別して、電源投入に伴い起動されるメイン処理と、定期的に(本実施の形態では4msec周期で)起動されるタイマ割込み処理とがある。 Here, the processing executed by the MPU 52 will be described. The processing of the MPU 52 is roughly classified into a main processing that is started when the power is turned on and a timer interrupt processing that is started periodically (in this embodiment, at a cycle of 4 msec).

図7はメイン処理を示すフローチャートである。ステップS101では、電源投入ウェイト処理を実行する。当該電源投入ウェイト処理では、例えばメイン処理が起動されてからウェイト用の所定時間(具体的には1sec)が経過するまで次の処理に進行することなく待機する。かかる電源投入ウェイト処理の実行期間において図柄表示装置41の動作開始及び初期設定が完了することとなる。続くステップS102ではRAM54のアクセスを許可するとともに、ステップS103にてMPU52の内部機能レジスタの設定を行う。 FIG. 7 is a flowchart showing the main process. In step S101, the power-on wait process is executed. In the power-on wait process, for example, the process waits without proceeding to the next process until a predetermined time for waiting (specifically, 1 sec) elapses after the main process is started. During the execution period of the power-on wait process, the operation start and initial setting of the symbol display device 41 are completed. In the following step S102, access to the RAM 54 is permitted, and in step S103, the internal function register of the MPU 52 is set.

その後、ステップS104では、電源・発射制御装置57に設けられたRAM消去スイッチが手動操作されているか否かを判定し、続くステップS105では、RAM54の停電フラグに「1」がセットされているか否かを判定する。また、ステップS106ではチェックサムを算出するチェックサム算出処理を実行し、続くステップS107ではそのチェックサムが電源遮断時に保存したチェックサムと一致するか否か、すなわち記憶保持されたデータの有効性を判定する。 After that, in step S104, it is determined whether or not the RAM erasing switch provided in the power supply / firing control device 57 is manually operated, and in the following step S105, whether or not "1" is set in the power failure flag of the RAM 54. Is determined. Further, in step S106, a checksum calculation process for calculating a checksum is executed, and in the following step S107, whether or not the checksum matches the checksum saved when the power is turned off, that is, the validity of the stored data is determined. judge.

本パチンコ機10では、例えば遊技ホールの営業開始時など、電源投入時にRAMデータを初期化する場合にはRAM消去スイッチを押しながら電源が投入される。したがって、RAM消去スイッチが押されていれば、ステップS108の処理に移行する。また、電源遮断の発生情報が設定されていない場合や、チェックサムにより記憶保持されたデータの異常が確認された場合も同様にステップS108の処理に移行する。ステップS108では、RAM54をクリアする。その後、ステップS109に進む。 In the pachinko machine 10, when the RAM data is initialized when the power is turned on, for example, when the game hall is open for business, the power is turned on while pressing the RAM erase switch. Therefore, if the RAM erase switch is pressed, the process proceeds to step S108. Further, when the power cutoff occurrence information is not set or when an abnormality of the data stored and held by the checksum is confirmed, the process proceeds to step S108 in the same manner. In step S108, the RAM 54 is cleared. After that, the process proceeds to step S109.

一方、RAM消去スイッチが押されていない場合には、停電フラグに「1」がセットされていること、及びチェックサムが正常であることを条件に、ステップS108の処理を実行することなくステップS109に進む。ステップS109では、電源投入設定処理を実行する。電源投入設定処理では、停電フラグの初期化といったRAM54の所定のエリアを初期値に設定するとともに、現状の遊技状態を認識させるために現状の遊技状態に対応したコマンドを音声発光制御装置60に送信する。 On the other hand, when the RAM erase switch is not pressed, step S109 is performed without executing the process of step S108, provided that the power failure flag is set to "1" and the checksum is normal. Proceed to. In step S109, the power-on setting process is executed. In the power-on setting process, a predetermined area of the RAM 54 such as the initialization of the power failure flag is set as an initial value, and a command corresponding to the current gaming state is transmitted to the voice emission control device 60 in order to recognize the current gaming state. To do.

その後、ステップS110〜ステップS113の残余処理に進む。つまり、MPU52はタイマ割込み処理を定期的に実行する構成であるが、1のタイマ割込み処理と次のタイマ割込み処理との間に残余時間が生じることとなる。この残余時間は各タイマ割込み処理の処理完了時間に応じて変動することとなるが、かかる不規則な時間を利用してステップS110〜ステップS113の残余処理を繰り返し実行する。この点、当該ステップS110〜ステップS113の残余処理は非定期的に実行される非定期処理であると言える。 After that, the process proceeds to the residual processing of steps S110 to S113. That is, although the MPU 52 has a configuration in which timer interrupt processing is periodically executed, a residual time is generated between one timer interrupt processing and the next timer interrupt processing. This residual time varies depending on the processing completion time of each timer interrupt process, and the residual process of steps S110 to S113 is repeatedly executed by utilizing the irregular time. In this respect, it can be said that the residual processing in steps S110 to S113 is an irregular process that is executed irregularly.

残余処理では、まずステップS110にて、タイマ割込み処理の発生を禁止するために割込み禁止の設定を行う。続くステップS111では、乱数初期値カウンタCINIの更新を行う乱数初期値更新処理を実行するとともに、ステップS112にて変動種別カウンタCSの更新を行う変動用カウンタ更新処理を実行する。これらの更新処理では、RAM54の対応するカウンタから現状の数値情報を読み出し、その読み出した数値情報を1加算する処理を実行した後に、読み出し元のカウンタに上書きする処理を実行する。この場合、カウンタ値が最大値に達した際それぞれ「0」にクリアする。その後、ステップS113にて、タイマ割込み処理の発生を禁止している状態から許可する状態へ切り換える割込み許可の設定を行う。ステップS113の処理を実行したら、ステップS110に戻り、ステップS110〜ステップS113の処理を繰り返す。 In the residual processing, first, in step S110, interrupt prohibition is set in order to prohibit the occurrence of timer interrupt processing. In the following step S111, the random number initial value update process for updating the random number initial value counter CINI is executed, and in step S112, the variation counter update process for updating the variation type counter CS is executed. In these update processes, the current numerical information is read from the corresponding counter of the RAM 54, a process of adding 1 to the read numerical information is executed, and then a process of overwriting the read source counter is executed. In this case, when the counter value reaches the maximum value, it is cleared to "0" respectively. After that, in step S113, the interrupt enable setting for switching from the state in which the occurrence of the timer interrupt process is prohibited to the state in which the occurrence of the timer interrupt process is permitted is set. After executing the process of step S113, the process returns to step S110, and the process of steps S110 to S113 is repeated.

次に、図8のフローチャートを参照しながらタイマ割込み処理を説明する。タイマ割込み処理は定期的(例えば4msec周期)に実行される。まずステップS201にて停電情報記憶処理を実行する。停電情報記憶処理では、停電監視基板から電源遮断の発生に対応した停電信号を受信しているか否かを監視し、停電の発生を特定した場合には停電時処理を実行する。 Next, timer interrupt processing will be described with reference to the flowchart of FIG. The timer interrupt process is executed periodically (for example, in a 4 msec cycle). First, the power failure information storage process is executed in step S201. In the power failure information storage process, it is monitored whether or not a power failure signal corresponding to the occurrence of a power failure is received from the power failure monitoring board, and if the occurrence of a power failure is identified, the power failure processing is executed.

続くステップS202では抽選用乱数更新処理を実行する。抽選用乱数更新処理では、当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び普電役物開放カウンタC4の更新を実行する。具体的には、当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び普電役物開放カウンタC4から現状の数値情報を順次読み出し、それら読み出した数値情報をそれぞれ1加算する処理を実行した後に、読み出し元のカウンタに上書きする処理を実行する。この場合、カウンタ値が最大値に達した際それぞれ「0」にクリアする。その後、ステップS203ではステップS111と同様に乱数初期値更新処理を実行するとともに、ステップS204にてステップS112と同様に変動用カウンタ更新処理を実行する。 In the following step S202, the lottery random number update process is executed. In the lottery random number update process, the hit random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the general electric accessory release counter C4 are updated. Specifically, the current numerical information was sequentially read from the hit random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the universal utility release counter C4, and the read numerical information was added by 1 to each of them. Later, a process of overwriting the read source counter is executed. In this case, when the counter value reaches the maximum value, it is cleared to "0" respectively. After that, in step S203, the random number initial value update process is executed in the same manner as in step S111, and in step S204, the fluctuation counter update process is executed in the same manner as in step S112.

続くステップS205では、不正用の監視対象として設定されている所定の事象が発生しているか否かを監視する不正検知処理を実行する。当該不正検知処理では、複数種類の事象の発生を監視し、所定の事象が発生していることを確認することで、RAM54に設けられた遊技停止用フラグに「1」をセットする。 In the following step S205, fraud detection processing for monitoring whether or not a predetermined event set as a monitoring target for fraud has occurred is executed. In the fraud detection process, "1" is set in the game stop flag provided in the RAM 54 by monitoring the occurrence of a plurality of types of events and confirming that a predetermined event has occurred.

続くステップS206では、上記遊技停止用フラグに「1」がセットされているか否かを判定することで、遊技の進行を停止している状態であるか否かを判定する。ステップS206にて否定判定をした場合に、ステップS207以降の処理を実行する。 In the following step S206, it is determined whether or not the progress of the game is stopped by determining whether or not "1" is set in the game stop flag. If a negative determination is made in step S206, the processes after step S207 are executed.

ステップS207では、ポート出力処理を実行する。ポート出力処理では、前回のタイマ割込み処理において出力情報の設定が行われている場合に、その出力情報に対応した出力を各種駆動部に行うための処理を実行する。例えば、特電入賞装置32を開放状態に切り換えるべき情報が設定されている場合には特電入賞駆動部への駆動信号の出力を開始させ、閉鎖状態に切り換えるべき情報が設定されている場合には当該駆動信号の出力を停止させる。また、第2作動口34の普電役物34aを開放状態に切り換えるべき情報が設定されている場合には普電役物駆動部への駆動信号の出力を開始させ、閉鎖状態に切り換えるべき情報が設定されている場合には当該駆動信号の出力を停止させる。 In step S207, the port output process is executed. In the port output process, when the output information is set in the previous timer interrupt process, the process for outputting the output corresponding to the output information to various drive units is executed. For example, when the information to switch the special electric winning device 32 to the open state is set, the output of the drive signal to the special electric winning driving unit is started, and when the information to switch to the closed state is set, the said Stop the output of the drive signal. Further, when the information for switching the general electric accessory 34a of the second operating port 34 to the open state is set, the output of the drive signal to the general electric accessory drive unit is started and the information for switching to the closed state is started. If is set, the output of the drive signal is stopped.

続くステップS208では、読み込み処理を実行する。読み込み処理では、停電信号及び入賞信号以外の信号の読み込みを実行し、その読み込んだ情報を今後の処理にて利用するために記憶する。 In the following step S208, the reading process is executed. In the reading process, signals other than the power failure signal and the winning signal are read, and the read information is stored for use in future processing.

続くステップS209では入賞検知処理を実行する。当該入賞検知処理では、各入賞検知センサから受信している信号を読み込むとともに、一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34及びスルーゲート35への入賞の有無を特定する処理を実行する。 In the following step S209, the winning detection process is executed. In the winning detection process, the signal received from each winning detection sensor is read, and whether or not the general winning opening 31, the special electric winning device 32, the first operating port 33, the second operating port 34, and the through gate 35 are won. Execute the process to identify.

続くステップS210では、RAM54に設けられている複数種類のタイマカウンタの数値情報をまとめて更新するためのタイマ更新処理を実行する。この場合、記憶されている数値情報が減算されて更新されるタイマカウンタを集約して扱う構成であるが、減算式のタイマカウンタの更新及び加算式のタイマカウンタの更新の両方を集約して行う構成としてもよい。 In the following step S210, a timer update process for collectively updating the numerical information of a plurality of types of timer counters provided in the RAM 54 is executed. In this case, the timer counters whose stored numerical information is subtracted and updated are aggregated and handled, but both the subtraction type timer counter update and the addition type timer counter update are aggregated. It may be configured.

続くステップS211では、遊技球の発射制御を行うための発射制御処理を実行する。発射操作装置28への発射操作が継続されている状況では、既に説明したとおり、所定の発射周期である0.6secに1個の遊技球が発射される。 In the following step S211, a launch control process for controlling the launch of the game ball is executed. In a situation where the firing operation to the launching operation device 28 is continued, one game ball is launched every 0.6 sec, which is a predetermined firing cycle, as described above.

続くステップS212では、入力状態監視処理として、ステップS208の読み込み処理にて読み込んだ情報に基づいて、各入賞検知センサの断線確認や、遊技機本体12や前扉枠14の開放確認を行う。 In the following step S212, as the input state monitoring process, the disconnection confirmation of each winning detection sensor and the opening confirmation of the game machine main body 12 and the front door frame 14 are performed based on the information read in the reading process of step S208.

続くステップS213では、遊技回の実行制御及び開閉実行モードの実行制御を行うための特図特電制御処理を実行する。当該特図特電制御処理では、保留格納エリア54bに記憶されている保留情報の数が上限数未満である状況で第1作動口33又は第2作動口34への入賞が発生した場合に、その時点における当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報を保留情報として、保留格納エリア54bに時系列的に格納していく処理を実行する。また、特図特電制御処理では、遊技回中及び開閉実行モード中ではなく且つ保留情報が記憶されていることを条件に、その保留情報が大当たり当選に対応しているか否かを判定する当否判定処理、及び大当たり当選に対応している場合にはその保留情報がいずれの大当たり結果に対応しているのかを判定する振分判定処理を実行する。また、特図特電制御処理では、当否判定処理及び振分判定処理だけでなく、その保留情報が大当たり当選に対応していない場合には、その保留情報がリーチ発生に対応しているか否かを判定するリーチ判定処理を実行するとともに、その時点における変動種別カウンタCSの数値情報を利用して遊技回の継続時間を選択する処理を実行する。この場合、大当たり当選の有無、大当たり種別及びリーチ発生の有無に対応した変動表示時間テーブルをROM53から読み出し、その読み出した変動表示時間テーブルと、そのタイミングにおける変動種別カウンタCSの数値情報とから今回の遊技回の継続時間を決定する。そして、その決定した遊技回の継続時間の情報を含む変動用コマンドと、遊技結果の情報を含む種別コマンドとを、音声発光制御装置60に送信するとともに、特図表示部37aにおける絵柄の変動表示を開始させる。これにより、1遊技回が開始された状態となり、特図表示部37a及び図柄表示装置41にて遊技回用の演出が開始される。 In the following step S213, the special figure special electric control process for performing the execution control of the game times and the execution control of the opening / closing execution mode is executed. In the special figure special electric control process, when a prize is generated in the first operating port 33 or the second operating port 34 in a situation where the number of reserved information stored in the holding storage area 54b is less than the upper limit number, the prize is generated. A process of sequentially storing each numerical information of the hit random number counter C1, the jackpot type counter C2, and the reach random number counter C3 at the time point in the hold storage area 54b is executed as hold information. Further, in the special figure special electric control process, it is determined whether or not the hold information corresponds to the jackpot winning on the condition that the hold information is stored and not during the game rotation or the open / close execution mode. The processing and, if it corresponds to the jackpot winning, the distribution determination processing for determining which jackpot result the pending information corresponds to is executed. In addition, in the special figure special electric control process, not only the hit / fail judgment process and the distribution judgment process, but also whether or not the hold information corresponds to the reach occurrence when the hold information does not correspond to the jackpot winning. Along with executing the reach determination process for determination, a process for selecting the duration of the game round is executed using the numerical information of the variation type counter CS at that time. In this case, the fluctuation display time table corresponding to the presence / absence of the jackpot winning, the jackpot type, and the presence / absence of the reach is read from the ROM 53, and the read fluctuation display time table and the numerical information of the fluctuation type counter CS at that timing are used for this time. Determine the duration of the game. Then, the variation command including the information on the duration of the determined game times and the type command including the information on the game result are transmitted to the voice emission control device 60, and the variation display of the pattern on the special figure display unit 37a. To start. As a result, one game round is started, and the special figure display unit 37a and the symbol display device 41 start the effect for the game round.

また、特図特電制御処理では、1遊技回の実行中にはその遊技回の終了タイミングであるか否かを判定し、終了タイミングである場合には遊技結果に対応した表示を行った状態で、その遊技回を終了させる処理を実行する。この場合、遊技回を終了させるべきことを示す最終停止コマンドを音声発光制御装置60に送信する。また、特図特電制御処理では、遊技回の結果が開閉実行モードへの移行に対応した結果である場合には、当該開閉実行モードを開始させるための処理を実行する。この開始に際しては、開閉実行モードが開始されることを示すオープニングコマンドを音声発光制御装置60に送信する。また、特図特電制御処理では、各ラウンド遊技を開始させるための処理及び各ラウンド遊技を終了させるための処理を実行する。これら各処理に際して、ラウンド遊技が開始されることを示す開放コマンドを音声発光制御装置60に送信するとともに、ラウンド遊技が終了されることを示す閉鎖コマンドを音声発光制御装置60に送信する。また、特図特電制御処理では、開閉実行モードを終了させる場合にそのことを示すエンディングコマンドを音声発光制御装置60に送信するとともに、開閉実行モード後の当否抽選モードやサポートモードを設定するための処理を実行する。 Further, in the special figure special electric control process, it is determined whether or not it is the end timing of the game round during the execution of one game round, and if it is the end timing, the display corresponding to the game result is performed. , Execute the process of ending the game. In this case, a final stop command indicating that the game round should be ended is transmitted to the voice emission control device 60. Further, in the special figure special electric control process, when the result of the game round corresponds to the transition to the open / close execution mode, the process for starting the open / close execution mode is executed. At the time of this start, an opening command indicating that the open / close execution mode is started is transmitted to the voice emission control device 60. Further, in the special figure special electric control process, a process for starting each round game and a process for ending each round game are executed. At each of these processes, an open command indicating that the round game is started is transmitted to the voice emission control device 60, and a closing command indicating that the round game is completed is transmitted to the voice emission control device 60. Further, in the special figure special electric control process, an ending command indicating that the opening / closing execution mode is terminated is transmitted to the voice emission control device 60, and a winning / failing lottery mode or a support mode after the opening / closing execution mode is set. Execute the process.

タイマ割込み処理においてステップS213の特図特電制御処理を実行した後は、ステップS214にて普図普電制御処理を実行する。普図普電制御処理では、スルーゲート35への入賞が発生している場合に普図側の保留情報を取得するための処理を実行するとともに、普図側の保留情報が記憶されている場合にその保留情報について開放判定を行い、さらにその開放判定を契機として普図用の演出を行うための処理を実行する。また、開放判定の結果に基づいて、第2作動口34の普電役物34aを開閉させる処理を実行する。 After executing the special figure special electric control process of step S213 in the timer interrupt process, the normal figure general electric control process is executed in step S214. In the Fuzu Fuden control process, when a prize has been won in the through gate 35, a process for acquiring the hold information on the Fuzu side is executed, and the hold information on the Fuzu side is stored. In addition, a release determination is made for the held information, and a process for performing an effect for a general drawing is executed with the release determination as an opportunity. Further, based on the result of the opening determination, a process of opening and closing the general electric accessory 34a of the second operating port 34 is executed.

続くステップS215では、直前のステップS213及びステップS214の処理結果に基づいて、特図表示部37aに係る保留情報の増減個数を特図保留表示部37bに反映させるための出力情報の設定を行うとともに、普図表示部38aに係る保留情報の増減個数を普図保留表示部38bに反映させるための出力情報の設定を行う。また、ステップS215では、直前のステップS213及びステップS214の処理結果に基づいて、特図表示部37aの表示内容を更新させるための出力情報の設定を行うとともに、普図表示部38aの表示内容を更新させるための出力情報の設定を行う。 In the following step S215, based on the processing results of the immediately preceding steps S213 and S214, the output information for reflecting the increase / decrease in the number of reserved information related to the special figure display unit 37a on the special figure hold display unit 37b is set. , Set the output information for reflecting the increase / decrease number of the hold information related to the normal figure display unit 38a on the normal figure hold display unit 38b. Further, in step S215, the output information for updating the display content of the special figure display unit 37a is set based on the processing results of the immediately preceding steps S213 and S214, and the display content of the normal figure display unit 38a is set. Set the output information to be updated.

続くステップS216では、払出制御装置55から受信したコマンド及び信号の内容を確認し、その確認結果に対応した処理を行うための払出状態受信処理を実行する。また、ステップS217では、賞球コマンドを出力対象として設定するための払出出力処理を実行する。続くステップS218では、今回のタイマ割込み処理にて実行された各種処理の処理結果に応じた外部信号の出力の開始及び終了を制御するための外部情報設定処理を実行する。その後、本タイマ割込み処理を終了する。 In the following step S216, the contents of the command and the signal received from the payout control device 55 are confirmed, and the payout state reception process for performing the process corresponding to the check result is executed. Further, in step S217, a payout output process for setting the prize ball command as an output target is executed. In the following step S218, an external information setting process for controlling the start and end of the output of the external signal according to the processing results of the various processes executed in the timer interrupt process this time is executed. After that, the timer interrupt processing is terminated.

<音声発光制御装置60>
次に、音声発光制御装置60について説明する。
<Voice emission control device 60>
Next, the voice emission control device 60 will be described.

音声発光制御装置60は、図5に示すように、MPU62が搭載された音声発光制御基板61を具備している。MPU62には、当該MPU62により実行される各種の制御プログラムや固定値データを記憶したROM63と、そのROM63内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM64と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 As shown in FIG. 5, the voice emission control device 60 includes a voice emission control board 61 on which the MPU 62 is mounted. The MPU 62 is a ROM 63 that stores various control programs and fixed value data executed by the MPU 62, and a memory for temporarily storing various data and the like when the control program stored in the ROM 63 is executed. A certain RAM 64, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, and the like are built in.

なお、ROM63として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。具体的には、NOR型キャッシュメモリが用いられている。但し、これに限定されることはなく、ランダムアクセスが可能であれば、ROM63として用いるメモリの種類は任意である。また、制御及び演算部分と、ROM63と、RAM64とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 63, a storage means (that is, a non-volatile storage means) that can be randomly accessed when reading a control program or fixed value data and does not require an external power supply for storage retention is used. Specifically, a NOR type cache memory is used. However, the present invention is not limited to this, and the type of memory used as the ROM 63 is arbitrary as long as random access is possible. Further, the configuration in which the control and calculation portion, the ROM 63, and the RAM 64 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions may be mounted as separate chips. It may be installed.

MPU62には、入力ポート及び出力ポートがそれぞれ設けられている。MPU62の入力側には主制御装置50が接続されているとともに、MPU62の出力側には表示発光部44及びスピーカ部45が接続されている。また、MPU62の入力側及び出力側の両方に対して、表示制御装置70の後述する表示CPU72が接続されている。つまり、MPU62は表示CPU72と双方向通信可能となるように接続されており、これらMPU62と表示CPU72との間でコマンドが双方向通信でやり取りされる。なお、当該双方向通信はシリアル通信で行われるが、これに限定されることはなくパラレル通信で行われる構成としてもよい。 The MPU 62 is provided with an input port and an output port, respectively. The main control device 50 is connected to the input side of the MPU 62, and the display light emitting unit 44 and the speaker unit 45 are connected to the output side of the MPU 62. Further, a display CPU 72 described later of the display control device 70 is connected to both the input side and the output side of the MPU 62. That is, the MPU 62 is connected to the display CPU 72 so as to be capable of bidirectional communication, and commands are exchanged between the MPU 62 and the display CPU 72 by bidirectional communication. The two-way communication is performed by serial communication, but the present invention is not limited to this, and a configuration may be performed by parallel communication.

MPU62では、主制御装置50から送信された変動用コマンドを受信することで、遊技回用の演出を開始させる必要があることを認識し、遊技回用演出開始処理を実行する。また、主制御装置50から送信された終了コマンドを受信することで、遊技回用の演出を終了させる必要があることを認識し、遊技回用演出終了処理を実行する。また、主制御装置50から送信された大当たり演出用の各種コマンドを受信することで、大当たり演出を開始させる必要があること又は進行させる必要があることを認識し、大当たり演出用処理を実行する。 The MPU 62 recognizes that it is necessary to start the effect for the game round by receiving the variation command transmitted from the main control device 50, and executes the game round effect start process. Further, by receiving the end command transmitted from the main control device 50, it recognizes that it is necessary to end the effect for the game round, and executes the effect end process for the game round. Further, by receiving various commands for the jackpot effect transmitted from the main control device 50, it is recognized that the jackpot effect needs to be started or progressed, and the jackpot effect process is executed.

なお、MPU62において主制御装置50からコマンドを受信するとは、主制御装置50からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 Note that receiving a command from the main control device 50 in the MPU 62 is not limited to a configuration in which the command is directly received from the main control device 50, but also includes a configuration in which the command relayed to the relay board is received.

遊技回用演出開始処理では、変動用コマンド及び種別コマンドの両コマンドに基づいて、該当遊技回の変動表示時間を把握する変動表示時間の把握処理と、リーチ表示の有無を把握するリーチ表示把握処理と、大当たり結果の有無を把握する大当たり結果発生の把握処理と、大当たり結果が発生する場合における大当たり種別を把握する大当たり種別の把握処理と、を実行する。また、リーチ表示把握処理、大当たり結果発生の把握処理及び大当たり種別の把握処理における把握結果に基づいて、本遊技回において図柄表示装置41の表示面Pに最終停止表示させる図柄の種類を決定する図柄種別把握処理を実行する。そして、上記各把握処理の結果に基づいて、変動表示時間の情報及び表示演出の種類の情報を含む変動パターンコマンドと、最終停止表示させる図柄の種類の情報を含む図柄指定コマンドを、表示制御装置70に送信する。 In the game turn effect start process, based on both the change command and the type command, the change display time grasp process for grasping the change display time of the corresponding game turn and the reach display grasp process for grasping the presence / absence of reach display. And, the process of grasping the occurrence of the jackpot result for grasping the presence or absence of the jackpot result, and the process of grasping the jackpot type for grasping the jackpot type when the jackpot result occurs are executed. Further, based on the grasp results in the reach display grasping process, the jackpot result occurrence grasping process, and the jackpot type grasping process, the symbol that determines the type of the symbol to be finally stopped and displayed on the display surface P of the symbol display device 41 in this game round. Execute the type grasping process. Then, based on the results of each of the above grasping processes, the display control device issues a variation pattern command including information on the variation display time and information on the type of display effect, and a symbol designation command including information on the type of symbol to be finally stopped and displayed. Send to 70.

また、遊技回用演出開始処理では、上記各把握処理の他に、予告表示を行うか否かの予告表示抽選処理を実行する。この場合、当該抽選処理では、予告表示の種別抽選についても実行される。そして、予告表示の発生当選である場合には、予告表示の種別の情報を含む予告コマンドを、表示制御装置70に送信する。 Further, in the game rounding effect start process, in addition to the above-mentioned grasping processes, a notice display lottery process for whether or not to display a notice is executed. In this case, in the lottery process, the type lottery of the notice display is also executed. Then, if the notice display is won, a notice command including information on the type of the notice display is transmitted to the display control device 70.

また、遊技回用演出開始処理では、上記各処理の処理結果に基づいて、遊技回用の表示発光テーブルと遊技回用の音声テーブルとをROM63から読み出す。遊技回用の表示発光テーブルにより、該当する遊技回の進行過程における表示発光部44の発光態様が規定される。また、遊技回用の音声テーブルにより、該当する遊技回の進行過程におけるスピーカ部45からの出力態様が規定される。 Further, in the game rotation effect start processing, the display light emitting table for the game rotation and the voice table for the game rotation are read from the ROM 63 based on the processing results of each of the above processes. The display light emitting table for the game round defines the light emitting mode of the display light emitting unit 44 in the progress process of the corresponding game round. In addition, the audio table for the game round defines the output mode from the speaker unit 45 in the progress process of the game round.

遊技回用演出終了処理では、現状の遊技回における表示発光部44の発光制御及びスピーカ部45の音声出力制御を終了する。また、当該遊技回用演出終了処理では、遊技回用演出を終了させるべき情報を含む終了コマンドを、表示制御装置70に送信する。 In the game round production end process, the light emission control of the display light emitting unit 44 and the voice output control of the speaker unit 45 in the current game round are ended. Further, in the game rotation effect end process, an end command including information for ending the game rotation effect is transmitted to the display control device 70.

大当たり演出用処理では、受信している大当たり演出用の各種コマンドに基づいて、オープニング時、各ラウンド時、各ラウンド間及びエンディング時などの演出態様を把握し、その把握結果に対応した大当たり演出用のコマンドを表示制御装置70に送信する。また、当該把握結果に基づいて、大当たり演出用の表示発光テーブルと大当たり演出用の音声テーブルとをROM63から読み出し、大当たり演出中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。 In the jackpot production process, based on the various commands for jackpot production received, the production mode such as at the opening, each round, between each round, and at the ending is grasped, and the jackpot production corresponding to the grasped result is used. Command is transmitted to the display control device 70. Further, based on the grasping result, the display light emitting table for the jackpot effect and the audio table for the jackpot effect are read from the ROM 63, and the light emitting mode of the display light emitting unit 44 and the sound output mode from the speaker unit 45 during the jackpot effect. To specify.

<表示制御装置70>
次に、表示制御装置70について説明する。
<Display control device 70>
Next, the display control device 70 will be described.

表示制御装置70は、図5に示すように、表示CPU72と、ワークRAM73と、メモリモジュール74と、VRAM75と、ビデオディスプレイプロセッサ(VDP)76と、が搭載された表示制御基板71を備えている。 As shown in FIG. 5, the display control device 70 includes a display control board 71 on which a display CPU 72, a work RAM 73, a memory module 74, a VRAM 75, and a video display processor (VDP) 76 are mounted. ..

表示CPU72は、表示制御装置70においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU72は表示制御基板71に搭載された入力ポート77に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート77を通じて表示CPU72に入力される。なお、表示CPU72において音声発光制御装置60からコマンドを受信するとは、音声発光制御装置60からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 The display CPU 72 has a function as a main control unit in the display control device 70, and reads, interprets, and executes a control program or the like. Specifically, the display CPU 72 is connected to the input port 77 mounted on the display control board 71 via a bus, and various commands transmitted from the voice emission control device 60 are input to the display CPU 72 through the input port 77. Will be done. Note that receiving a command from the voice emission control device 60 in the display CPU 72 is not limited to a configuration in which the command is directly received from the voice emission control device 60, and includes a configuration in which the command relayed to the relay board is received. Is done.

表示CPU72は、バスを介してワークRAM73、メモリモジュール74及びVRAM75と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール74に記憶された各種データをワークRAM73に転送させる転送指示を行う。また、表示CPU72は、バスを介してVDP76と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置41に画像信号を出力させる描画指示を行う。以下、メモリモジュール74、ワークRAM73、VRAM75及びVDP76について説明する。 The display CPU 72 is connected to the work RAM 73, the memory module 74, and the VRAM 75 via a bus, and transfers various data stored in the memory module 74 to the work RAM 73 based on a command received from the voice emission control device 60. Give a transfer instruction. Further, the display CPU 72 is connected to the VDP 76 via a bus, and gives a drawing instruction to output an image signal to the symbol display device 41 based on a command received from the voice emission control device 60. Hereinafter, the memory module 74, the work RAM 73, the VRAM 75, and the VDP 76 will be described.

メモリモジュール74は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、図柄表示装置41に表示される図柄やキャラクタなどのスプライトデータ、背景データ、及び動画像データなどを含む各種画像データを予め記憶している記憶手段である。当該メモリモジュール74は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置70における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール74は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。 The memory module 74 stores control data including a control program and fixed value data in advance, and also includes sprite data such as symbols and characters displayed on the symbol display device 41, background data, moving image data, and the like. It is a storage means that stores various image data in advance. The memory module 74 includes a non-volatile semiconductor memory that does not require an external power supply for storage retention. By the way, the storage capacity is 4 Gbits, but such a storage capacity is arbitrary as long as the control in the display control device 70 is performed well. Further, when the pachinko machine 10 is used, the memory module 74 is used as a non-writing and read-only memory (ROM).

ここで、各スプライトデータは、キャラクタの外形や模様を規定するビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照されるカラーパレットテーブルとの組合せを少なくとも含んでいる。また、背景データは、静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。動画像データについては、後に詳細に説明する。 Here, each sprite data includes at least a combination of bitmap format data that defines the outline and pattern of the character and a color palette table that is referred to when determining the display color of the bitmap image at each pixel. There is. Further, the background data is stored and held as JPEG format data in which the still image data is compressed. The moving image data will be described in detail later.

ワークRAM73は、メモリモジュール74から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM73は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置70における制御が良好に実行されるのであれば任意である。また、ワークRAM73は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The work RAM 73 is a storage means for temporarily storing control data read and transferred from the memory module 74, and for temporarily storing flags and the like. The work RAM 73 has a volatile semiconductor memory that requires an external power supply for storage, and in detail, a DRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as SRAM may be used. The storage capacity is 1 Gbit, but the storage capacity is arbitrary as long as the control in the display control device 70 is satisfactorily executed. Further, the work RAM 73 is used for both reading and writing when the pachinko machine 10 is used.

ワークRAM73には、表示CPU72からメモリモジュール74へのデータ転送指示に基づき、当該メモリモジュール74から制御用データが転送される。そして、表示CPU72は、ワークRAM73に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。 Control data is transferred from the memory module 74 to the work RAM 73 based on a data transfer instruction from the display CPU 72 to the memory module 74. Then, the display CPU 72 reads the control data transferred to the work RAM 73 into the internal memory area (register group) as needed, and executes various processes.

VRAM75は、図柄表示装置41に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM75は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置70における制御が良好に実行されるのであれば任意である。また、当該VRAM75は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The VRAM 75 is a storage means for temporarily storing various data necessary for outputting an image to the symbol display device 41. The VRAM 75 has a volatile semiconductor memory that requires power supply from the outside for storage, and in detail, SDRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as DRAM, SRAM or dual port RAM may be used. The storage capacity is 2 Gbits, but the storage capacity is arbitrary as long as the control in the display control device 70 is satisfactorily executed. Further, the VRAM 75 is used for both reading and writing when the pachinko machine 10 is used.

VRAM75は展開用バッファ81を備えており、展開用バッファ81には、VDP76からメモリモジュール74へのデータ転送指示に基づき、当該メモリモジュール74から画像データが転送される。また、VRAM75には、VDP76により描画データが作成されるフレームバッファ82が設けられている。なお、VRAM75がVDP76に内蔵されていてもよい。 The VRAM 75 includes an expansion buffer 81, and image data is transferred from the memory module 74 to the expansion buffer 81 based on a data transfer instruction from the VDP 76 to the memory module 74. Further, the VRAM 75 is provided with a frame buffer 82 in which drawing data is created by the VDP 76. The VRAM 75 may be built in the VDP 76.

VDP76は、表示CPU72からの描画指示に基づき、展開用バッファ81に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置41に対して描画を行う画像生成デバイスであり、図柄表示装置41において液晶表示部41aを駆動制御するように組み込まれた画像処理デバイス41bを操作する一種の描画回路である。VDP76はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。 The VDP 76 is an image generation device that draws on the symbol display device 41 by specifically processing the data stored and held in the expansion buffer 81 based on the drawing instruction from the display CPU 72. This is a kind of drawing circuit that operates an image processing device 41b incorporated so as to drive and control a liquid crystal display unit 41a in the symbol display device 41. Since the VDP76 is an IC chip, it is also called a "drawing chip", and its substance can be said to be a microcomputer chip with a built-in firmware dedicated to drawing.

詳細には、VDP76は、制御部91と、レジスタ92と、動画デコーダ93と、表示回路94と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU72用のI/F95及びVRAM75用のI/F96と接続されている。 Specifically, the VDP 76 includes a control unit 91, a register 92, a moving image decoder 93, and a display circuit 94. Further, these circuits are connected to each other via a bus, and are also connected to the I / F95 for the display CPU 72 and the I / F96 for the VRAM75.

VDP76では、表示CPU72から送信された描画指示情報としての描画リストをレジスタ92に記憶させる。レジスタ92に描画リストが記憶されることにより、制御部91では描画リストに従ったプログラムが起動されて予め定められた処理が実行される。なお、制御部91が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリを制御部91に内蔵させ、当該制御プログラムと描画リストの内容とによって制御部91が所定の処理を実行する構成としてもよい。また、メモリモジュール74から制御プログラムを事前に読み出す構成としてもよい。 In the VDP 76, the drawing list as the drawing instruction information transmitted from the display CPU 72 is stored in the register 92. When the drawing list is stored in the register 92, the control unit 91 starts a program according to the drawing list and executes a predetermined process. In addition, all the control programs for operating the control unit 91 may be provided by the drawing list, and a memory in which the control program is stored in advance is built in the control unit 91, and the contents of the control program and the drawing list are combined. The control unit 91 may be configured to execute a predetermined process. Further, the control program may be read in advance from the memory module 74.

上記処理として、制御部91は、メモリモジュール74に記憶されている画像データをVRAM75の展開用バッファ81に読み出す。また、制御部91は、展開用バッファ81に読み出された画像データを用いて(又は加工することにより)、フレームバッファ82に1フレーム分の描画データを作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置41の表示面Pにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるために必要なデータのことをいう。 As the above process, the control unit 91 reads the image data stored in the memory module 74 into the expansion buffer 81 of the VRAM 75. Further, the control unit 91 creates drawing data for one frame in the frame buffer 82 using (or by processing) the image data read out in the expansion buffer 81. The drawing data for one frame is the data required to display the image at one update timing in the configuration in which the image on the display surface P of the symbol display device 41 is updated at a predetermined update timing. Say.

ここで、フレームバッファ82には、複数のフレーム領域82a,82bが設けられている。具体的には、第1フレーム領域82aと、第2フレーム領域82bとが設けられている。これら各フレーム領域82a,82bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域82a,82bにはそれぞれ、液晶表示部41a(すなわち表示面P)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。 Here, the frame buffer 82 is provided with a plurality of frame areas 82a and 82b. Specifically, a first frame region 82a and a second frame region 82b are provided. Each of these frame areas 82a and 82b is set to a capacity capable of storing drawing data for one frame. Specifically, each of the frame regions 82a and 82b includes a large number of unit areas corresponding to the dots (pixels) of the liquid crystal display unit 41a (that is, the display surface P) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color is to be displayed. More specifically, a full-color method is adopted, and 256 colors can be set for each of R (red), G (green), and B (blue) at each dot. Correspondingly, 1 byte (8 bits) is allocated to each RGB color in each unit area. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。 The method is not limited to the full-color method. For example, in a configuration in which only 256 colors can be displayed at each dot, the storage capacity required for storing color information in each unit area may be 1 byte.

フレームバッファ82に第1フレーム領域82a及び第2フレーム領域82bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置41への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ82として、ダブルバッファ方式が採用されている。 Since the frame buffer 82 is provided with the first frame area 82a and the second frame area 82b, in a situation where drawing is executed on the symbol display device 41 using the drawing data created in one frame area. , Creation of drawing data to be used in the future is executed for other frame areas. That is, the double buffer method is adopted as the frame buffer 82.

表示回路94では、第1フレーム領域82a又は第2フレーム領域82bに作成された描画データに基づいて液晶表示部41aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路94に接続された出力ポート78を介して図柄表示装置41に出力される。詳細には、出力対象のフレーム領域82a,82bから表示回路94へ描画データが転送される。その転送された描画データは図柄表示装置41の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置41の各ドットに対応した画像信号が生成されて出力される。なお、表示回路94からは水平同期信号又は垂直同期信号などの同期信号も出力される。また、動画デコーダ93では、VRAM75の展開用バッファ81に転送された動画像データのデコードを実行する。 In the display circuit 94, an image signal corresponding to each dot of the liquid crystal display unit 41a is generated based on the drawing data created in the first frame area 82a or the second frame area 82b, and the image signal is transmitted to the display circuit 94. It is output to the symbol display device 41 via the connected output port 78. Specifically, the drawing data is transferred from the output target frame areas 82a and 82b to the display circuit 94. The transferred drawing data is converted into gradation data by adjusting the resolution with a scaler (not shown) so as to correspond to the resolution of the symbol display device 41. Then, an image signal corresponding to each dot of the symbol display device 41 is generated and output based on the gradation data. A synchronization signal such as a horizontal synchronization signal or a vertical synchronization signal is also output from the display circuit 94. Further, the moving image decoder 93 decodes the moving image data transferred to the expansion buffer 81 of the VRAM 75.

<音声発光制御装置60のMPU62の処理構成>
次に、音声発光制御装置60のMPU62(以下、音光側MPU62という)にて実行される処理について説明する。図9は音光側MPU62にて比較的短い周期(例えば4msec)で繰り返し実行されるタイマ割込み処理を示すフローチャートである。
<Processing configuration of MPU 62 of voice emission control device 60>
Next, the process executed by the MPU 62 of the voice emission control device 60 (hereinafter referred to as the sound light side MPU 62) will be described. FIG. 9 is a flowchart showing a timer interrupt process that is repeatedly executed in a sound light side MPU 62 with a relatively short cycle (for example, 4 msec).

まずステップS301にて、主制御装置50のMPU52(以下、主側MPU52という)から受信したコマンドに対応した処理を行うための主側コマンド対応処理を実行する。続くステップS302では、図柄表示装置41の表示制御の内容を表示CPU72に指示するためのコマンド選択処理を実行する。 First, in step S301, the main command correspondence process for performing the process corresponding to the command received from the MPU 52 of the main control device 50 (hereinafter referred to as the main MPU 52) is executed. In the following step S302, a command selection process for instructing the display CPU 72 of the content of the display control of the symbol display device 41 is executed.

その後、ステップS303にて、表示発光部44の発光制御を行うための発光制御処理を実行する。当該発光制御処理では、上記ステップS301の主側コマンド対応処理にて読み出された制御パターンテーブルに従って表示発光部44の発光制御を行う。また、ステップS304では、スピーカ部45の音出力制御を行うための音出力制御処理を実行する。当該音出力制御処理では、上記ステップS301の主側コマンド対応処理にて読み出された制御パターンテーブルに従ってスピーカ部45の音出力制御を行う。その後、ステップS305にてポインタ更新処理を実行する。ポインタ更新処理では、現状の制御パターンテーブルのポインタ情報を次のポインタ情報に更新する。また、ステップS306では、表示CPU72から受信したコマンドに対応した処理を行うための表示側コマンド対応処理を実行する。 After that, in step S303, a light emission control process for controlling the light emission of the display light emitting unit 44 is executed. In the light emission control process, the light emission control of the display light emitting unit 44 is performed according to the control pattern table read in the main command corresponding process in step S301. Further, in step S304, a sound output control process for controlling the sound output of the speaker unit 45 is executed. In the sound output control process, the sound output control of the speaker unit 45 is performed according to the control pattern table read in the main command corresponding process in step S301. After that, the pointer update process is executed in step S305. In the pointer update process, the pointer information of the current control pattern table is updated to the next pointer information. Further, in step S306, the display-side command-corresponding process for performing the process corresponding to the command received from the display CPU 72 is executed.

<主側コマンド対応処理>
図10は、タイマ割込み処理(図9)のステップS301にて実行される主側コマンド対応処理を示すフローチャートである。
<Main command correspondence processing>
FIG. 10 is a flowchart showing a main command corresponding process executed in step S301 of the timer interrupt process (FIG. 9).

主側MPU52から変動用コマンド及び種別コマンドを受信している場合(ステップS401:YES)、遊技結果の記憶処理を実行する(ステップS402)。具体的には、種別コマンドに含まれている情報から、今回の遊技回の開始に際して主側MPU52にて決定された当否抽選及び振分抽選の結果がいずれであるかの情報を特定し、その特定した情報をRAM64に書き込む。 When the variation command and the type command are received from the main MPU 52 (step S401: YES), the game result storage process is executed (step S402). Specifically, from the information included in the type command, information on which is the result of the winning / failing lottery and the sorting lottery determined by the main MPU 52 at the start of this game round is specified, and the information thereof is specified. The specified information is written to the RAM 64.

続くステップS403では、予告抽選処理を実行する。予告抽選処理では、今回の遊技回において図柄表示装置41にて予告表示を行わせるか否かを抽選により決定する。かかる予告表示としては、既に説明したとおり、図柄表示装置41にて図柄の変動表示が開始されてから、全ての図柄列Z1〜Z3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列Z1〜Z3上の図柄とは別にキャラクタを表示させる態様とするものや、背景画面をそれまでの態様とは異なる所定の態様とするものや、図柄列Z1〜Z3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。当該予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示が行われる場合の方がリーチ表示が行われない場合よりも高確率で発生するように設定されている。また、予告抽選処理では、いずれかの大当たり結果に対応した遊技回の方が、外れ結果に対応した遊技回に比べ、予告表示が発生し易く、さらに出現率の低い予告表示が発生し易くなるように予告抽選を行う。 In the following step S403, the advance notice lottery process is executed. In the advance notice lottery process, it is determined by lottery whether or not to display the advance notice on the symbol display device 41 in this game round. As such a notice display, as described above, in a situation where the symbol is variablely displayed in all the symbol rows Z1 to Z3 after the symbol display device 41 starts the variable display of the symbol, or a part of the notice display. In a situation where the symbols are displayed in a variable manner in a plurality of symbol rows in the symbol row, the character is displayed separately from the symbols on the symbol rows Z1 to Z3, and the background screen is the previous mode. Also includes those having different predetermined modes and those in which the symbols on the symbol rows Z1 to Z3 have different predetermined modes from the previous modes. The notice display can occur in both the game times when the reach display is performed and when the reach display is not performed, but the case where the reach display is performed is higher than the case where the reach display is not performed. It is set to occur with probability. Further, in the advance notice lottery process, the advance notice display is more likely to occur in the game times corresponding to any of the jackpot results than in the game times corresponding to the missed result, and the advance notice display having a lower appearance rate is more likely to occur. A notice lottery will be held.

続くステップS404では、停止図柄決定処理を実行する。停止図柄決定処理では、今回の遊技回の遊技結果が通常大当たり結果及び15R確変大当たり結果のいずれかであれば、一の有効ラインL1〜L5上に同一の図柄の組合せが成立する停止結果に対応した情報を、今回の停止結果の情報として決定する。この場合、同一の奇数図柄の組合せは15R確変大当たり結果の場合に選択される一方、同一の偶数図柄の組合せは通常大当たり結果及び15R確変大当たり結果のいずれにおいても選択され得る。なお、同一の図柄の組合せが停止表示される有効ラインL1〜L5は抽選などによってランダムに決定される。また、通常大当たり結果であっても同一の奇数図柄の組合せが選択され得る構成としてもよい。 In the following step S404, the stop symbol determination process is executed. In the stop symbol determination process, if the game result of this game round is either a normal jackpot result or a 15R probability variation jackpot result, it corresponds to a stop result in which the same combination of symbols is established on one effective line L1 to L5. The information is determined as the information of the result of this stop. In this case, the same odd-numbered symbol combination may be selected in the case of the 15R probability variation jackpot result, while the same even-numbered symbol combination may be selected in both the normal jackpot result and the 15R probability variation jackpot result. The effective lines L1 to L5 in which the combination of the same symbols is stopped and displayed are randomly determined by lottery or the like. Further, even if it is a normal jackpot result, the same odd-numbered symbol combination may be selected.

停止図柄決定処理では、今回の遊技回の遊技結果が明示2R確変大当たり結果であれば、全ての有効ラインL1〜L5上に同一図柄の組合せが成立しない停止結果であって、一の有効ラインL1〜L5上に特定の図柄の組合せ(「3・4・1」)が成立する停止結果に対応した情報を、今回の停止結果の情報として決定する。この場合、有効ラインL1〜L5は抽選などによってランダムに決定される。 In the stop symbol determination process, if the game result of this game round is an explicit 2R probability variation jackpot result, the stop result is such that the same symbol combination is not established on all the effective lines L1 to L5, and one effective line L1. The information corresponding to the stop result in which the combination of specific symbols (“3.4.1”) is established on ~ L5 is determined as the information of the stop result this time. In this case, the effective lines L1 to L5 are randomly determined by lottery or the like.

停止図柄決定処理では、今回の遊技回の遊技結果が外れ結果であれば、変動用コマンドの内容からリーチ表示の有無を特定する。そして、リーチ表示が発生する場合には、全ての有効ラインL1〜L5上に同一図柄の組合せ及び上記特定の図柄の組合せが成立しない停止結果であって、一又は二の有効ラインL1〜L5上にリーチ図柄の組合せが成立する停止結果に対応した情報を、今回の停止結果の情報として決定する。一方、リーチ表示が発生しない場合には、全ての有効ラインL1〜L5上に同一図柄の組合せ及び上記特定の図柄の組合せが成立しない停止結果であって、全ての有効ラインL1〜L5上にリーチ図柄の組合せが成立しない停止結果に対応した情報を、今回の停止結果の情報として決定する。 In the stop symbol determination process, if the game result of this game time is out of order, the presence / absence of reach display is specified from the content of the change command. Then, when the reach display occurs, it is a stop result that the combination of the same symbol and the combination of the specific symbols are not established on all the effective lines L1 to L5, and it is on the one or two effective lines L1 to L5. The information corresponding to the stop result in which the combination of the reach symbols is established is determined as the information of the stop result this time. On the other hand, when the reach display does not occur, it is a stop result that the combination of the same symbol and the combination of the specific symbols are not established on all the effective lines L1 to L5, and the reach is reached on all the effective lines L1 to L5. The information corresponding to the stop result in which the combination of symbols is not established is determined as the information of the stop result this time.

続くステップS405では、今回の遊技回の演出パターンを決定するための処理を実行する。当該処理では、今回受信している変動用コマンドの内容から遊技回の継続時間の情報を特定するとともに、当該継続時間の情報、上記ステップS402にて特定した遊技結果の情報、上記ステップS403における予告抽選処理の抽選結果の情報、及び上記ステップS404にて決定した停止結果の情報の組合せに対応した演出パターンを選択する。この演出パターンの選択に際しては、ROM63に設けられたパターン決定用テーブルを参照し、今回の上記継続時間の情報、上記遊技結果の情報、上記予告抽選処理の抽選結果の情報、及び上記停止結果の情報に対応した制御パターンテーブルのROM63におけるアドレスを特定し、そのアドレスの特定結果に基づいて当該制御パターンテーブルをROM63から読み出してRAM64に書き込む。 In the following step S405, a process for determining the effect pattern of the current game times is executed. In the process, the information on the duration of the game is specified from the content of the variable command received this time, the information on the duration, the information on the game result specified in step S402, and the notice in step S403. An effect pattern corresponding to the combination of the lottery result information of the lottery process and the stop result information determined in step S404 is selected. When selecting this effect pattern, the pattern determination table provided in the ROM 63 is referred to, and the information on the duration, the game result, the lottery result of the advance notice lottery process, and the stop result are obtained. The address of the control pattern table corresponding to the information in the ROM 63 is specified, and the control pattern table is read from the ROM 63 and written to the RAM 64 based on the identification result of the address.

図11を参照しながら制御パターンテーブルについて、より具体的に説明する。なお、図11は15R確変大当たり結果となる場合に選択され得る制御パターンテーブルの一例である。 The control pattern table will be described more specifically with reference to FIG. Note that FIG. 11 is an example of a control pattern table that can be selected when a 15R probability variation jackpot result is obtained.

図11に示すように制御パターンテーブルには、対象となる遊技回の継続時間に対応したフレーム数分のポインタ情報が設定されており、各ポインタ情報に対応させて、タスクの内容の情報と、コマンド出力の有無の情報と、追加データの情報とが設定されている。 As shown in FIG. 11, pointer information for the number of frames corresponding to the duration of the target game is set in the control pattern table, and the information on the content of the task and the information on the content of the task are set in correspondence with each pointer information. Information on the presence / absence of command output and information on additional data are set.

タスクの内容の情報は今回の遊技回に対応した発光制御及び音出力制御を行うために設定されている情報であり、当該タスクの内容の情報を一切反映させないような情報が追加データとして設定されない限り、各フレームにおいてタスクの内容の情報に応じた態様で表示発光部44の発光制御が行われるとともにスピーカ部45の音出力制御が行われる。 The task content information is information set to perform light emission control and sound output control corresponding to this game, and information that does not reflect the task content information at all is not set as additional data. As long as it is limited, the light emission control of the display light emitting unit 44 is performed and the sound output control of the speaker unit 45 is performed in an manner corresponding to the information of the content of the task in each frame.

図11に示す制御パターンテーブルについて具体的には、「0」のポインタ情報に変動開始時のデータが設定されており、「200」のポインタ情報に予告演出開始時のデータが設定されており、「300」のポインタ情報に予告演出終了時のデータが設定されており、「400」のポインタ情報にノーマルリーチ開始時のデータが設定されており、「700」のポインタ情報に、スーパーリーチ開始時のデータが設定されており、「1000」のポインタ情報に、確定演出開始時のデータが設定されており、「1400」のポインタ情報に、変動終了時のデータが設定されている。これら各ポインタ情報は、演出の開始、演出の切り換わり、及び演出の終了といった区切りタイミングに対応している。また、これら以外のポインタ情報には、区切りタイミング間の発光制御及び音出力制御を可能とするためのデータが設定されている。 Specifically, regarding the control pattern table shown in FIG. 11, the pointer information of "0" is set with the data at the start of fluctuation, and the pointer information of "200" is set with the data at the start of the advance notice effect. The pointer information of "300" is set with the data at the end of the advance notice effect, the pointer information of "400" is set with the data at the start of normal reach, and the pointer information of "700" is set with the data at the start of super reach. The data is set, the pointer information of "1000" is set with the data at the start of the final effect, and the pointer information of "1400" is set with the data at the end of the fluctuation. Each of these pointer information corresponds to a delimiter timing such as the start of the effect, the switching of the effect, and the end of the effect. In addition, data for enabling light emission control and sound output control between break timings are set in the pointer information other than these.

コマンド出力の有無の情報は、音光側MPU62から表示CPU72へのコマンドの出力の有無、及びそのコマンドの種類を示す情報である。制御パターンテーブルに従って表示CPU72へのコマンド出力が行われることで、図柄表示装置41における画像の内容と、表示発光部44における発光内容と、スピーカ部45における音出力内容とを関連付けることが可能となる。つまり、図柄表示装置41における動画の内容に応じて、表示発光部44にて光の演出が実行されるとともに、スピーカ部45にて音出力の演出が実行される。 The information on the presence / absence of command output is information indicating the presence / absence of command output from the sound / light side MPU 62 to the display CPU 72 and the type of the command. By outputting the command to the display CPU 72 according to the control pattern table, it is possible to associate the content of the image in the symbol display device 41, the content of light emission in the display light emitting unit 44, and the content of sound output in the speaker unit 45. .. That is, according to the content of the moving image in the symbol display device 41, the display light emitting unit 44 executes the light effect, and the speaker unit 45 executes the sound output effect.

図11に示す制御パターンテーブルについて具体的には、タスクの内容において変動開始時のデータが設定されている「0」のポインタ情報に対して、コマンドデータが設定されている。したがって、遊技回の変動開始時には、音光側MPU62から表示CPU72へのコマンド送信に基づき、表示CPU72において表示制御が開始される。また、タスクの内容において、予告演出開始時のデータ、ノーマルリーチ開始時のデータ、スーパーリーチ開始時のデータ、確定演出開始時のデータ及び変動終了時のデータのそれぞれが設定されている各ポインタ情報、具体的には、「200」、「400」、「700」、「1000」、「1400」の各ポインタ情報に対して、コマンドデータが設定されている。したがって、主側MPU52から変動用コマンド及び種別コマンドが送信されるという所定の開始契機が発生したことにより開始される遊技回用の演出の範囲内において、遊技回用の演出に含まれる演出区分の種類が変化する場合には、音光側MPU62から表示CPU72へのコマンド送信に基づき、表示CPU72において新たな演出区分に対応する表示制御が開始される。 Specifically, regarding the control pattern table shown in FIG. 11, command data is set for the pointer information of "0" in which the data at the start of fluctuation is set in the task content. Therefore, at the start of the fluctuation of the game times, the display control is started in the display CPU 72 based on the command transmission from the sound / light side MPU 62 to the display CPU 72. In addition, in the content of the task, each pointer information in which the data at the start of the advance notice effect, the data at the start of the normal reach, the data at the start of the super reach, the data at the start of the final effect, and the data at the end of the fluctuation are set. Specifically, command data is set for each pointer information of "200", "400", "700", "1000", and "1400". Therefore, within the range of the effect for the game round that is started by the occurrence of the predetermined start trigger that the variable command and the type command are transmitted from the main MPU 52, the effect category included in the effect for the game round is included. When the type changes, the display CPU 72 starts the display control corresponding to the new effect category based on the command transmission from the sound / light side MPU 62 to the display CPU 72.

追加データの情報は、制御パターンテーブルの初期設定としてはブランクとして設定されており、報知の実行指示があった場合などに追加データへの書き込み処理が実行される。追加データへの書き込みが行われた場合には、当該追加データに書き込まれている情報がタスクの内容に元々設定されていた情報よりも優先される。例えば、報知として所定の文字を画像として表示することに対応した追加データが設定されている場合には、当該文字画像が、タスクの内容に対応した画像上に追加されるように画像表示がなされる。 The information of the additional data is set as a blank as the initial setting of the control pattern table, and the writing process to the additional data is executed when there is an execution instruction of the notification. When writing to the additional data is performed, the information written in the additional data has priority over the information originally set in the task content. For example, when additional data corresponding to displaying a predetermined character as an image is set as a notification, the image is displayed so that the character image is added on the image corresponding to the content of the task. To.

なお、制御パターンテーブルは遊技回用の演出以外にも、開閉実行モード用の演出や、遊技回用の演出及び開閉実行モード用の演出のいずれも実行されていない状況における演出に対応させて設けられている。このように様々な状況に対応させて制御パターンテーブルが設定されていることにより、音光側MPU62に動作電力が供給されている状況では何らかの制御パターンテーブルがRAM64に読み出された状態となっている。 In addition to the effect for the game round, the control pattern table is provided to correspond to the effect for the open / close execution mode, the effect for the game round, and the effect for the open / close execution mode. Has been done. By setting the control pattern table corresponding to various situations in this way, some control pattern table is read into the RAM 64 in the situation where the operating power is supplied to the sound light side MPU 62. There is.

主側コマンド対応処理(図10)の説明に戻り、ステップS406では主側MPU52から報知実行コマンドを受信しているか否かを判定する。報知実行コマンドは、主側MPU52のタイマ割込み処理(図8)におけるステップS205の不正検知処理にて、不正用の監視対象として設定されている所定の事象が発生していることが特定された場合に出力されるとともに、ステップS212の入力状態監視処理にて、遊技機本体12又は前扉枠14が開放状態であることが特定された場合にも出力される。報知実行コマンドには報知対象の内容に対応したデータが含まれるため、音光側MPU62は受信した報知実行コマンドから報知対象の内容を特定することが可能である。 Returning to the description of the main command correspondence process (FIG. 10), in step S406, it is determined whether or not the notification execution command is received from the main MPU 52. The notification execution command is used when it is specified in the fraud detection process of step S205 in the timer interrupt process (FIG. 8) of the main MPU 52 that a predetermined event set as a monitoring target for fraud has occurred. It is also output when it is specified in the input state monitoring process of step S212 that the game machine main body 12 or the front door frame 14 is in the open state. Since the notification execution command includes data corresponding to the content of the notification target, the sound and light side MPU 62 can specify the content of the notification target from the received notification execution command.

報知実行コマンドを受信している場合(ステップS406:YES)、報知開始用の設定処理を実行する(ステップS407)。報知開始用の設定処理では、現状設定されている制御パターンテーブルにおける現状のポインタ情報以降の追加データに、今回の報知実行コマンドに対応した報知を実行するためのデータを設定する。例えば、不正を検知したことに対応した報知実行コマンドを受信している場合には、不正報知を表示発光部44及びスピーカ部45にて行うためのデータを追加データとして設定する。また、遊技機本体12の開放といったパチンコ機10の状態変化に対応した報知実行コマンドを受信している場合には、状態報知を表示発光部44及びスピーカ部45にて行うためのデータを追加データとして設定する。これにより、表示発光部44及びスピーカ部45にて不正報知又は状態報知が実行される。なお、報知実行コマンドを受信した後であって報知解除コマンドを受信する前に、実行対象とする制御パターンテーブルが変更された場合にはその新たに変更された制御パターンテーブルの追加データに対して、直前の制御パターンテーブルの追加データに設定されていた内容と同様の内容の報知用データが設定される。これにより、報知の実行を継続することが可能となる。 When the notification execution command is received (step S406: YES), the setting process for starting notification is executed (step S407). In the setting process for starting the notification, the data for executing the notification corresponding to the current notification execution command is set in the additional data after the current pointer information in the currently set control pattern table. For example, when a notification execution command corresponding to the detection of fraud is received, data for performing fraud notification by the display light emitting unit 44 and the speaker unit 45 is set as additional data. Further, when a notification execution command corresponding to a state change of the pachinko machine 10 such as opening of the game machine main body 12 is received, additional data is added for performing the state notification on the display light emitting unit 44 and the speaker unit 45. Set as. As a result, the display light emitting unit 44 and the speaker unit 45 execute illegal notification or status notification. If the control pattern table to be executed is changed after the notification execution command is received and before the notification cancellation command is received, the additional data of the newly changed control pattern table is charged. , Notification data with the same content as the content set in the additional data of the previous control pattern table is set. This makes it possible to continue the execution of the notification.

その後、ステップS408にて、今回受信した報知実行コマンドの内容に対応した報知実行コマンドを表示CPU72に送信する。これにより、報知実行コマンドに対応した報知画像が図柄表示装置41にて表示されるように、表示CPU72にて表示制御が実行される。 After that, in step S408, the notification execution command corresponding to the content of the notification execution command received this time is transmitted to the display CPU 72. As a result, the display CPU 72 executes the display control so that the notification image corresponding to the notification execution command is displayed on the symbol display device 41.

ステップS409では、主側MPU52から報知解除コマンドを受信しているか否かを判定する。報知解除コマンドは、主側MPU52のタイマ割込み処理(図8)におけるステップS205の不正検知処理にて、所定の事象が発生している状態が解除されたことが特定された場合に出力されるとともに、ステップS212の入力状態監視処理にて、遊技機本体12又は前扉枠14が開放されている状態から閉鎖されたことが特定された場合にも出力される。 In step S409, it is determined whether or not a notification release command has been received from the main MPU 52. The notification release command is output when it is specified in the fraud detection process in step S205 in the timer interrupt process (FIG. 8) of the main MPU 52 that the state in which a predetermined event has occurred has been released. , It is also output when it is specified in the input state monitoring process of step S212 that the game machine main body 12 or the front door frame 14 is closed from the open state.

報知解除コマンドを受信している場合(ステップS409:YES)、報知解除用の設定処理を実行する(ステップS410)。報知解除用の設定処理では、現状設定されている制御パターンテーブルにおける現状のポインタ情報以降の追加データを「0」クリアする。これにより、表示発光部44及びスピーカ部45にて実行されている不正報知又は状態報知が解除される。その後、ステップS411にて、報知解除コマンドを表示CPU72に送信する。これにより、図柄表示装置41における報知画像の表示が終了される。 When the notification release command is received (step S409: YES), the notification release setting process is executed (step S410). In the setting process for canceling the notification, the additional data after the current pointer information in the currently set control pattern table is cleared to "0". As a result, the fraudulent notification or the status notification executed by the display light emitting unit 44 and the speaker unit 45 is canceled. After that, in step S411, the notification release command is transmitted to the display CPU 72. As a result, the display of the broadcast image on the symbol display device 41 is completed.

主側コマンド対応処理では、上記各処理以外にも、ステップS412にてその他の対応処理を実行する。その他の対応処理では、例えば、主側MPU52から最終停止コマンドを受信している場合には遊技回用の演出を終了させるための処理を実行する。また、主側MPU52からオープニングコマンドを受信している場合に開閉実行モード用の演出を実行するための制御パターンテーブルを読み出し、主側MPU52からエンディングコマンドを受信している場合には開閉実行モード用の演出を終了させるための処理を実行する。また、遊技回用の演出及び開閉実行モード用の演出のいずれもが実行されていない状況においては、待機中演出を実行するための制御パターンテーブルを読み出す。 In the main command corresponding process, in addition to each of the above processes, other corresponding processes are executed in step S412. In other corresponding processes, for example, when the final stop command is received from the main MPU 52, a process for ending the effect for the game round is executed. Further, when the opening command is received from the main MPU 52, the control pattern table for executing the effect for the open / close execution mode is read, and when the ending command is received from the main MPU 52, the open / close execution mode is used. Execute the process for ending the production of. Further, in a situation where neither the effect for the game round nor the effect for the open / close execution mode is executed, the control pattern table for executing the standby effect is read out.

<コマンド選択処理>
次に、タイマ割込み処理(図9)のステップS302にて実行されるコマンド選択処理について説明する。コマンド選択処理の説明に先立ち、音光側MPU62から表示CPU72に送信されるコマンドの内容について説明する。図12は当該コマンドの内容を説明するための説明図である。
<Command selection process>
Next, the command selection process executed in step S302 of the timer interrupt process (FIG. 9) will be described. Prior to the description of the command selection process, the contents of the command transmitted from the sound light side MPU 62 to the display CPU 72 will be described. FIG. 12 is an explanatory diagram for explaining the content of the command.

音光側MPU62から表示CPU72に送信されるコマンドは、複数バイトのデータ構成となっている。具体的には、図12(a)〜図12(c)に示すように、第1コマンドデータCD1と、第2コマンドデータCD2と、第3コマンドデータCD3とを有している。第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3は同一のバイト数となっており、具体的にはそれぞれ1バイトとなっている。但し、これに限定されることはなく各コマンドデータCD1〜CD3のそれぞれが複数バイトである構成としてもよい。 The command transmitted from the sound light side MPU 62 to the display CPU 72 has a multi-byte data structure. Specifically, as shown in FIGS. 12A to 12C, it has a first command data CD1, a second command data CD2, and a third command data CD3. The first command data CD1, the second command data CD2, and the third command data CD3 have the same number of bytes, and specifically, each has one byte. However, the present invention is not limited to this, and each of the command data CD1 to CD3 may have a plurality of bytes.

第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3のそれぞれは、上位2ビットが識別用ビットとしての機能を有し、残りの6ビットがデータ用ビットとしての機能を有する。識別用ビットには自身のコマンドデータが第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3のうちいずれであるのかを示すデータが設定される。具体的には、第1コマンドデータCD1の識別用ビットには図12(a)に示すように「01」が設定されており、第2コマンドデータCD2の識別用ビットには図12(b)に示すように「10」が設定されており、第3コマンドデータCD3の識別用ビットには図12(c)に示すように「11」が設定されている。 In each of the first command data CD1, the second command data CD2, and the third command data CD3, the upper two bits have a function as identification bits, and the remaining six bits have a function as data bits. The identification bit is set with data indicating which of the first command data CD1, the second command data CD2, and the third command data CD3 is its own command data. Specifically, "01" is set in the identification bit of the first command data CD1 as shown in FIG. 12 (a), and the identification bit of the second command data CD2 is set in FIG. 12 (b). As shown in FIG. 12C, “10” is set, and “11” is set as the identification bit of the third command data CD3 as shown in FIG. 12 (c).

データ用ビットには、音光側MPU62から表示CPU72への指示内容に対応したデータが設定される。第1コマンドデータCD1のデータ用ビットには、指示内容のうち大枠の内容として第1種別の種類を表示CPU72に特定させるためのデータが設定される。具体的には、演出の実行を指示するコマンドであれば、遊技回用の演出、開閉実行モード用の演出及び待機中演出において実行される演出の種類のデータが設定されるとともに、報知の実行を指示するコマンドであれば、不正報知及び状態報知のうちいずれが実行対象であるかを示すデータが設定される。 Data corresponding to the content of instructions from the sound / light side MPU 62 to the display CPU 72 is set in the data bit. In the data bit of the first command data CD1, data for causing the display CPU 72 to specify the type of the first type as a general outline of the instruction contents is set. Specifically, if it is a command instructing the execution of the effect, data on the type of effect to be executed in the effect for game rounds, the effect for open / close execution mode, and the standby effect is set, and the notification is executed. If it is a command instructing, data indicating which of the fraudulent notification and the status notification is the execution target is set.

第2コマンドデータCD2のデータ用ビットには、第1コマンドデータCD1により指定された第1種別の種類に含まれる第2種別の種類を表示CPU72に特定させるためのデータが設定される。また、第3コマンドデータCD3のデータ用ビットには、第2コマンドデータCD2により指定された第2種別の種類に含まれる第3種別の種類を表示CPU72に特定させるためのデータが設定される。 In the data bit of the second command data CD2, data for causing the display CPU 72 to specify the type of the second type included in the type of the first type specified by the first command data CD1 is set. Further, in the data bit of the third command data CD3, data for causing the display CPU 72 to specify the type of the third type included in the type of the second type specified by the second command data CD2 is set.

図13の説明図を参照しながら、演出の実行を指示するコマンドを例に挙げて、各コマンドデータCD1〜CD3によりどのような内容が指示されるのかについて説明する。 With reference to the explanatory diagram of FIG. 13, what kind of content is instructed by the command data CD1 to CD3 will be described by taking as an example a command instructing the execution of the effect.

既に説明したとおり、本パチンコ機10では、遊技回用の演出として予告表示が発生し得る。予告表示は、図柄表示装置41にて全ての図柄列Z1〜Z3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において行われる演出であり、リーチ表示が行われる場合の方が行われない場合よりも予告表示が発生し易く、さらに大当たり結果に対応した遊技回の方が外れ結果に対応した遊技回に比べ予告表示が発生し易い。当該予告表示は複数種類設定されており、その一部として、ステップアップ予告及び会話予告が設定されている。 As described above, in the pachinko machine 10, a notice display may occur as an effect for playing a game. The notice display is in a situation where the symbols are variablely displayed in all the symbol rows Z1 to Z3 on the symbol display device 41, or the symbols are variablely displayed in a plurality of symbol rows in some symbol rows. It is a production that is performed in a situation where there is a situation, and the notice display is more likely to occur when the reach display is performed than when it is not performed, and the game times corresponding to the jackpot result are the game times corresponding to the off result. In comparison, notice display is more likely to occur. A plurality of types of notice displays are set, and as a part of them, a step-up notice and a conversation notice are set.

ステップアップ予告は段階的に実行される演出であり、実行対象となる段階数、演出の実行に際して表示される文字の表示色、及び表示対象となる予告キャラクタの種類の組合せによって、リーチ表示が行われる期待度及び大当たり結果が発生する期待度が示唆される。また、会話予告は第1予告キャラクタと第2予告キャラクタとの間で会話が行われているような表示が行われる演出であり、実行対象となる会話の内容、当該会話の文字の表示色、及び表示対象となる第1予告キャラクタ及び第2予告キャラクタの種類の組合せによって、リーチ表示が行われる期待度及び大当たり結果が発生する期待度が示唆される。 The step-up notice is an effect that is executed step by step, and the reach display is performed depending on the combination of the number of stages to be executed, the display color of the characters displayed when the effect is executed, and the type of the advance notice character to be displayed. The degree of expectation to be given and the degree of expectation to generate a jackpot result are suggested. In addition, the conversation notice is an effect in which a conversation is performed between the first notice character and the second notice character, and the content of the conversation to be executed, the display color of the characters of the conversation, and so on. And the combination of the types of the first notice character and the second notice character to be displayed suggests the degree of expectation that the reach display is performed and the degree of expectation that the jackpot result is generated.

第1コマンドデータCD1が16進数で表した場合において「41」である場合、ステップアップ予告に対応している。ステップアップ予告の場合、第2コマンドデータCD2によって、段階数、文字色及び予告キャラクタのいずれが指示対象であるのかが指示され、第3コマンドデータCD3によって、第2コマンドデータCD2により指示されている指示対象の具体的な内容が指示される。この場合、1種類のコマンドによって指示される内容は、ステップアップ予告に含まれる複数種類の第2種別の内容のうち1種類のみである。つまり、ステップアップ予告を実行する場合には、段階数、文字色及び予告キャラクタのそれぞれの種類を表示CPU72に指示する必要があるが、1種類のコマンドによっては1種類の第2種別の内容のみが指示される。したがって、ステップアップ予告の実行を指示する場合には、各コマンドデータCD1〜CD3を含むコマンドを、第2種別の内容の種類分、具体的には3種類送信する必要がある。音光側MPU62は、ステップアップ予告の実行を指示すべく3種類のコマンドの送信を完了した場合、1バイトの終了コマンドを表示CPU72に送信する。終了コマンドは、他のコマンドにおいて使用されないデータ構成となっている。具体的には16進数で「FF」となっている。表示CPU72は、終了コマンドを受信した場合、今回の指示対象となっているコマンド群の送信が完了したことを特定する。これにより、ステップ予告の実行を指示するために第1〜第3コマンドデータCD1〜CD3からなるコマンドが複数種類送信される構成であったとしても、それらコマンドの全ての受信が完了したことを表示CPU72において明確に把握することが可能となる。 When the first command data CD1 is expressed as a hexadecimal number and is "41", it corresponds to the step-up notice. In the case of step-up notice, the second command data CD2 indicates which of the number of steps, the character color, and the notice character is the instruction target, and the third command data CD3 indicates by the second command data CD2. The specific content of the instruction target is instructed. In this case, the content indicated by one type of command is only one of the plurality of types of second type content included in the step-up notice. That is, when executing the step-up notice, it is necessary to instruct the display CPU 72 of each type of the number of steps, the character color, and the notice character, but depending on one type of command, only one type of second type content is required. Is instructed. Therefore, when instructing the execution of the step-up notice, it is necessary to transmit three types of commands including each command data CD1 to CD3 for the type of the content of the second type. When the sound and light side MPU 62 completes the transmission of three types of commands to indicate the execution of the step-up notice, the sound and light side MPU 62 transmits a 1-byte end command to the display CPU 72. The end command has a data structure that is not used in other commands. Specifically, it is "FF" in hexadecimal. When the display CPU 72 receives the end command, it specifies that the transmission of the command group to be instructed this time is completed. As a result, even if a plurality of types of commands consisting of the first to third command data CD1 to CD3 are transmitted in order to instruct the execution of the step notice, it is displayed that all the reception of those commands has been completed. It becomes possible to clearly grasp it in the CPU 72.

第1コマンドデータCD1が16進数で表した場合において「42」である場合、会話予告に対応している。会話予告の場合、第2コマンドデータCD2によって、会話の内容、文字色、第1予告キャラクタ及び第2予告キャラクタのいずれが指示対象であるのかが指示され、第3コマンドデータCD3によって、第2コマンドデータCD2により指示されている指示対象の具体的な内容が指示される。この場合、会話予告の場合もステップアップ予告の場合と同様に、1種類のコマンドによって指示される内容は、会話予告に含まれる複数種類の第2種別の内容のうち1種類のみである。つまり、会話予告を実行する場合には、会話の内容、文字色、第1予告キャラクタ及び第2予告キャラクタのそれぞれの種類を表示CPU72に指示する必要があるが、1種類のコマンドによっては1種類の第2種別の内容のみが指示される。したがって、会話予告の実行を指示する場合には、各コマンドデータCD1〜CD3を含むコマンドを、第2種別の内容の種類分、具体的には4種類送信する必要がある。音光側MPU62は、会話予告の実行を指示すべく4種類のコマンドの送信を完了した場合、ステップアップ予告の場合と同様に、1バイトの終了コマンドを表示CPU72に送信する。これにより、会話予告の実行を指示するために第1〜第3コマンドデータCD1〜CD3からなるコマンドが複数種類送信される構成であったとしても、それらコマンドの全ての受信が完了したことを表示CPU72において明確に把握することが可能となる。また、ステップアップ予告と会話予告とで音光側MPU62から送信されるコマンドの総数が相違しているとしても各演出に対応したコマンドの全ての送信が完了した場合に終了コマンドが送信されることで、各演出に対応したコマンドの全ての受信が完了したことを表示CPU72において明確に把握することが可能となる。 When the first command data CD1 is expressed as a hexadecimal number and is "42", it corresponds to the conversation notice. In the case of a conversation notice, the second command data CD2 indicates the content of the conversation, the character color, which of the first notice character and the second notice character is the referent, and the third command data CD3 indicates the second command. The specific content of the referent specified by the data CD2 is instructed. In this case, in the case of the conversation notice as well as in the case of the step-up notice, the content instructed by one type of command is only one of the plurality of types of the second type contents included in the conversation notice. That is, when executing the conversation notice, it is necessary to instruct the display CPU 72 of each type of the conversation content, the character color, the first notice character and the second notice character, but one type may be used depending on one type of command. Only the contents of the second type of are instructed. Therefore, when instructing the execution of the conversation notice, it is necessary to transmit four types of commands including the command data CD1 to CD3 for each type of the content of the second type. When the sound and light side MPU 62 completes the transmission of four types of commands to indicate the execution of the conversation notice, the sound and light side MPU 62 transmits a 1-byte end command to the display CPU 72 as in the case of the step-up notice. As a result, even if a plurality of types of commands consisting of the first to third command data CD1 to CD3 are transmitted in order to instruct the execution of the conversation notice, it is displayed that all the reception of those commands has been completed. It becomes possible to clearly grasp it in the CPU 72. Further, even if the total number of commands transmitted from the sound and light side MPU 62 is different between the step-up notice and the conversation notice, the end command is transmitted when all the commands corresponding to each effect are transmitted. Therefore, it is possible for the display CPU 72 to clearly grasp that the reception of all the commands corresponding to each effect has been completed.

なお、他の演出の実行指示に際しても複数種類の第2種別の内容を指示すべく、所定の演出の実行を指示するコマンドの送信に際しては複数種類のコマンドが送信されるとともに、それらコマンドの送信が完了した場合には終了コマンドが送信される。また、第2種別の内容が1種類のみの演出も存在しているが、かかる演出の実行を指示する場合には各コマンドデータCD1〜CD3を含む1種類のコマンドを送信するとともにその送信が完了した場合に終了コマンドを送信する。また、音光側MPU62は演出の実行指示用のコマンドだけでなく報知の実行指示用のコマンドを送信する場合にも最終的に終了コマンドを送信する。これにより、表示CPU72は終了コマンドを受信したか否かで、所定の指示を行うための音光側MPU62からのコマンドの受信が完了したか否かを把握することが可能となる。 In addition, in order to indicate the contents of the second type of a plurality of types when instructing the execution of other effects, a plurality of types of commands are transmitted when a command instructing the execution of a predetermined effect is transmitted, and the commands are transmitted. When is completed, a termination command is sent. In addition, there is an effect in which the content of the second type is only one type, but when instructing the execution of such an effect, one type of command including each command data CD1 to CD3 is transmitted and the transmission is completed. If so, send a termination command. Further, the sound and light side MPU 62 finally transmits an end command when transmitting not only a command for an effect execution instruction but also a command for a notification execution instruction. As a result, the display CPU 72 can grasp whether or not the reception of the command from the sound / light side MPU 62 for giving a predetermined instruction is completed depending on whether or not the end command has been received.

所定期間において実行される予告表示の実行内容を音光側MPU62が表示CPU72に指示する場合、当該予告表示に含まれる第2段階の内容に対応させて、第1〜第3コマンドデータCD1〜CD3からなるコマンドが複数種類送信される。これにより、第2段階の種類数を増減させる場合や、第2段階の内容を変更する場合であっても、対応する第2段階の単位でコマンドの変更を行えばよいため、コマンドの設定の容易化が図られる。 When the sound / light side MPU 62 instructs the display CPU 72 to execute the notice display to be executed in the predetermined period, the first to third command data CD1 to CD3 correspond to the contents of the second stage included in the notice display. Multiple types of commands consisting of are sent. As a result, even when increasing or decreasing the number of types in the second stage or changing the contents of the second stage, the command can be changed in the corresponding unit of the second stage. Simplification is achieved.

また、このように第2種別の内容に1対1で対応させて複数種類のコマンドを送信する構成とすることにより、一のコマンドがノイズの影響などで伝送途中にデータが書き換えられたとしても、その影響を1種類の第2種別の内容に留めることが可能となる。 In addition, by configuring the configuration to transmit a plurality of types of commands in a one-to-one correspondence with the contents of the second type in this way, even if one command is rewritten during transmission due to the influence of noise or the like. , It is possible to limit the influence to the content of one type and the second type.

複数のコマンドデータCD1〜CD3によって段階的に指示内容を決定付ける構成とすることで、音光側MPU62から表示CPU72に指示する内容が多様化する場合であっても、パチンコ機10の設計段階におけるコマンドの設計の容易化が図られる。 By configuring the instruction content to be determined step by step by a plurality of command data CD1 to CD3, even when the content instructed from the sound / light side MPU 62 to the display CPU 72 is diversified, in the design stage of the pachinko machine 10. The command design is facilitated.

また、ステップアップ予告の実行を指示するためのコマンドにおいて第2コマンドデータCD2として利用されるデータは、会話予告の実行を指示するためのコマンドにおける第2コマンドデータCD2としてそのまま利用され、同様に、ステップアップ予告の実行を指示するためのコマンドにおいて第3コマンドデータCD3として利用されるデータは、会話予告の実行を指示するためのコマンドにおける第3コマンドデータCD3としてそのまま利用される。これら各コマンドデータCD1〜CD3として利用されるデータはROM63に予め記憶されているが、上記のように第2コマンドデータCD2として利用されるデータ、及び第3コマンドデータCD3として利用されるデータが、複数種類のコマンドにおいて共通して利用される構成であることにより、ROM63においてコマンド用のデータを記憶するのに必要なデータ容量を抑えることが可能となる。 Further, the data used as the second command data CD2 in the command for instructing the execution of the step-up notice is used as it is as the second command data CD2 in the command for instructing the execution of the conversation notice. The data used as the third command data CD3 in the command for instructing the execution of the step-up notice is used as it is as the third command data CD3 in the command for instructing the execution of the conversation notice. The data used as the respective command data CD1 to CD3 are stored in the ROM 63 in advance, but the data used as the second command data CD2 and the data used as the third command data CD3 as described above are Since the configuration is commonly used for a plurality of types of commands, it is possible to suppress the data capacity required for storing the command data in the ROM 63.

以下、上記コマンドを送信するために音光側MPU62にて実行されるコマンド選択処理について、図14のフローチャートを参照しながら説明する。 Hereinafter, the command selection process executed by the sound light side MPU 62 in order to transmit the above command will be described with reference to the flowchart of FIG.

制御パターンテーブルにおける現状のポインタ情報に対応したエリアに、表示CPU72へのコマンドの送信タイミングを示すデータが設定されている場合(ステップS501:YES)、当該制御パターンテーブルから今回の送信タイミングにおけるコマンドの種類数を読み出し、その種類数に対応する値をRAM64に設けられたコマンド種類数カウンタにセットする(ステップS502)。その後、制御パターンテーブルにおける現状のポインタ情報に対応したエリアにて指示されているROM63のコマンド用エリアのアドレスデータであって、現状のコマンド種類数カウンタの値に対応したアドレスデータを特定する。そして、その特定したアドレスデータに従って、第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3をROM63から読み出し(ステップS503〜ステップS505)、それら読み出した各コマンドデータCD1〜CD3をコマンド送信対象用エリアとしてRAM64に設けられたリングバッファにセットする(ステップS506)。音光側MPU62はタイマ割込み処理(図9)とは別に定期的(例えば1msec)に起動される送信割込み処理にて、リングバッファにセットされているコマンドを順次読み出して表示CPU72に送信する。この場合、リングバッファにセットされたタイミングが早いコマンドから順に送信する。 When data indicating the command transmission timing to the display CPU 72 is set in the area corresponding to the current pointer information in the control pattern table (step S501: YES), the command in the current transmission timing from the control pattern table The number of types is read, and the value corresponding to the number of types is set in the command type number counter provided in the RAM 64 (step S502). After that, the address data of the command area of the ROM 63 designated in the area corresponding to the current pointer information in the control pattern table, and the address data corresponding to the value of the current command type number counter is specified. Then, according to the specified address data, the first command data CD1, the second command data CD2, and the third command data CD3 are read from the ROM 63 (steps S503 to S505), and the read command data CD1 to CD3 are transmitted as commands. It is set in the ring buffer provided in the RAM 64 as the target area (step S506). The sound and light side MPU 62 sequentially reads commands set in the ring buffer and transmits them to the display CPU 72 in a transmission interrupt process that is started periodically (for example, 1 msec) separately from the timer interrupt process (FIG. 9). In this case, the command set in the ring buffer with the earliest timing is sent first.

その後、コマンド種類数カウンタの値を1減算し(ステップS507)、その1減算後におけるコマンド種類数カウンタの値が「0」となっているか否かを判定する(ステップS508)。「0」となっていない場合には、更新後のコマンド種類数カウンタの値に対応したコマンドについてステップS503〜ステップS506の処理を実行する。「0」となっている場合にはステップS509にて、ROM63から終了コマンドを読み出して上記リングバッファにセットする。 After that, the value of the command type number counter is subtracted by 1 (step S507), and it is determined whether or not the value of the command type number counter after the 1 subtraction is "0" (step S508). If it is not "0", the processes of steps S503 to S506 are executed for the command corresponding to the value of the updated command type number counter. If it is "0", the end command is read from the ROM 63 and set in the ring buffer in step S509.

<表示CPU72の処理構成>
次に、表示CPU72にて実行される処理について説明する。図15は表示CPU72にて予め定められた周期、具体的には20msec周期で繰り返し起動されるV割込み処理を示すフローチャートである。
<Processing configuration of display CPU 72>
Next, the process executed by the display CPU 72 will be described. FIG. 15 is a flowchart showing V interrupt processing that is repeatedly activated by the display CPU 72 in a predetermined cycle, specifically, in a cycle of 20 msec.

なお、VDP76は図柄表示装置41に1フレーム分の画像信号を出力する場合、表示面Pの左上の隅角部分にあるドットから画像信号の出力を始めて、当該ドットを一端に含む横ライン上に並ぶドットに対して順次画像信号を出力するとともに、各横ラインに対して上から順に左から右のドットへと画像信号を出力する。そして、表示面Pの右下の隅角部分にあるドットに対して最後に画像信号を出力する。この場合に、VDP76は当該最後のドットに対して画像信号を出力したタイミングで、表示CPU72へV割込み信号を出力して1フレームの画像の更新が完了したことを表示CPU72に認識させる。このV割込み信号の出力周期は20msecとなっている。この点、V割込み処理は、V割込み信号の受信に同期して起動されると見なすこともできる。但し、V割込み信号を受信していなくても、前回のV割込み処理が起動されてから20msecが経過している場合には、新たにV割込み処理が起動される。 When the VDP76 outputs an image signal for one frame to the symbol display device 41, the VDP76 starts outputting the image signal from a dot in the upper left corner of the display surface P, and is on a horizontal line including the dot at one end. The image signal is sequentially output to the dots arranged in a row, and the image signal is output to the dots from the left to the right in order from the top for each horizontal line. Then, the image signal is finally output to the dots in the lower right corner of the display surface P. In this case, the VDP 76 outputs a V interrupt signal to the display CPU 72 at the timing when the image signal is output for the last dot, and causes the display CPU 72 to recognize that the update of the image of one frame is completed. The output cycle of this V interrupt signal is 20 msec. In this respect, the V interrupt process can be regarded as being activated in synchronization with the reception of the V interrupt signal. However, even if the V interrupt signal is not received, if 20 msec has elapsed since the previous V interrupt process was started, the V interrupt process is newly started.

V割込み処理では、まずステップS601にてコマンド解析処理を実行する。コマンド解析処理では、図16(a)のフローチャートに示すように、ステップS701にて、音光側MPU62から新たなコマンドを受信しているか否かを判定する。表示CPU72は音光側MPU62からストローブ信号を受信した場合、その時点で実行されている処理が何であったとしても最優先でコマンド割込み処理を起動し、入力ポート77にて受信しているコマンドを、ワークRAM73に設けられたコマンド格納バッファ101に格納する。 In the V interrupt process, first, the command analysis process is executed in step S601. In the command analysis process, as shown in the flowchart of FIG. 16A, it is determined in step S701 whether or not a new command is received from the sound / light side MPU 62. When the display CPU 72 receives the strobe signal from the sound / light side MPU 62, the display CPU 72 activates the command interrupt processing with the highest priority regardless of the processing being executed at that time, and outputs the command received at the input port 77. , It is stored in the command storage buffer 101 provided in the work RAM 73.

コマンド格納バッファ101について詳細には、図16(b)に示すように、第1未処理エリア102と、第2未処理エリア103と、第3未処理エリア104とを備えている。各未処理エリア102〜104はそれぞれ、コマンド格納エリア102a〜102e,103a〜103e,104a〜104eを5個備えている。各コマンド格納エリア102a〜102e,103a〜103e,104a〜104eはそれぞれ、第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる1種類のコマンドを格納することが可能となるように3バイトのデータ構成となっている。また、各未処理エリア102〜104に設けられているコマンド格納エリア102a〜102e,103a〜103e,104a〜104eの数は、音光側MPU62から演出の実行指示又は報知の実行指示が1回行われる場合に送信されるコマンドの最大種類数以上となっている。これにより、各未処理エリア102〜104のそれぞれにおいて1回の演出の実行指示に際して送信されるコマンド群及び1回の報知の実行指示に際して送信されるコマンド群を格納することが可能となる。また、未処理エリア102〜104の数は、表示CPU72にて未処理の状態で待機し得るコマンド群の最大数以上となっている。これにより、未処理のコマンド群が待機し得る構成において、コマンド群に対応した処理の実行漏れを防止することが可能となる。 The command storage buffer 101 includes a first unprocessed area 102, a second unprocessed area 103, and a third unprocessed area 104, as shown in FIG. 16B. Each of the unprocessed areas 102 to 104 includes five command storage areas 102a to 102e, 103a to 103e, and 104a to 104e, respectively. Each command storage area 102a-102e, 103a-103e, 104a-104e can store one type of command including the first command data CD1, the second command data CD2, and the third command data CD3, respectively. It has a 3-byte data structure. Further, as for the number of command storage areas 102a to 102e, 103a to 103e, 104a to 104e provided in each of the unprocessed areas 102 to 104, an effect execution instruction or a notification execution instruction is issued once from the sound light side MPU 62. It is more than the maximum number of types of commands to be sent when it is issued. As a result, it is possible to store the command group transmitted when the execution instruction of one effect and the command group transmitted when the execution instruction of one notification is performed in each of the unprocessed areas 102 to 104. Further, the number of unprocessed areas 102 to 104 is equal to or greater than the maximum number of command groups that can stand by in the unprocessed state on the display CPU 72. As a result, in a configuration in which an unprocessed command group can stand by, it is possible to prevent omission of execution of processing corresponding to the command group.

コマンド割込み処理では、終了コマンドを前回受信してからコマンドを新たに受信した場合、第1未処理エリア102に未処理のコマンド群が格納されていない場合には第1未処理エリア102にそのコマンドを格納し、第1未処理エリア102に未処理のコマンド群が格納されている場合には第2未処理エリア103にそのコマンドを格納し、第2未処理エリア103に未処理のコマンド群が格納されている場合には第3未処理エリア104にそのコマンドを格納する。そして、終了コマンドを受信するまではコマンドを受信する度に、格納対象とした未処理エリアのコマンド格納エリアに対するコマンド格納処理を順次実行する。終了コマンドを受信した場合には、コマンド格納対象の未処理エリアを次の順番のエリアに設定する。なお、コマンド割込み処理ではコマンドを格納する処理を実行した場合、未処理エリア102〜104においていずれのコマンド格納エリア102a〜102e,103a〜103e,104a〜104eにコマンドが格納されているのかを特定可能とするためのデータ設定を行う。 In command interrupt processing, when a new command is received after the last command was received, the command is stored in the first unprocessed area 102 if the unprocessed command group is not stored in the first unprocessed area 102. When the unprocessed command group is stored in the first unprocessed area 102, the command is stored in the second unprocessed area 103, and the unprocessed command group is stored in the second unprocessed area 103. If it is stored, the command is stored in the third unprocessed area 104. Then, until the end command is received, each time the command is received, the command storage process for the command storage area of the unprocessed area to be stored is sequentially executed. When the end command is received, the unprocessed area for command storage is set in the following order. In the command interrupt process, when a process for storing a command is executed, it is possible to specify which command storage area 102a to 102e, 103a to 103e, 104a to 104e is stored in the unprocessed area 102 to 104e. Set the data for.

コマンド解析処理(図16(a))の説明に戻り、ステップS701では未処理エリア102〜104へのコマンドの格納が新たに開始されたか否かを判定する。ステップS701にて肯定判定をした場合には、コマンド群の受信中であるか否かを表示CPU72にて特定するためにワークRAM73に設けられた受信中フラグに「1」をセットする。ステップS702の処理を実行した場合、又は受信中フラグに「1」がセットされている場合(ステップS703:YES)、ステップS704にて終了コマンドを受信したか否かを判定する。終了コマンドを受信している場合(ステップS704:YES)、ワークRAM73に設けられた未処理カウンタの値を1加算するとともに(ステップS705)、受信中フラグを「0」クリアする(ステップS706)。 Returning to the description of the command analysis process (FIG. 16 (a)), in step S701, it is determined whether or not the storage of the command in the unprocessed areas 102 to 104 is newly started. When an affirmative determination is made in step S701, "1" is set in the receiving flag provided in the work RAM 73 in order for the display CPU 72 to specify whether or not the command group is being received. When the process of step S702 is executed, or when "1" is set in the receiving flag (step S703: YES), it is determined whether or not the end command has been received in step S704. When the end command is received (step S704: YES), the value of the unprocessed counter provided in the work RAM 73 is added by 1 (step S705), and the receiving flag is cleared to "0" (step S706).

V割込み処理(図15)の説明に戻り、ステップS601にてコマンド解析処理を実行した後は、ワークRAM73の未処理カウンタの値が1以上であることを条件として(ステップS602:YES)、ステップS603にてコマンド対応処理を実行し、ステップS604にて未処理カウンタの値を1減算する。コマンド対応処理について図17のフローチャートを参照しながら詳細に説明する。 Returning to the description of the V interrupt process (FIG. 15), after executing the command analysis process in step S601, the step S602: YES, provided that the value of the unprocessed counter of the work RAM 73 is 1 or more (step S602: YES). The command correspondence process is executed in S603, and the value of the unprocessed counter is subtracted by 1 in step S604. The command correspondence process will be described in detail with reference to the flowchart of FIG.

まず今回の処理対象のコマンドの読み出し処理を実行する(ステップS801)。具体的には、ワークRAM73のコマンド格納バッファ101における第1未処理エリア102に格納されているコマンドをワークRAM73の処理対象コマンド用のエリアに書き込む。なお、当該書き込みを実行した場合には、コマンド格納バッファ101において第2未処理エリア103の各データを第1未処理エリア102に上書きした後に、第3未処理エリア104の各データを第2未処理エリア103に上書きする。 First, the read processing of the command to be processed this time is executed (step S801). Specifically, the command stored in the first unprocessed area 102 in the command storage buffer 101 of the work RAM 73 is written in the area for the command to be processed of the work RAM 73. When the writing is executed, after overwriting each data of the second unprocessed area 103 with the first unprocessed area 102 in the command storage buffer 101, each data of the third unprocessed area 104 is second unprocessed. Overwrite the processing area 103.

その後、今回の処理対象のコマンドの種類数に対応した値をワークRAM73に設けられた処理対象カウンタにセットする(ステップS802)。その後、今回の処理対象のコマンドにおける第1コマンドデータCD1に対応した参照テーブルをメモリモジュール74から読み出す(ステップS803)。参照テーブルは、第1コマンドデータCD1のデータ内容に1対1で対応させて設けられており、処理対象のコマンドに対応した画像表示を図柄表示装置41にて実行するための表示パターンテーブルを特定するためのデータが設定されている。 After that, a value corresponding to the number of types of commands to be processed this time is set in the processing target counter provided in the work RAM 73 (step S802). After that, the reference table corresponding to the first command data CD1 in the command to be processed this time is read from the memory module 74 (step S803). The reference table is provided so as to have a one-to-one correspondence with the data contents of the first command data CD1, and specifies a display pattern table for executing the image display corresponding to the command to be processed on the symbol display device 41. The data to be used is set.

ステップアップ予告に対応したデータが第1コマンドデータCD1に設定されている場合の参照テーブルRTについて、図18の説明図を参照しながら説明する。 The reference table RT when the data corresponding to the step-up notice is set in the first command data CD1 will be described with reference to the explanatory diagram of FIG.

参照テーブルRTには、ステップアップ予告において全ての第2種別の種類について生じ得る全ての第3種別の種類の組合せに1対1で対応させて実行対象テーブルのアドレスが設定されている。例えば、第2種別の種類が「段階数」である場合における第3種別の種類が「2」であり、第2種別の種類が「文字色」である場合における第3種別の種類が「赤色」であり、第2種別の種類が「予告キャラクタ」である場合における第3種別の種類が「第24キャラクタ」である場合、参照テーブルRTにおいて第2段階赤24テーブルのアドレスが実行対象テーブルのアドレスとして設定されている。 In the reference table RT, the address of the execution target table is set in a one-to-one correspondence with all combinations of the third type types that can occur for all the second type types in the step-up notice. For example, when the type of the second type is "number of stages", the type of the third type is "2", and when the type of the second type is "character color", the type of the third type is "red". When the type of the third type is "24th character" when the type of the second type is "notice character", the address of the second stage red 24 table in the reference table RT is the execution target table. It is set as an address.

実行対象テーブルは、音光側MPU62からの1回のコマンド群の送信に対応した動画を図柄表示装置41の表示面Pに表示させる場合において、画像の各更新タイミングにおける1フレーム分の画像を表示させるのに必要な処理が定められた情報群である。実行対象テーブルには、当該実行対象テーブルによる動画の表示期間に含まれる更新タイミングの数分のポインタ情報が設定されているとともに、各ポインタ情報のそれぞれに対応させて当該ポインタ情報に対応した更新タイミングにおける画像の表示を可能とするためのデータが設定されている。 The execution target table displays an image for one frame at each update timing of the image when the moving image corresponding to the transmission of one command group from the sound light side MPU 62 is displayed on the display surface P of the symbol display device 41. It is a group of information that defines the processing required to make it work. In the execution target table, pointer information corresponding to the number of update timings included in the display period of the moving image by the execution target table is set, and the update timing corresponding to the pointer information is corresponding to each pointer information. Data is set to enable the display of the image in.

コマンド対応処理(図17)の説明に戻り、ステップS803にて参照テーブルを読み出した後は、ステップS801にてワークRAM73の処理対象コマンドのエリアに書き込んだコマンドのうち、現状の処理対象カウンタの値に対応したコマンドを読み出し、そのコマンドにおける第2コマンドデータCD2及び第3コマンドデータCD3の組合せに対応したデータを表示CPU72のレジスタに書き込む(ステップS804)。処理対象カウンタの値は、第1未処理エリア102のコマンド格納エリア102a〜102eと1対1で対応しており、ステップS804では、現状の処理対象カウンタの値に対応したコマンド格納エリアから処理対象コマンド用のエリアに書き込まれたコマンドを上記データの読み出し対象とする。 Returning to the explanation of the command correspondence process (FIG. 17), after reading the reference table in step S803, among the commands written in the processing target command area of the work RAM 73 in step S801, the value of the current processing target counter. The command corresponding to is read, and the data corresponding to the combination of the second command data CD2 and the third command data CD3 in the command is written to the register of the display CPU 72 (step S804). The value of the processing target counter has a one-to-one correspondence with the command storage areas 102a to 102e of the first unprocessed area 102, and in step S804, the processing target is processed from the command storage area corresponding to the value of the current processing target counter. The command written in the command area is the target for reading the above data.

ステップS804の処理を実行した後はステップS805にて処理対象カウンタの値を1減算する。そして、ステップS806にて、その1減算後の処理対象カウンタの値が「0」となっているか否かを判定する。「0」となっていない場合には、更新後の処理対象カウンタの値に対応したコマンドについてステップS804の処理を実行する。「0」となっている場合には、ステップS807にて実行対象テーブルの読み出し処理を実行する。当該読み出し処理では、ステップS804にて表示CPU72のレジスタに読み出したデータに対応した実行対象テーブルのアドレスを、ステップS803にて読み出した参照テーブルから特定し、メモリモジュール74におけるその特定したアドレスのエリアに記憶されている実行対象テーブルをワークRAM73に読み出す。これにより、処理対象のコマンドに対応した実行対象テーブルの読み出しが完了し、当該処理対象のコマンドに対応した動画を図柄表示装置41にて表示させることが可能となる。 After executing the process of step S804, the value of the processing target counter is subtracted by 1 in step S805. Then, in step S806, it is determined whether or not the value of the processing target counter after the subtraction of 1 is "0". If it is not "0", the process of step S804 is executed for the command corresponding to the value of the updated processing target counter. If it is "0", the execution target table is read out in step S807. In the read process, the address of the execution target table corresponding to the data read in the register of the display CPU 72 in step S804 is specified from the reference table read in step S803, and the area of the specified address in the memory module 74 is set. The stored execution target table is read into the work RAM 73. As a result, the reading of the execution target table corresponding to the command to be processed is completed, and the moving image corresponding to the command to be processed can be displayed on the symbol display device 41.

ちなみに、遊技回用の演出、開閉実行モード用の演出及び待機演出といった演出を実行するための実行対象テーブルに基づく表示制御が実行されている状況で、不正報知又は状態報知を実行するための実行対象テーブルが読み出される場合、既に読み出されている演出用の実行対象テーブルをワークRAM73に記憶保持しながら報知用の実行対象テーブルをワークRAM73に読み出す。そして、後述するタスク処理(図19)ではそれら実行対象テーブルの両方に対応した画像の表示を可能とする演算処理を実行し、後述するポインタ更新処理(ステップS607)ではそれら実行対象テーブルの各ポインタ情報の更新を行う。 By the way, in the situation where the display control based on the execution target table for executing the effect such as the effect for the game round, the effect for the open / close execution mode, and the standby effect is executed, the execution for executing the fraudulent notification or the status notification is executed. When the target table is read, the execution target table for notification is read out to the work RAM 73 while the already read execution target table for effect is stored and held in the work RAM 73. Then, in the task process (FIG. 19) described later, an arithmetic process that enables the display of images corresponding to both of the execution target tables is executed, and in the pointer update process (step S607) described later, each pointer of the execution target table is executed. Update the information.

V割込み処理(図15)の説明に戻り、ステップS603のコマンド対応処理にて、不正報知用又は状態報知用の実行対象テーブルが新たにセットされた場合(ステップS605:YES)、又は不正報知用又は状態報知用の実行対象テーブルが新たにセットされていない場合(ステップS605:NO)であってもワークRAM73に設けられた演算完了フラグに「1」がセットされている場合(ステップS606:YES)、ステップS607にて、ポインタ更新処理を実行するとともに、演算完了フラグを「0」クリアする。ポインタ更新処理では、現状の実行対象テーブルのポインタ情報を次の更新タイミングに対応したポインタ情報に更新する。なお、コマンド対応処理(ステップS603)にて実行対象テーブルが新たにセットされた直後のステップS607では、最初の更新タイミングに対応したポインタ情報となるように当該ポインタ情報の更新処理を実行する。演算完了フラグは、一の更新タイミングに対応した画像を表示させるための各種演算処理が、V割込み処理の前回の処理実行回において完了しているか否かを表示CPU72にて特定するためのフラグである。 Returning to the explanation of the V interrupt process (FIG. 15), when the execution target table for fraud notification or status notification is newly set in the command correspondence process in step S603 (step S605: YES), or for fraud notification. Alternatively, even if the execution target table for status notification is not newly set (step S605: NO), "1" is set in the calculation completion flag provided in the work RAM 73 (step S606: YES). ), In step S607, the pointer update process is executed and the calculation completion flag is cleared to "0". In the pointer update process, the pointer information of the current execution target table is updated to the pointer information corresponding to the next update timing. In step S607 immediately after the execution target table is newly set in the command correspondence process (step S603), the pointer information update process is executed so that the pointer information corresponds to the first update timing. The calculation completion flag is a flag for specifying on the display CPU 72 whether or not various calculation processes for displaying an image corresponding to one update timing have been completed in the previous processing execution times of V interrupt processing. is there.

ステップS607の処理を実行した後は、ステップS608にてタスク処理を実行する。タスク処理では、今回の更新タイミングに対応した1フレーム分の画像を表示させるために、VDP76に描画指示を行う上で必要なパラメータの演算を行う。パラメータとして具体的には、メモリモジュール74において制御対象の画像データが記憶されているエリアのアドレス情報、VRAM75において制御対象の画像データを転送するエリアのアドレス情報、制御対象の画像データを用いて描画データを作成すべき対象のフレーム領域82a,82bの情報、作成対象のフレーム領域82a,82bにおいて制御対象の画像データを書き込む際の座標の情報、当該画像データを書き込む際のスケールの情報、及び当該画像データを書き込む際の一律α値(半透明値)の情報が含まれている。 After executing the process of step S607, the task process is executed in step S608. In the task processing, in order to display the image for one frame corresponding to the update timing this time, the parameters necessary for giving the drawing instruction to the VDP 76 are calculated. Specifically, as parameters, drawing is performed using the address information of the area where the image data of the control target is stored in the memory module 74, the address information of the area where the image data of the control target is transferred in the VRAM 75, and the image data of the control target. Information on the frame areas 82a and 82b to be created, coordinate information when writing the image data to be controlled in the frame areas 82a and 82b to be created, scale information when writing the image data, and the relevant Information on a uniform α value (semi-transparent value) when writing image data is included.

その後、ステップS609にて描画リスト出力処理を実行する。描画リスト出力処理では、今回の処理回に係る更新タイミングに対応した1フレーム分の画像を表示させるための描画リストを作成し、その作成した描画リストをVDP76に送信する。この場合、当該描画リストでは、直前のタスク処理にて把握された画像が描画対象となり、さらに当該タスク処理にて更新したパラメータ情報が合わせて設定される。VDP76では、この描画リストに従ってVRAM75のフレーム領域82a,82bに描画データを作成する。このVDP76における処理については後に詳細に説明する。 After that, the drawing list output process is executed in step S609. In the drawing list output processing, a drawing list for displaying an image for one frame corresponding to the update timing related to this processing time is created, and the created drawing list is transmitted to the VDP 76. In this case, in the drawing list, the image grasped in the immediately preceding task process is the drawing target, and the parameter information updated in the task process is also set. The VDP76 creates drawing data in the frame areas 82a and 82b of the VRAM 75 according to this drawing list. The processing in this VDP 76 will be described in detail later.

ステップS608のタスク処理について図19のフローチャートを参照しながら説明する。まずステップS901では、ワークRAM73に設けられた遅延中フラグに「1」がセットされているか否かを判定する。タスク処理では、詳細は後述するように背景用演算処理、演出用演算処理及び図柄用演算処理といった各種演算処理を実行する。この場合、図柄表示装置41に表示させる個別画像の数、個別画像の種類及び個別画像の表示態様によって各種演算処理の実行に要する期間が変動する。そして、期間が変動した結果、タスク処理において全ての演算処理の実行が完了するまでに、V割込み処理の次の処理回を開始すべきタイミングとなることが起こり得る。この場合に、V割込み処理の実行を待機すると、音光側MPU62からのコマンド送信に対して表示CPU72において迅速に対処することができなくなってしまう。そこで、タスク処理の実行途中にV割込み処理の次の処理回を開始すべきタイミングとなった場合には、タスク処理をそのまま続行するのではなく、V割込み処理の新たな処理回を開始する構成となっている。但し、V割込み処理の新たな処理回を開始する場合には、その時点におけるタスク処理の演算結果を記憶保持し、その新たな処理回のV割込み処理におけるタスク処理にてその演算途中から演算処理を再開することで、一の更新タイミング分の演算処理が実行されないままとなってしまわないようにしている。これにより、例えば所定の個別画像を表示させるためのパラメータの更新が前回の更新値からの差分により制御される構成においてパラメータの更新が1回飛んでしまいその後のパラメータの更新が正確に行えなくなってしまうといった不都合の発生を抑制することが可能となる。遅延中フラグは、上記のようにタスク処理における各種演算処理の実行が一旦中断されて遅延されている状況であるか否かを表示CPU72にて特定するためのフラグである。なお、個別画像とは、背景データといった静止画像データにより規定される一の静止画像や、図柄スプライトデータといったスプライトデータにより規定される一のスプライトのことである。 The task process of step S608 will be described with reference to the flowchart of FIG. First, in step S901, it is determined whether or not "1" is set in the delay flag provided in the work RAM 73. In the task processing, various arithmetic processes such as background arithmetic processing, effect arithmetic processing, and symbol arithmetic processing are executed as described in detail later. In this case, the period required for executing various arithmetic processes varies depending on the number of individual images to be displayed on the symbol display device 41, the type of individual images, and the display mode of the individual images. Then, as a result of the change in the period, it may be the timing to start the next processing round of the V interrupt processing before the execution of all the arithmetic processing in the task processing is completed. In this case, if the execution of the V interrupt process is waited for, the display CPU 72 cannot quickly deal with the command transmission from the sound light side MPU 62. Therefore, when it is time to start the next processing round of the V interrupt processing during the execution of the task processing, the task processing is not continued as it is, but a new processing round of the V interrupt processing is started. It has become. However, when starting a new processing time of V interrupt processing, the calculation result of the task processing at that time is stored in memory, and the calculation processing is performed from the middle of the calculation in the task processing in the V interrupt processing of the new processing time. By restarting, the calculation process for one update timing is not left unexecuted. As a result, for example, in a configuration in which the parameter update for displaying a predetermined individual image is controlled by the difference from the previous update value, the parameter update is skipped once and the subsequent parameter update cannot be performed accurately. It is possible to suppress the occurrence of inconveniences such as storage. The delay flag is a flag for the display CPU 72 to specify whether or not the execution of various arithmetic processes in the task process is temporarily interrupted and delayed as described above. The individual image is a still image defined by still image data such as background data, or a sprite defined by sprite data such as symbol sprite data.

遅延中フラグに「1」がセットされていない場合(ステップS901:NO)、制御開始用の設定処理を実行する(ステップS902)。制御開始用の設定処理では、まず現状設定されている実行対象テーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM73において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータ情報を設定する。 If "1" is not set in the delay flag (step S901: NO), the setting process for starting control is executed (step S902). In the control start setting process, first, based on the currently set execution target table, it is determined whether or not there is an individual image to be controlled start target in this process. If it exists, the work RAM 73 searches for a free buffer area for performing various operations in controlling the individual image, and corresponds to the individual image grasped as the control start target on a one-to-one basis. Allocate free buffer area so as to. Further, the initialization process is executed for all the reserved free buffer areas, and the parameter information for starting control according to the individual image is set for the initialized free buffer area.

続くステップS903では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。 In the following step S903, the control update target is grasped. The control update target is an individual image for which the control start processing has been completed and which may be included in the image for one frame after the current processing time.

その後、ステップS904にてV割込み処理の新たな起動を許可し、直後のステップS905にてV割込み処理の新たな起動を禁止した後に、背景用演算処理を実行する(ステップS906)。背景用演算処理では、背景の画像を構成することとなる最背面用の静止画像や背景用スプライトのうち今回の制御更新対象を把握する。また、その把握した制御更新対象について、仮想2次元平面における座標、回転角度、スケール、一律α値及びαデータ指定などといった描画リストを作成する上で必要な各種パラメータ情報を演算して導き出す。そして、その導き出した各種パラメータ情報を、ワークRAM73において各個別画像に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。 After that, the new activation of the V interrupt process is permitted in step S904, the new activation of the V interrupt process is prohibited in the immediately following step S905, and then the background arithmetic processing is executed (step S906). In the background calculation process, the control update target of the backmost still image and the background sprite that constitutes the background image is grasped. In addition, various parameter information necessary for creating a drawing list such as coordinates, rotation angle, scale, uniform α value, and α data designation in the virtual two-dimensional plane is calculated and derived for the grasped control update target. Then, the control information is updated by writing the derived various parameter information in the area secured corresponding to each individual image in the work RAM 73.

その後、ステップS907にてV割込み処理の新たな起動を許可し、直後のステップS908にてV割込み処理の新たな起動を禁止した後に、演出用演算処理を実行する(ステップS909)。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる演出の画像を構成する演出スプライトのうち今回の制御更新対象を把握する。また、その把握した制御更新対象について、上記各種パラメータ情報を導き出す。そして、その導き出した各種パラメータ情報を、ワークRAM73において各個別画像に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。 After that, the new activation of the V interrupt process is permitted in step S907, the new activation of the V interrupt process is prohibited in the immediately following step S908, and then the effect calculation process is executed (step S909). In the effect calculation process, the control update target of this time is grasped among the effect sprites constituting the image of the effect to be displayed in various effects such as reach display, notice display, and jackpot effect. In addition, the above-mentioned various parameter information is derived for the grasped control update target. Then, the control information is updated by writing the derived various parameter information in the area secured corresponding to each individual image in the work RAM 73.

その後、ステップS910にてV割込み処理の新たな起動を許可し、直後のステップS911にてV割込み処理の新たな起動を禁止した後に、図柄用演算処理を実行する(ステップS912)。図柄用演算処理では、各遊技回において変動表示の対象となる図柄のうち、今回の制御更新対象を把握する。また、その把握した制御更新対象について、上記各種パラメータ情報を導き出す。そして、その導き出した各種パラメータ情報を、ワークRAM73において各個別画像に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。 After that, the new activation of the V interrupt process is permitted in step S910, the new activation of the V interrupt process is prohibited in the immediately following step S911, and then the symbol arithmetic processing is executed (step S912). In the operation calculation process for symbols, among the symbols to be displayed in a variable manner in each game, the control update target of this time is grasped. In addition, the above-mentioned various parameter information is derived for the grasped control update target. Then, the control information is updated by writing the derived various parameter information in the area secured corresponding to each individual image in the work RAM 73.

ちなみに、ステップS906、ステップS909及びステップS912の各演算処理では、個別画像の各種パラメータ情報を画像更新タイミングとなる度に、特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、個別画像の種類に応じて定められている。また、図柄用演算処理では、不正報知用又は状態報知用の実行対象テーブルがワークRAM73に読み出されている場合、当該実行対象テーブルに対応した報知画像を表示するための演算処理を実行するとともにその報知画像を表示するための報知スプライト、及び当該報知スプライトに適用する各種パラメータ情報を導出する。 Incidentally, in each of the arithmetic processes of step S906, step S909, and step S912, animation data set to change various parameter information of individual images according to a specific pattern is used each time the image update timing is reached. This animation data is defined according to the type of individual image. Further, in the symbol arithmetic processing, when the execution target table for fraud notification or status notification is read into the work RAM 73, the arithmetic processing for displaying the notification image corresponding to the execution target table is executed. The notification sprite for displaying the notification image and various parameter information applied to the notification sprite are derived.

その後、ステップS913にて、ワークRAM73に設けられた演算完了フラグに「1」をセットする。演算完了フラグは、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理をそれぞれ1回ずつ実行したことを表示CPU72にて特定するためのフラグである。 After that, in step S913, "1" is set in the calculation completion flag provided in the work RAM 73. The calculation completion flag is a flag for the display CPU 72 to specify that the background calculation process in step S906, the effect calculation process in step S909, and the symbol calculation process in step S912 have been executed once each.

その後、ステップS914にて描画指示対象の把握処理を実行する。描画指示対象の把握処理では、上記ステップS906、ステップS909及びステップS912の各演算処理により制御更新対象となった各個別画像のうち、今回の描画データの作成指示に係る1フレーム分の画像に含まれる個別画像を把握する処理を実行する。当該把握は、各種個別画像の座標、回転角度及びスケールの情報とを参照して予め定められた演算を実行することで行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。このように描画リストにて指定する個別画像を、制御開始済みの全ての個別画像とするのではなく、表示対象の個別画像のみとすることで、VDP76において表示対象の個別画像を選別する必要がなく、また選別しないとしても表示対象ではない個別画像について無駄に描画処理を行う必要がなくなる。これにより、VDP76の処理負荷の低減が図られる。 After that, in step S914, the drawing instruction target grasping process is executed. In the process of grasping the drawing instruction target, among the individual images targeted for control update by the arithmetic processing of steps S906, step S909, and step S912, the image for one frame related to the current drawing data creation instruction is included. Execute the process of grasping the individual image to be displayed. The grasp is performed by executing a predetermined calculation with reference to the information of the coordinates, rotation angle and scale of various individual images. The individual image grasped here is set as a drawing target in the drawing list. By setting the individual images specified in the drawing list as only the individual images to be displayed instead of all the individual images for which control has been started, it is necessary to select the individual images to be displayed in the VDP 76. There is no need to uselessly draw an individual image that is not a display target even if it is not sorted. As a result, the processing load of VDP76 can be reduced.

ここで、V割込み処理の新たな処理回が開始された場合には当該V割込み処理の新たな起動が禁止されることとなるが、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理が実行される前の各タイミングで、V割込み処理の新たな起動が許可される(ステップS904、ステップS907及びステップS910)。これにより、ステップS904、ステップS907又はステップS910が実行された時点でV割込み処理の新たな処理回の開始タイミングとなっている場合、すなわち今回のV割込み処理が開始されてから既に20msecが経過している場合には、タスク処理がその時点で中断されて、V割込み処理の新たな処理回が開始されて上述したステップS601の処理を開始する。これにより、V割込み処理の新たな処理回の開始タイミングとなっているにも関わらずV割込み処理の新たな処理回の開始が待機されている期間を短くすることが可能となる。 Here, when a new processing time of the V interrupt processing is started, the new activation of the V interrupt processing is prohibited, but the background arithmetic processing in step S906 and the production arithmetic processing in step S909 are prohibited. And at each timing before the symbol arithmetic processing of step S912 is executed, a new activation of the V interrupt processing is permitted (step S904, step S907, and step S910). As a result, when the start timing of a new processing time of the V interrupt processing is reached when step S904, step S907 or step S910 is executed, that is, 20 msec has already passed since the start of the current V interrupt processing. If so, the task processing is interrupted at that time, a new processing time of the V interrupt processing is started, and the processing of step S601 described above is started. As a result, it is possible to shorten the period in which the start of the new processing time of the V interrupt processing is awaited even though the start timing of the new processing time of the V interrupt processing is set.

但し、このようにV割込み処理の新たな処理回が開始される場合であっても、今回のタスク処理におけるそれまでの処理結果に対応したデータはそのまま記憶保持される。また、この場合、ワークRAM73に設けられた中断時用アドレスエリア111に、当該V割込み処理の新たな処理回が開始される直前に実行されていた処理に対応したアドレスデータが書き込まれる。中断時用アドレスエリア111に書き込まれたアドレスデータが、新たな処理回のV割込み処理におけるタスク処理の開始に際して参照されることで、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。 However, even when a new processing round of V interrupt processing is started in this way, the data corresponding to the processing results up to that point in the current task processing is stored and retained as it is. Further, in this case, the address data corresponding to the processing executed immediately before the start of a new processing round of the V interrupt processing is written in the interruption address area 111 provided in the work RAM 73. The address data written in the address area 111 for interruption is referred to when the task processing in the V interrupt processing of the new processing time is started, so that the processing execution is restarted from the timing when the interruption occurred in the previous task processing. It becomes possible to do.

また、ステップS904、ステップS907及びステップS910にてV割込み処理の新たな起動を許可した場合、ステップS905、ステップS908及びステップS911にてその新たな起動を禁止した後にステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理を実行する。これにより、各種演算処理の実行途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。各種演算処理の実行途中でV割込み処理の新たな処理回が開始されると、記憶保持すべき演算途中のデータのデータ量が極端に多くなってしまうことが想定され、さらにV割込み処理の新たな処理回において演算途中の状態に復帰する場合におけるアドレスデータの内容も複雑なものとなってしまうおそれがある。これに対して、各種演算処理が開始される前にV割込み処理の新たな起動を禁止することで、各種演算処理の途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。 Further, when the new activation of the V interrupt process is permitted in step S904, step S907 and step S910, the background calculation process of step S906 is performed after the new activation is prohibited in step S905, step S908 and step S911. The effect calculation process in step S909 and the symbol calculation process in step S912 are executed. As a result, it is possible to prevent a new processing time of the V interrupt processing from being started during the execution of various arithmetic processes. If a new processing cycle of V interrupt processing is started during the execution of various arithmetic processes, it is assumed that the amount of data in the process of arithmetic to be stored and retained becomes extremely large, and further new V interrupt processing is performed. The content of the address data when returning to the state in the middle of calculation in various processing times may become complicated. On the other hand, by prohibiting a new start of the V interrupt process before the various arithmetic processes are started, a new process cycle of the V interrupt process is prevented from being started in the middle of the various arithmetic processes. It becomes possible.

タスク処理の実行途中でV割込み処理の新たな処理回が開始された場合には、ステップS913にて演算完了フラグに「1」をセットする処理を実行することなく、V割込み処理(図15)のステップS601の処理が開始されることとなる。そうすると、演算完了フラグに「1」がセットされていないとしてステップS606にて否定判定をする。この場合、ステップS610にてワークRAM73の遅延中フラグに「1」をセットする。 If a new processing round of V interrupt processing is started during the execution of task processing, V interrupt processing (FIG. 15) without executing the process of setting the calculation completion flag to "1" in step S913. The process of step S601 of the above will be started. Then, it is assumed that "1" is not set in the calculation completion flag, and a negative determination is made in step S606. In this case, "1" is set in the delay flag of the work RAM 73 in step S610.

遅延中フラグに「1」がセットされている場合、その後のタスク処理(図19)ではステップS901にて肯定判定をする。この場合、遅延中フラグを「0」クリアした後に(ステップS915)、ワークRAM73の中断時用アドレスエリア111からアドレスデータを読み出すことで、前回のタスク処理においてV割込み処理の新たな処理回が開始される直前に実行していた処理にジャンプする(ステップS916)。これにより、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。 When "1" is set in the delay flag, a positive determination is made in step S901 in the subsequent task processing (FIG. 19). In this case, after clearing the delay flag to "0" (step S915), by reading the address data from the interrupted address area 111 of the work RAM 73, a new processing round of V interrupt processing is started in the previous task processing. It jumps to the process executed immediately before being executed (step S916). As a result, it is possible to resume the execution of the process from the timing when the interruption occurred in the previous task process.

V割込み処理(図15)においては、ステップS606にて否定判定をした場合、さらに遅延コマンドを音光側MPU62に送信する(ステップS611)。遅延コマンドには、現状の実行対象テーブルにおけるポインタ情報のデータが含まれる。音光側MPU62において遅延コマンドを受信した場合の処理は、タイマ割込み処理(図9)におけるステップS306の表示側コマンド対応処理にて実行される。 In the V interrupt process (FIG. 15), if a negative determination is made in step S606, a delay command is further transmitted to the sound light side MPU 62 (step S611). The deferred command includes pointer information data in the current execution target table. The process when the delay command is received by the sound light side MPU 62 is executed in the display side command corresponding process in step S306 in the timer interrupt process (FIG. 9).

具体的には、図20のフローチャートに示すように、遅延コマンドを受信した場合(ステップS1001:YES)、今回受信した遅延コマンドから実行対象テーブルのポインタ情報を読み出す(ステップS1002)。その後、音声発光制御装置60のRAM64に読み出されている制御パターンテーブルのポインタ情報と、上記遅延コマンドから読み出したポインタ情報とに基づいて、表示CPU72において更新タイミングの遅延が発生したことに対応する遅延分のポインタ範囲を算出する(ステップS1003)。 Specifically, as shown in the flowchart of FIG. 20, when the delay command is received (step S1001: YES), the pointer information of the execution target table is read from the delay command received this time (step S1002). After that, it corresponds to the delay of the update timing in the display CPU 72 based on the pointer information of the control pattern table read into the RAM 64 of the voice emission control device 60 and the pointer information read from the delay command. The pointer range for the delay is calculated (step S1003).

制御パターンテーブルには、表示CPU72へのコマンドの出力タイミングが設定されているため、表示CPU72における現状の実行対象テーブルに対応する演出の実行指示を行ったタイミングのポインタ情報を導出することが可能である。また、音光側MPU62において制御パターンテーブルのポインタ情報が更新される周期と、表示CPU72において実行対象テーブルのポインタ情報が更新される周期とは相違しているものの、これら周期は予め定められた周期で概ね一定となる。音光側MPU62は、制御パターンテーブルの現状のポインタ情報から表示CPU72にてタスク処理の中断が発生していない場合における実行対象テーブルの本来のポインタ情報を導出することが可能である。そして、その導出したポインタ情報と、表示CPU72の遅延コマンドから把握したポインタ情報との差分から、音光側MPU62における制御の進行具合と表示CPU72における制御の進行具合とを一致させるのに必要な、制御パターンテーブルのポインタ情報の減算値を導出することが可能である。 Since the output timing of the command to the display CPU 72 is set in the control pattern table, it is possible to derive the pointer information of the timing when the execution instruction of the effect corresponding to the current execution target table in the display CPU 72 is given. is there. Further, although the cycle in which the pointer information of the control pattern table is updated in the sound light side MPU 62 and the cycle in which the pointer information of the execution target table is updated in the display CPU 72 are different, these cycles are predetermined cycles. Is almost constant. The sound light side MPU 62 can derive the original pointer information of the execution target table from the current pointer information of the control pattern table when the task processing is not interrupted by the display CPU 72. Then, from the difference between the derived pointer information and the pointer information grasped from the delay command of the display CPU 72, it is necessary to match the progress of control in the sound-light side MPU 62 with the progress of control in the display CPU 72. It is possible to derive the subtraction value of the pointer information of the control pattern table.

ステップS1004では、その導出した減算値を、制御パターンテーブルの現状のポインタ情報から減算することにより、当該ポインタ情報の調整処理を実行する。これにより、表示CPU72にてタスク処理の中断が発生して実行対象テーブルのポインタ情報の更新が遅延されたとしても、音光側MPU62における制御パターンテーブルのポインタ情報をその遅延が発生している実行対象テーブルのポインタ情報と対応させることが可能となる。 In step S1004, the derived subtraction value is subtracted from the current pointer information of the control pattern table to execute the adjustment process of the pointer information. As a result, even if the task processing is interrupted in the display CPU 72 and the update of the pointer information of the execution target table is delayed, the pointer information of the control pattern table in the sound light side MPU 62 is executed with the delay. It is possible to correspond to the pointer information of the target table.

タスク処理との関係で実行対象テーブルのポインタ情報の調整が行われる様子について図21のタイムチャートを参照しながら説明する。図21(a)はV割込み処理の起動タイミングを示し、図21(b)はタスク処理の実行期間を示し、図21(c)は実行対象テーブルのポインタ情報の更新タイミングを示し、図21(d)は遅延コマンドの送信タイミングを示し、図21(e)は表示CPU72が音光側MPU62から報知実行コマンドを受信したタイミングを示す。なお、以下の説明ではV割込み処理の処理回が新たに開始されたタイミングでポインタ情報が更新されるものとするが、実際にはV割込み処理の処理回が新たに開始されたタイミングよりも後であってタスク処理が開始される前のタイミングでポインタ情報が更新される。これは遅延コマンドの出力タイミングについても同様である。 The state in which the pointer information of the execution target table is adjusted in relation to the task processing will be described with reference to the time chart of FIG. 21 (a) shows the start timing of the V interrupt process, FIG. 21 (b) shows the execution period of the task process, and FIG. 21 (c) shows the update timing of the pointer information of the execution target table. d) shows the transmission timing of the delay command, and FIG. 21 (e) shows the timing when the display CPU 72 receives the notification execution command from the sound / light side MPU 62. In the following description, it is assumed that the pointer information is updated at the timing when the processing times of V interrupt processing are newly started, but actually, it is later than the timing when the processing times of V interrupt processing are newly started. However, the pointer information is updated at the timing before the task processing is started. This also applies to the output timing of the delay command.

まずタスク処理の途中で中断が発生する場合であって、そのタスク処理の途中で報知実行コマンドを受信していない場合について説明する。 First, a case where an interruption occurs in the middle of task processing and a case where a notification execution command is not received in the middle of the task processing will be described.

図21(a)に示すようにt1のタイミングでV割込み処理の新たな処理回が開始される。この場合、図21(c)に示すように実行対象テーブルのポインタ情報が更新される。その後、t2のタイミングで図21(b)に示すようにタスク処理が開始され、当該タスク処理はV割込み処理の新たな起動タイミング(t4のタイミング)よりも前のタイミングであるt3のタイミングで終了する。この場合、タスク処理の中断は発生しない。 As shown in FIG. 21A, a new processing cycle of V interrupt processing is started at the timing of t1. In this case, the pointer information of the execution target table is updated as shown in FIG. 21 (c). After that, the task processing is started at the timing of t2 as shown in FIG. 21B, and the task processing ends at the timing of t3, which is the timing before the new activation timing (timing of t4) of the V interrupt processing. To do. In this case, the task processing is not interrupted.

その後、図21(a)に示すようにt4のタイミングでV割込み処理の新たな処理回が開始されるとともに、図21(c)に示すように実行対象テーブルのポインタ情報が更新される。そして、t5のタイミングで図21(b)に示すようにタスク処理が開始される。但し、当該タスク処理の実行途中であるt6のタイミングで図21(a)に示すようにV割込み処理の新たな起動タイミングとなる。この場合、現状実行されているタスク処理は図21(b)に示すように中断され、V割込み処理の新たな処理回が開始される。 After that, as shown in FIG. 21 (a), a new processing cycle of the V interrupt process is started at the timing of t4, and the pointer information of the execution target table is updated as shown in FIG. 21 (c). Then, at the timing of t5, the task process is started as shown in FIG. 21 (b). However, as shown in FIG. 21 (a), the timing of t6 during the execution of the task processing is a new start timing of the V interrupt processing. In this case, the task processing currently being executed is interrupted as shown in FIG. 21B, and a new processing round of the V interrupt processing is started.

当該t6のタイミングではV割込み処理の新たな処理回が開始されたとしても実行対象テーブルのポインタ情報は更新されない。これにより、その新たな処理回のV割込み処理ではポインタ情報の更新が行われないままタスク処理が開始されるため、V割込み処理の前回の処理回で設定されたポインタ情報に対応するデータを利用したタスク処理を実行することが可能となる。また、t6のタイミングで図21(d)に示すように表示CPU72から音光側MPU62に遅延コマンドが送信される。これにより、表示CPU72の実行対象テーブルにおいてポインタ情報の更新が遅れた状況において、その遅れに合わせて音光側MPU62の制御パターンテーブルのポインタ情報を調整することが可能となる。 At the timing of t6, the pointer information of the execution target table is not updated even if a new processing round of V interrupt processing is started. As a result, the task processing is started without updating the pointer information in the V interrupt processing of the new processing time, so the data corresponding to the pointer information set in the previous processing time of the V interrupt processing is used. It becomes possible to execute the task processing that has been performed. Further, at the timing of t6, a delay command is transmitted from the display CPU 72 to the sound / light side MPU 62 as shown in FIG. 21 (d). As a result, in a situation where the update of the pointer information in the execution target table of the display CPU 72 is delayed, the pointer information in the control pattern table of the sound light side MPU 62 can be adjusted according to the delay.

次に、タスク処理の中断が発生する場合であって、そのタスク処理の途中で報知実行コマンドを受信している場合について説明する。 Next, a case where the task processing is interrupted and the notification execution command is received during the task processing will be described.

図21(a)に示すようにt9のタイミングでV割込み処理の新たな処理回が開始されるとともに、図21(c)に示すように実行対象テーブルのポインタ情報が更新される。そして、t10のタイミングで図21(b)に示すようにタスク処理が開始される。但し、当該タスク処理の実行途中であるt12のタイミングで図21(a)に示すようにV割込み処理の新たな起動タイミングとなる。この場合、現状実行されているタスク処理は図21(b)に示すように中断され、V割込み処理の新たな処理回が開始される。 As shown in FIG. 21 (a), a new processing cycle of the V interrupt process is started at the timing of t9, and the pointer information of the execution target table is updated as shown in FIG. 21 (c). Then, at the timing of t10, the task process is started as shown in FIG. 21 (b). However, as shown in FIG. 21A, the timing of t12 during the execution of the task processing is a new start timing of the V interrupt processing. In this case, the task processing currently being executed is interrupted as shown in FIG. 21B, and a new processing round of the V interrupt processing is started.

但し、その中断対象となったタスク処理の開始タイミングであるt10のタイミングよりも後であって、V割込み処理の新たな処理回の開始タイミングであるt12のタイミングよりも前のタイミングであるt11のタイミングで、図21(e)に示すように音光側MPU62から報知実行を受信している。したがって、t12のタイミングでタスク処理が中断されてV割込み処理の新たな処理回が開始されたとしても、図21(c)に示すように実行対象テーブルのポインタ情報は更新される。また、図21(d)に示すように遅延コマンドは送信されない。 However, the timing of t11, which is after the timing of t10, which is the start timing of the task processing that has been interrupted, and before the timing of t12, which is the start timing of a new processing time of the V interrupt processing. At the timing, as shown in FIG. 21 (e), the notification execution is received from the sound / light side MPU 62. Therefore, even if the task processing is interrupted at the timing of t12 and a new processing round of the V interrupt processing is started, the pointer information of the execution target table is updated as shown in FIG. 21 (c). Further, as shown in FIG. 21D, the delay command is not transmitted.

その後、t13のタイミングで図21(b)に示すようにタスク処理が開始される。当該タスク処理では、演出用の各種演算処理に関しては演出用の実行対象テーブルにおいてポインタ情報1個分のデータに対応した演算が実行されないままとなっているため、各種パラメータ情報の設定が正常通りに行われないことに起因して演出用の画像表示が円滑に行われない可能性がある。その一方、当該タスク処理において報知用の各種演算処理は開始されるため報知用の画像の表示を即座に開始することが可能となる。その後、当該タスク処理はV割込み処理の新たな起動タイミング(t15のタイミング)よりも前のタイミングであるt14のタイミングで終了する。この場合、タスク処理の中断は発生しない。 After that, the task process is started at the timing of t13 as shown in FIG. 21 (b). In the task processing, the calculation corresponding to the data of one pointer information is not executed in the execution target table for the production for the various calculation processes for the production, so that the settings of the various parameter information are normal. There is a possibility that the image display for production is not smoothly performed because it is not performed. On the other hand, since various arithmetic processes for notification are started in the task processing, it is possible to immediately start displaying the image for notification. After that, the task process ends at the timing of t14, which is a timing before the new start timing (timing of t15) of the V interrupt process. In this case, the task processing is not interrupted.

V割込み処理の新たな処理回が開始された場合には当該V割込み処理の新たな起動が禁止されることとなるが、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理が実行される前の各タイミングで、V割込み処理の新たな起動が許可される(ステップS904、ステップS907及びステップS910)。これにより、ステップS904、ステップS907又はステップS910が実行された時点でV割込み処理の新たな処理回の開始タイミングとなっている場合、すなわち今回のV割込み処理が開始されてから既に20msecが経過している場合には、タスク処理がその時点で中断されて、V割込み処理の新たな処理回が開始されて上述したステップS601の処理を開始する。これにより、V割込み処理の新たな処理回の開始タイミングとなっているにも関わらずV割込み処理の新たな処理回の開始が待機されている期間を短くすることが可能となる。 When a new processing time of the V interrupt processing is started, the new activation of the V interrupt processing is prohibited. However, the background arithmetic processing in step S906, the effect arithmetic processing in step S909, and step S912 At each timing before the symbol arithmetic processing of No. 1 is executed, new activation of the V interrupt processing is permitted (step S904, step S907, and step S910). As a result, when the start timing of a new processing time of the V interrupt processing is reached when step S904, step S907 or step S910 is executed, that is, 20 msec has already passed since the start of the current V interrupt processing. If so, the task processing is interrupted at that time, a new processing time of the V interrupt processing is started, and the processing of step S601 described above is started. As a result, it is possible to shorten the period in which the start of the new processing time of the V interrupt processing is awaited even though the start timing of the new processing time of the V interrupt processing is set.

但し、このようにV割込み処理の新たな処理回が開始される場合であっても、今回のタスク処理におけるそれまでの処理結果に対応したデータはそのまま記憶保持される。また、この場合、ワークRAM73に設けられた中断時用アドレスエリア111に、当該V割込み処理の新たな処理回が開始される直前に実行されていた処理に対応したアドレスデータが書き込まれる。中断時用アドレスエリア111に書き込まれたアドレスデータが、新たな処理回のV割込み処理におけるタスク処理の開始に際して参照されることで、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。 However, even when a new processing round of V interrupt processing is started in this way, the data corresponding to the processing results up to that point in the current task processing is stored and retained as it is. Further, in this case, the address data corresponding to the processing executed immediately before the start of a new processing round of the V interrupt processing is written in the interruption address area 111 provided in the work RAM 73. The address data written in the address area 111 for interruption is referred to when the task processing in the V interrupt processing of the new processing time is started, so that the processing execution is restarted from the timing when the interruption occurred in the previous task processing. It becomes possible to do.

ステップS904、ステップS907及びステップS910にてV割込み処理の新たな起動を許可した場合、ステップS905、ステップS908及びステップS911にてその新たな起動を禁止した後に、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理を実行する。これにより、各種演算処理の実行途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。各種演算処理の実行途中でV割込み処理の新たな処理回が開始されると、記憶保持すべき演算途中のデータのデータ量が極端に多くなってしまうことが想定され、さらにV割込み処理の新たな処理回において演算途中の状態に復帰する場合におけるアドレスデータの内容も複雑なものとなってしまうおそれがある。これに対して、各種演算処理が開始される前にV割込み処理の新たな起動を禁止することで、各種演算処理の途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。 When the new activation of the V interrupt process is permitted in step S904, step S907 and step S910, the new activation is prohibited in step S905, step S908 and step S911, and then the background calculation process and step of step S906 are performed. The effect calculation process of S909 and the symbol calculation process of step S912 are executed. As a result, it is possible to prevent a new processing time of the V interrupt processing from being started during the execution of various arithmetic processes. If a new processing cycle of V interrupt processing is started during the execution of various arithmetic processes, it is assumed that the amount of data in the process of arithmetic to be stored and retained becomes extremely large, and further new V interrupt processing is performed. The content of the address data when returning to the state in the middle of calculation in various processing times may become complicated. On the other hand, by prohibiting a new start of the V interrupt process before the various arithmetic processes are started, a new process cycle of the V interrupt process is prevented from being started in the middle of the various arithmetic processes. It becomes possible.

表示CPU72にてタスク処理の中断が発生するとともに次回のV割込み処理においてその中断した状態からタスク処理が再開される場合には、表示CPU72から音光側MPU62に遅延コマンドが送信されることで、当該音光側MPU62において制御パターンテーブルのポインタ情報が当該遅延に対応させて調整される。これにより、当該遅延が発生する場合であったとしても、音光側MPU62における演出の実行制御の内容と、表示CPU72における演出の実行制御の内容とを同期させることが可能となる。 When the task processing is interrupted by the display CPU 72 and the task processing is restarted from the interrupted state in the next V interrupt processing, the display CPU 72 sends a delay command to the sound / light side MPU 62. In the sound light side MPU 62, the pointer information of the control pattern table is adjusted according to the delay. As a result, even if the delay occurs, it is possible to synchronize the content of the effect execution control on the sound / light side MPU 62 with the content of the effect execution control on the display CPU 72.

表示CPU72にてタスク処理の中断が発生した場合にV割込み処理(図15)のステップS606にて否定判定をすることで、実行対象テーブルのポインタ情報の更新が行われないとともに音光側MPU62への遅延コマンドの送信が行われる構成において、タスク処理の中断が発生しているとしても遅延非発生条件が成立している場合にはステップS606の判定処理が実行されないことで、実行対象テーブルのポインタ情報の更新が行われるとともに遅延コマンドが送信されない。具体的には、不正報知又は状態報知用の実行対象テーブルがワークRAM73に新たに読み出されている場合には、ステップS605にて肯定判定をすることで、ステップS606の判定処理を実行することなくステップS607の処理を実行する。これにより、演出用の画像表示を円滑に行えなくなる可能性はあるものの、不正報知又は状態報知に対応した画像の表示の開始を最優先することが可能となる。つまり、コマンド対応処理にて報知用の実行対象テーブルがワークRAM73に新たに読み出されたとしても、その後に当該実行対象テーブルについてステップS607のポインタ更新処理が実行されない限りは報知用の画像の表示が開始されない。これに対して、報知用の実行対象テーブルが新たに読み出されている場合には、タスク処理の中断が前回発生していたとしてもステップS607のポインタ更新処理を実行することで、報知用の画像表示の開始が遅れてしまわないようにすることが可能となる。 When the task processing is interrupted by the display CPU 72, a negative determination is made in step S606 of the V interrupt processing (FIG. 15), so that the pointer information of the execution target table is not updated and the sound and light side MPU 62 is reached. In the configuration in which the delay command of is transmitted, even if the task processing is interrupted, if the delay non-occurrence condition is satisfied, the determination process of step S606 is not executed, so that the pointer of the execution target table is executed. The information is updated and the delay command is not sent. Specifically, when the execution target table for fraud notification or status notification is newly read into the work RAM 73, the determination process of step S606 is executed by making an affirmative determination in step S605. The process of step S607 is executed without. As a result, although there is a possibility that the image display for the effect cannot be smoothly performed, it is possible to give the highest priority to the start of the display of the image corresponding to the fraudulent notification or the status notification. That is, even if the execution target table for notification is newly read into the work RAM 73 in the command correspondence process, the image for notification is displayed unless the pointer update process of step S607 is subsequently executed for the execution target table. Does not start. On the other hand, when the execution target table for notification is newly read, even if the task processing is interrupted last time, the pointer update processing in step S607 is executed to perform notification. It is possible to prevent the start of image display from being delayed.

<VDP76における基本的な処理>
次に、VDP76にて実行される基本的な処理について説明する。
<Basic processing in VDP76>
Next, the basic processing executed by the VDP 76 will be described.

VDP76では、表示CPU72から送信されたコマンドに基づいてレジスタ92の値を設定する処理、表示CPU72から送信された描画リストに基づいてフレームバッファ82のフレーム領域82a,82bに描画データを作成する処理、及びフレーム領域82a,82bに作成された描画データに基づいて図柄表示装置41に画像信号を出力する処理が実行される。 In the VDP 76, a process of setting the value of the register 92 based on the command transmitted from the display CPU 72, a process of creating drawing data in the frame areas 82a and 82b of the frame buffer 82 based on the drawing list transmitted from the display CPU 72, A process of outputting an image signal to the symbol display device 41 is executed based on the drawing data created in the frame areas 82a and 82b.

上記各処理のうち、レジスタ92の値を設定する処理は、表示CPU72用のI/F95に付随する図示しない回路によって、描画リストを受信した場合にその都度実行される。また、描画データを作成する処理は、予め定められた周期(例えば、1msec)で制御部91によって繰り返し起動される。また、画像信号を出力する処理は、表示回路94によって、予め定められた画像信号の出力開始タイミングとなることで実行される。 Of the above processes, the process of setting the value of the register 92 is executed each time a drawing list is received by a circuit (not shown) attached to the I / F 95 for the display CPU 72. Further, the process of creating drawing data is repeatedly started by the control unit 91 at a predetermined cycle (for example, 1 msec). Further, the process of outputting the image signal is executed by the display circuit 94 at a predetermined output start timing of the image signal.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU72からVDP76に送信される描画リストの内容について説明する。図22(a)〜(c)は描画リストの内容を説明するための説明図である。 Hereinafter, the process of creating the drawing data will be described in detail. Prior to the description of the process, the contents of the drawing list transmitted from the display CPU 72 to the VDP 76 will be described. 22 (a) to 22 (c) are explanatory views for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像に対応した描画データを第1フレーム領域82a及び第2フレーム領域82bのうちいずれに描画するのかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、デコード指定の有無及びデコード対象となる動画像データのアドレスの情報が設定されている。 Header information is set in the drawing list. In the header information, information of the target buffer, which is information indicating which of the first frame area 82a and the second frame area 82b, the drawing data corresponding to the image for one frame related to the drawing list is drawn is set. Has been done. Further, in the header information, information on whether or not decoding is specified and the address of the moving image data to be decoded are set.

描画リストには、上記ヘッダ情報以外にも、1フレーム分の画像を表示するために用いられる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させて使用する画像データの情報が設定されている。また、各画像データの情報に1対1で対応させてパラメータ情報が設定されている。 In addition to the above header information, a plurality of types of image data used for displaying an image for one frame are set in the drawing list, and further, information on the drawing order of each image data and information on each image data. Parameter information and is set. In detail, the information of the drawing order is set so as to be the numerical information of the serial number, and the information of the image data to be used is set in which each numerical information has a one-to-one correspondence. In addition, parameter information is set so that there is a one-to-one correspondence with the information of each image data.

上記描画順序は、1フレーム分の画像において表示面P奥側に位置するように表示させたい個別画像から先に描画対象となるように設定されている。なお、個別画像とは、背景データといった静止画像データにより規定される一の静止画像や、図柄スプライトデータといったスプライトデータにより規定される一のスプライトのことである。図22(a)の描画リストでは、背景データが最初の描画対象として設定されているとともに、スプライトデータAが2番目、スプライトデータBが3番目、・・・として設定されている。したがって、描画対象のフレーム領域82a,82bに対して、最初に背景データが書き込まれ、その後に当該背景データに重なるようにしてスプライトデータAが書き込まれ、さらにスプライトデータBが書き込まれる。なお、1フレーム分の画像においては、背景画像→演出画像→図柄の順序で手前側となるように、各個別画像が表示される。 The drawing order is set so that the individual images to be displayed so as to be located on the back side of the display surface P in the image for one frame are drawn first. The individual image is a still image defined by still image data such as background data, or a sprite defined by sprite data such as symbol sprite data. In the drawing list of FIG. 22A, the background data is set as the first drawing target, the sprite data A is set as the second, the sprite data B is set as the third, and so on. Therefore, the background data is first written to the frame areas 82a and 82b to be drawn, then the sprite data A is written so as to overlap the background data, and then the sprite data B is written. In the image for one frame, each individual image is displayed so as to be on the front side in the order of background image → effect image → symbol.

パラメータ情報P(1),P(2),P(3),・・・には、複数種類のパラメータが設定されている。背景データのパラメータP(1)について具体的には、図22(b)に示すように、メモリモジュール74において背景データが記憶されているエリアのアドレスの情報と、VRAM75において背景データを転送するエリアのアドレスの情報と、背景データを書き込む場合における2次元平面上の位置を示す座標の情報と、背景データを書き込む場合における2次元平面上の回転角度を示す回転角度の情報と、背景データの初期状態として設定されているサイズに対して、フレーム領域82a,82bに書き込む際の倍率を示すスケールの情報と、背景データを書き込む場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、αデータの適用有無及び適用対象を示すαデータ指定の情報とが設定されている。上記パラメータの種類は、図22(c)に示すように、スプライトデータAについても同様である。 A plurality of types of parameters are set in the parameter information P (1), P (2), P (3), .... Specifically, regarding the background data parameter P (1), as shown in FIG. 22 (b), the address information of the area where the background data is stored in the memory module 74 and the area for transferring the background data in the VRAM 75. Address information, coordinate information indicating the position on the two-dimensional plane when writing background data, rotation angle information indicating the rotation angle on the two-dimensional plane when writing background data, and the initial background data Scale information indicating the magnification when writing to the frame areas 82a and 82b with respect to the size set as the state, and uniform α value information indicating the entire transparency information (or transparency information) when writing the background data. And the information of α data designation indicating whether or not α data is applied and the application target are set. As shown in FIG. 22C, the types of the above parameters are the same for the sprite data A.

座標の情報は、画像データを構成する全ピクセルについて個別に設定されるのではなく、一の画像データに対して一の座標の情報が設定される。具体的には、座標の情報が指定される基準ピクセルとして画像データの中心の1ピクセルが設定されている。VDP76では、指定される座標の情報が画像データの中心の1ピクセルであることを認識可能となっており、画像データの配置に際してはその中心の1ピクセルが指定された座標上となるようにする。これにより、表示CPU72において一の画像データに対して指定すべき座標の情報の情報容量(すなわちデータ量)を抑えることができる。また、表示CPU72やVDP76において画像データの全ピクセルについて座標を認識可能としておく必要がないため、プログラムの簡素化も図られる。 The coordinate information is not set individually for all the pixels constituting the image data, but the information of one coordinate is set for one image data. Specifically, one pixel at the center of the image data is set as a reference pixel for which coordinate information is specified. In VDP76, it is possible to recognize that the information of the designated coordinates is one pixel at the center of the image data, and when arranging the image data, one pixel at the center is set on the designated coordinates. .. As a result, the information capacity (that is, the amount of data) of the coordinate information to be specified for one image data in the display CPU 72 can be suppressed. Further, since it is not necessary for the display CPU 72 and the VDP 76 to be able to recognize the coordinates for all the pixels of the image data, the program can be simplified.

ちなみに、上記基準ピクセルは中心の1ピクセルに限定されることはなく、例えば左上や右上といった隅角のピクセルであってもよい。スプライトデータや静止画像データは基本的に矩形状として規定されているため、隅角のピクセルを基準ピクセルとすることで、表示CPU72やVDP76において基準ピクセルの認識を行い易くなる。 Incidentally, the reference pixel is not limited to one pixel at the center, and may be a pixel at a corner such as an upper left or an upper right. Since the sprite data and the still image data are basically defined as a rectangular shape, by using the pixels at the corners as the reference pixels, the display CPU 72 and the VDP 76 can easily recognize the reference pixels.

また、一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU72における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、背景データやスプライトデータの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール74に予め記憶されている。当該αデータは、同一の背景データ又は同一のスプライトデータの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。 Further, the uniform α value is transparent information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 72. The uniform α value is uniformly applied to all pixels of the image data. On the other hand, the α data is transparent information applied to each pixel of background data and sprite data, and is stored in advance in the memory module 74 as image data. In the α data, the transparency information can be different for each pixel within the range of the same background data or the same sprite data. This α data has a larger data capacity than the program data for setting a uniform α value.

上記のように一律α値とαデータとが設定されていることにより、背景データやスプライトデータの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。 Since the α value and α data are set uniformly as described above, in a situation where the transparency of background data and sprite data should be controlled uniformly for all pixels instead of being finely controlled for each pixel. It is possible to reduce the required data capacity by being able to handle with a uniform α value, and it is also possible to finely control the transmittance in pixel units by applying α data.

VDP76における描画処理について、図23のフローチャートを参照しながら説明する。 The drawing process in the VDP 76 will be described with reference to the flowchart of FIG.

まずステップS1101では、既に受信している描画リストにて指示された描画データの作成が完了しているか否かを判定する。描画データの作成が完了している場合には、ステップS1102にて、表示CPU72から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS1103にて、受信時の対応処理を実行する。 First, in step S1101, it is determined whether or not the creation of the drawing data instructed in the drawing list that has already been received is completed. When the creation of the drawing data is completed, it is determined in step S1102 whether or not a new drawing list has been received from the display CPU 72. If a new drawing list has been received, the corresponding process at the time of reception is executed in step S1103.

受信時の対応処理では、描画リストに含まれるターゲットバッファの情報から、今回受信した描画リストに対応した1フレーム分の描画データをいずれのフレーム領域82a,82bに描画するのかを把握する。 In the corresponding processing at the time of reception, from the information of the target buffer included in the drawing list, it is grasped which frame areas 82a and 82b the drawing data for one frame corresponding to the drawing list received this time is drawn.

続くステップS1104では、内容把握処理を実行する。内容把握処理では、描画リストに読み出し対象として設定されている画像データをメモリモジュール74から読み出しVRAM75の展開用バッファ81に書き込む。また、内容把握処理では、描画リストにおいて描画対象として最初に設定されている画像データの種類を把握するとともに、当該画像データの各種パラメータ情報を把握する。書き込み処理では、ステップS1104における内容把握処理の把握結果に基づいて、作成対象として設定されているフレーム領域82a,82bに今回の描画対象の画像データを書き込む。 In the following step S1104, the content grasping process is executed. In the content grasping process, the image data set as the read target in the drawing list is read from the memory module 74 and written to the expansion buffer 81 of the VRAM 75. Further, in the content grasping process, the type of image data initially set as the drawing target in the drawing list is grasped, and various parameter information of the image data is grasped. In the writing process, the image data to be drawn this time is written in the frame areas 82a and 82b set as the creation target based on the grasping result of the content grasping process in step S1104.

一方、ステップS1101にて、既に受信している描画リストにて指示された描画データの作成途中であると判定した場合には、ステップS1106にて描画リストのカウンタの更新処理を実行する。これにより、描画対象が次の描画順序の画像データに切り換えられる。そして、当該切り換えられた画像データについて、上記ステップS1104及びステップS1105の処理を実行する。つまり、描画処理が複数回実行されることで、一の描画リストにより指示された1フレーム分の画像の描画データが作成される。 On the other hand, if it is determined in step S1101 that the drawing data instructed by the already received drawing list is being created, the drawing list counter is updated in step S1106. As a result, the drawing target is switched to the image data in the next drawing order. Then, the processes of steps S1104 and S1105 are executed for the switched image data. That is, by executing the drawing process a plurality of times, the drawing data of the image for one frame specified by one drawing list is created.

なお、1回の描画処理で1個の画像データのみが処理される構成に限定されることはなく、1回の描画処理で複数個の画像データが処理される構成としてもよく、また描画処理の各処理回において同一個数の画像データが処理される構成に限定されることはなく、描画処理の各処理回において異なる個数の画像データが処理される構成としてもよい。 Note that the configuration is not limited to a configuration in which only one image data is processed in one drawing process, and a configuration in which a plurality of image data are processed in one drawing process may be used, and the drawing process may be performed. The configuration is not limited to the configuration in which the same number of image data is processed in each processing time of the above, and a configuration in which a different number of image data is processed in each processing time of the drawing processing may be used.

ステップS1102にて否定判定した場合、又はステップS1105の処理を実行した後は、ステップS1107にて、表示回路94において1フレーム分の画像信号出力が完了しているか否かを判定する。完了していない場合にはそのまま本描画処理を終了し、完了している場合にはステップS1108にて表示CPU72にV割込み信号を出力した後に、本描画処理を終了する。 When a negative determination is made in step S1102, or after the process of step S1105 is executed, it is determined in step S1107 whether or not the image signal output for one frame is completed in the display circuit 94. If it is not completed, the main drawing process is terminated as it is, and if it is completed, the V interrupt signal is output to the display CPU 72 in step S1108, and then the main drawing process is terminated.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路94から図柄表示装置41に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分だけ後の更新タイミングに対応する描画データの作成と並行して行われる。なお、表示回路94は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域82a,82bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、制御部91において描画データの描画対象となっているフレーム領域82a,82bが画像信号を出力するための出力対象とならないように規制されている。 The creation of the drawing data for one frame is performed so as to be completed within the range of the 20 msec cycle. Further, an image signal is output from the display circuit 94 to the symbol display device 41 based on the created drawing data. However, since the double buffer method is adopted as described above, the output of the image signal is output to the output. It is performed in parallel with the creation of drawing data corresponding to the update timing after one frame for the relevant frame. The display circuit 94 has a selector circuit that alternately switches the frame areas 82a and 82b to be referred to each time the output of the image signal for one frame is completed, and the control unit 91 is switched by the selector circuit. The frame areas 82a and 82b, which are the drawing targets of the drawing data, are regulated so as not to be output targets for outputting the image signal.

<色替え演出を行うための構成>
次に、色替え演出を行うための構成について説明する。
<Structure for performing color change production>
Next, a configuration for performing a color change effect will be described.

図24(a)〜図24(c)は色替え演出の内容を説明するための説明図である。色替え演出とは、図24(a−1)〜図24(a−3)に示すように、複数の画像更新タイミングからなる所定期間において色替え演出用キャラクタCH1が所定の動作を行う動画が表示される場合において、その色替え演出用キャラクタCH1の色替え対象領域CRの表示色が遊技の状況に応じて変更される演出のことである。例えば、遊技回用の演出として色替え演出が実行される場合、色替え対象領域CRの表示色によってリーチ表示発生の期待度や、大当たり結果となる期待度が遊技者に示唆される。また、パチンコ機10ではなくスロットマシンにおいて色替え演出を適用する場合には、内部抽選で当選となった役の種類に応じた表示色で色替え対象領域CRが表示される構成としてもよい。 24 (a) to 24 (c) are explanatory views for explaining the content of the color change effect. As shown in FIGS. 24 (a-1) to 24 (a-3), the color change effect is a moving image in which the color change effect character CH1 performs a predetermined operation in a predetermined period consisting of a plurality of image update timings. When it is displayed, the display color of the color change target area CR of the color change effect character CH1 is changed according to the situation of the game. For example, when a color change effect is executed as an effect for game rounds, the display color of the color change target area CR suggests to the player the degree of expectation of reach display occurrence and the degree of expectation of a jackpot result. Further, when the color change effect is applied to the slot machine instead of the pachinko machine 10, the color change target area CR may be displayed in the display color according to the type of the winning combination in the internal lottery.

色替え演出用キャラクタCH1は、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識されるように表示される。色替え対象領域CRは、色替え演出用キャラクタCH1において複数箇所に設定されている。具体的には、色替え対象領域CRは、色替え演出用キャラクタCH1の頭部分、両肩部分及び胴体部分に設定されている。複数箇所の色替え対象領域CRの表示色は同一色に設定される。例えば、色替え対象領域CRの表示色が青色に設定されている場合には色替え演出用キャラクタCH1の頭部分、両肩部分及び胴体部分は青色で表示され、色替え対象領域CRの表示色が赤色に設定されている場合には色替え演出用キャラクタCH1の頭部分、両肩部分及び胴体部分は赤色で表示される。また、色替え演出の最終段階においては図24(a−3)に示すように、色替え演出用キャラクタCH1に対して色替え演出用エフェクト画像EG1が表示される。エフェクト画像とは、爆風を表す画像、水飛沫を表す画像、光源から周囲に光が照射されている様子を表す発光画像、及びキャラクタの周囲が発光しているかのにように表すオーラ画像といったように、視的効果を高めるための画像である。色替え演出用エフェクト画像EG1として、色替え演出用キャラクタCH1から周囲に光線が照射されているような画像が表示される。 The color change effect character CH1 is displayed so as to be recognized by the player as representing a person having a face, a torso, both hands, and both feet. The color change target area CR is set at a plurality of places in the color change effect character CH1. Specifically, the color change target area CR is set in the head portion, both shoulder portions, and the body portion of the color change effect character CH1. The display colors of the color change target area CRs at a plurality of locations are set to the same color. For example, when the display color of the color change target area CR is set to blue, the head portion, both shoulder portions, and the body portion of the color change effect character CH1 are displayed in blue, and the display color of the color change target area CR is displayed. When is set to red, the head portion, both shoulder portions, and the body portion of the color change effect character CH1 are displayed in red. Further, in the final stage of the color change effect, as shown in FIG. 24 (a-3), the color change effect image EG1 is displayed for the color change effect character CH1. The effect image is an image showing a blast, an image showing water droplets, a light emitting image showing how light is shining from a light source to the surroundings, and an aura image showing the surroundings of a character as if they are emitting light. In addition, it is an image for enhancing the visual effect. As the effect image EG1 for the color change effect, an image in which light rays are emitted from the character CH1 for the color change effect is displayed.

色替え演出を行う場合には、図24(b−1)〜図24(b−3)に示すベース静止画像データBD1,BD2,BD3と、図24(c−1)〜図24(c−3)に示すパーツ画像データPD1,PD2,PD3とが利用される。ベース静止画像データBD1〜BD3は、色替え演出用キャラクタCH1を表示するための画像データである。パーツ画像データPD1〜PD3は、ベース静止画像データBD1〜BD3による色替え演出用キャラクタCH1における色替え対象領域CRに上書きするための画像データであるとともに上記色替え演出用エフェクト画像EG1を付加するための画像データである。描画対象のフレーム領域82a,82bに、図24(b−1)〜図24(b−3)に示すベース静止画像データBD1〜BD3を描画した後に、図24(c−1)〜図24(c−3)に示すパーツ画像データPD1〜PD3を描画することで、図24(a−1)〜図24(a−3)に示すように、図柄表示装置41の表示面Pに色替え演出用キャラクタCH1が表示されるとともに色替え対象領域CRの表示色が状況に応じて変更される。 When performing the color change effect, the base still image data BD1, BD2, BD3 shown in FIGS. 24 (b-1) to 24 (b-3) and FIGS. 24 (c-1) to 24 (c-). The part image data PD1, PD2, PD3 shown in 3) are used. The base still image data BD1 to BD3 are image data for displaying the color change effect character CH1. The part image data PD1 to PD3 are image data for overwriting the color change target area CR in the color change effect character CH1 by the base still image data BD1 to BD3, and are for adding the effect image EG1 for the color change effect. It is the image data of. After drawing the base still image data BD1 to BD3 shown in FIGS. 24 (b-1) to 24 (b-3) in the frame areas 82a and 82b to be drawn, FIGS. 24 (c-1) to 24 (c-1) to FIG. 24 ( By drawing the part image data PD1 to PD3 shown in c-3), as shown in FIGS. 24 (a-1) to 24 (a-3), a color change effect is produced on the display surface P of the symbol display device 41. The character CH1 is displayed and the display color of the color change target area CR is changed according to the situation.

以下、色替え演出を実行するための具体的な構成を説明する。まず色替え演出を実行するためのデータ構成について説明する。図25(a)は色替え演出を実行するためのメモリモジュール74のデータ構成を説明するための説明図である。図25(a)に示すように、メモリモジュール74には、ベース静止画像データBD1〜BD3の導出を可能とするためのベース動画データBMDと、第1〜第nパーツ画像データPD1〜PD3と、カラーパレットデータ群CPとが予め記憶されている。 Hereinafter, a specific configuration for executing the color change effect will be described. First, the data structure for executing the color change effect will be described. FIG. 25A is an explanatory diagram for explaining the data structure of the memory module 74 for executing the color change effect. As shown in FIG. 25 (a), the memory module 74 includes base moving image data BMD for enabling derivation of base still image data BD1 to BD3, first to nth part image data PD1 to PD3, and the like. The color palette data group CP is stored in advance.

ベース動画データBMDは、1フレーム分の静止画像データを基準として複数の差分データを有するようにフレーム間圧縮されて例えばMPEG2方式で符号化された画像データである。ベース動画データBMDがデコードされた場合には、複数フレーム分の静止画像データに展開される。詳細には、ベース動画データBMDは、最初のアドレスにファイルデータが設定され、それに続けて各フレームの圧縮データが設定されている。なお、各フレームの圧縮データにはフレームヘッダが付随している。圧縮データは、基準データに相当する1フレーム分のIピクチャデータと、第1の差分データに相当する複数フレーム分のPピクチャデータと、第2の差分データに相当する複数フレーム分のBピクチャデータと、を有している。Iピクチャデータは、復号に際して、当該データ単独で1フレーム分の静止画像データを作成することができるデータである。Pピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータを参照して前方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。Bピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータと、1フレーム又は複数フレーム後のIピクチャデータ若しくはPピクチャデータとを参照して双方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。ベース動画データBMDの圧縮データでは、1フレーム目のデータとしてIピクチャデータが設定されている。また、2フレーム目,・・,m―1フレーム目のデータとしてBピクチャデータが設定されている。また、mフレーム目のデータとしてPピクチャデータが設定されている。また、m+1フレーム目,・・,n―1フレーム目のデータとしてBピクチャデータが設定されている。また、nフレーム目のデータとしてPピクチャデータが設定されている。なお、ピクチャデータの配列パターンは上記のものに限定されることはなく任意である。 The base moving image data BMD is image data that is compressed between frames so as to have a plurality of difference data with reference to still image data for one frame, and is encoded by, for example, the MPEG2 method. When the base moving image data BMD is decoded, it is expanded into still image data for a plurality of frames. Specifically, in the base moving image data BMD, file data is set at the first address, and then compressed data of each frame is set. A frame header is attached to the compressed data of each frame. The compressed data includes I picture data for one frame corresponding to the reference data, P picture data for a plurality of frames corresponding to the first difference data, and B picture data for a plurality of frames corresponding to the second difference data. And have. The I-picture data is data that can create one frame of still image data by itself at the time of decoding. The P-picture data is data capable of creating still image data for one frame by performing forward prediction with reference to the I-picture data or P-picture data one frame or a plurality of frames before decoding. .. The B picture data is bidirectionally predicted by referring to the I picture data or P picture data one frame or a plurality of frames before and the I picture data or P picture data one frame or a plurality of frames after the decoding. It is data that can create still image data for one frame. In the compressed data of the base moving image data BMD, I picture data is set as the data of the first frame. Further, B picture data is set as the data of the second frame, ..., The m-1th frame. Further, P picture data is set as the data of the mth frame. Further, B picture data is set as the data of the m + 1 frame, ..., The n-1 frame. Further, P picture data is set as the data of the nth frame. The arrangement pattern of the picture data is not limited to the above and is arbitrary.

ベース動画データBMDを展開することで作成されたベース静止画像データBD1〜BD3の数は、色替え演出の実行期間に含まれる全てのフレーム分となっている。ベース静止画像データBD1〜BD3は、図24(b−1)〜図24(b−3)に示すように、色替え演出用キャラクタCH1のみを表示する画像データである。全てのベース静止画像データBD1〜BD3を利用することにより、色替え演出用キャラクタCH1が所定の動作経路に従って動作を行っているような動画を表示することが可能である。また、ベース静止画像データBD1〜BD3の各ピクセルにはRGBのそれぞれについて1バイト分の色情報が設定されているとともに、不透明のα値が設定されている。 The number of base still image data BD1 to BD3 created by expanding the base moving image data BMD is for all the frames included in the execution period of the color change effect. As shown in FIGS. 24 (b-1) to 24 (b-3), the base still image data BD1 to BD3 are image data for displaying only the color change effect character CH1. By using all the base still image data BD1 to BD3, it is possible to display a moving image in which the color change effect character CH1 is operating according to a predetermined operation path. Further, each pixel of the base still image data BD1 to BD3 is set with one byte of color information for each of RGB, and an opaque α value is set.

第1〜第nパーツ画像データPD1〜PD3は、ベース静止画像データBD1〜BD3と1対1で対応するようにベース静止画像データBD1〜BD3と同じ数設けられている。第1〜第nパーツ画像データPD1〜PD3は、図24(c−1)〜図24(c−3)に示すように、対応するベース静止画像データBD1〜BD3による色替え演出用キャラクタCH1における色替え対象領域CRと同じ位置、形状及びサイズの色替え対象領域CRを表示することが可能なように設定されている。この場合、各パーツ画像データPD1〜PD3は、複数の色替え対象領域CRが離れた位置にて表示されるようにデータの設定がなされているが、それら複数の色替え対象領域CRをまとめて一の画像データとして扱うことが可能なように、複数の色替え対象領域CRの間を埋める枠領域FRのデータが設定されている。枠領域FRの各ピクセルには色情報が設定されておらずさらに完全透明のα値が設定されている。その一方、色替え対象領域CRの各ピクセルには1バイト分の色情報が設定されているものの、α値は設定されていない。したがって、ベース静止画像データBD1〜BD3に対してパーツ画像データPD1〜PD3を上書きした場合、色替え対象領域CRについてはパーツ画像データPD1〜PD3による画像が表示されることとなるが、その他の領域についてはベース静止画像データBD1〜BD3による画像がそのまま表示される。 The first to nth parts image data PD1 to PD3 are provided in the same number as the base still image data BD1 to BD3 so as to have a one-to-one correspondence with the base still image data BD1 to BD3. As shown in FIGS. 24 (c-1) to 24 (c-3), the first to nth parts image data PD1 to PD3 are in the color change effect character CH1 by the corresponding base still image data BD1 to BD3. It is set so that the color change target area CR having the same position, shape, and size as the color change target area CR can be displayed. In this case, the data of each part image data PD1 to PD3 are set so that a plurality of color change target area CRs are displayed at distant positions, but the plurality of color change target area CRs are collectively displayed. The data of the frame area FR that fills the space between the plurality of color change target areas CR is set so that it can be treated as one image data. Color information is not set for each pixel of the frame area FR, and a completely transparent α value is set. On the other hand, although one byte of color information is set for each pixel of the color change target area CR, the α value is not set. Therefore, when the part image data PD1 to PD3 are overwritten on the base still image data BD1 to BD3, the image by the part image data PD1 to PD3 is displayed for the color change target area CR, but other areas. As for, the images based on the base still image data BD1 to BD3 are displayed as they are.

パーツ画像データPD1〜PD3のうち色替え演出の終了側の途中タイミングのフレームから終了タイミングのフレームまでの複数フレーム分のパーツ画像データには、図24(c)に示すように、。色替え対象領域CRのみではなく、色替え演出用エフェクト画像EG1を表示するためのデータが設定されている。当該色替え演出用エフェクト画像EG1を表示するための各ピクセルには1バイト分の色情報が設定されているとともに半透明の値とされたα値が設定されている。かかるパーツ画像データをベース静止画像データに対して上書きした場合、色替え演出用キャラクタCH1において色替え対象領域CRが上書きされるだけでなく、図24(a−3)に示すように色替え演出用キャラクタCH1の周囲に半透明となった色替え演出用エフェクト画像EG1が表示されることとなる。そして、このように色替え演出用エフェクト画像EG1が表示された状態は、終了タイミングのフレームまでの複数フレームに亘って継続される。 As shown in FIG. 24C, the part image data for a plurality of frames from the intermediate timing frame to the end timing frame on the end side of the color change effect among the part image data PD1 to PD3. Data for displaying not only the color change target area CR but also the effect image EG1 for color change effect is set. One byte of color information is set for each pixel for displaying the effect image EG1 for color change effect, and an α value which is a translucent value is set. When the part image data is overwritten on the base still image data, not only the color change target area CR is overwritten in the color change effect character CH1, but also the color change effect is shown as shown in FIG. 24 (a-3). A semi-transparent effect image EG1 for color change effect is displayed around the character CH1. Then, the state in which the effect image EG1 for color change effect is displayed in this way continues over a plurality of frames up to the frame at the end timing.

カラーパレットデータ群CPには、各パーツ画像データPD1〜PD3における色替え対象領域CRの色情報に対して適用する表示色を指定するためのカラーパレットCP1,CP2が複数含まれている。カラーパレットCP1,CP2はパーツ画像データPD1〜PD3の各ピクセルに設定され得るデータの全てに1対1で対応させて色情報が定められたテーブルデータであり、使用対象となっているカラーパレットCP1,CP2を参照することで各ピクセルに設定されているデータに対応した色情報が導出される。 The color palette data group CP includes a plurality of color palettes CP1 and CP2 for designating a display color to be applied to the color information of the color change target area CR in each part image data PD1 to PD3. The color palettes CP1 and CP2 are table data in which color information is determined by one-to-one correspondence with all the data that can be set for each pixel of the parts image data PD1 to PD3, and the color palette CP1 to be used is used. , CP2 is used to derive the color information corresponding to the data set for each pixel.

図25(b−1)及び図25(b−2)に示すように、各カラーパレットCP1,CP2はそれぞれ異なる色が基調となるようにデータが設定されている。例えば、図25(b−1)のカラーパレットCP1の場合には赤色が基調となっており、図25(b−2)のカラーパレットCP2の場合には緑色が基調となっている。したがって、図25(b−1)のカラーパレットCP1が適用された場合には各パーツ画像データPD1〜PD3による色替え対象領域CRは赤色が基調となり、図25(b−1)のカラーパレットCP1が適用された場合には各パーツ画像データPD1〜PD3による色替え対象領域CRは緑色が基調となる。カラーパレットCP1,CP2は色情報と表示色との関係のみが定められたデータであるため、一のカラーパレットCP1,CP2のデータ容量は一のパーツ画像データPD1〜PD3のデータ容量よりも小さく、さらにはカラーパレットデータ群CPに含まれる全てのカラーパレットCP1,CP2のデータ容量の合計は一のパーツ画像データPD1〜PD3のデータ容量よりも小さい。さらにまた、色替え対象領域CRの表示色が3種類以上設定されている構成において、パーツ画像データPD1〜PD3の全てのデータ容量とカラーパレットCP1,CP2の全てのデータ容量との和は、ベース動画データBMDのデータ容量を2倍した分のデータ容量よりも小さい。これにより、色替え対象領域CRの表示色の種類分、ベース動画データBMDを用意する構成に比べて、画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。 As shown in FIGS. 25 (b-1) and 25 (b-2), the data of each color palette CP1 and CP2 are set so that different colors are used as the base color. For example, the color palette CP1 shown in FIG. 25 (b-1) is based on red, and the color palette CP2 shown in FIG. 25 (b-2) is based on green. Therefore, when the color palette CP1 of FIG. 25 (b-1) is applied, the color change target area CR by each part image data PD1 to PD3 is based on red, and the color palette CP1 of FIG. 25 (b-1) is used. When is applied, the color change target area CR by each part image data PD1 to PD3 is based on green. Since the color palettes CP1 and CP2 are data in which only the relationship between the color information and the display color is defined, the data capacity of one color palette CP1 and CP2 is smaller than the data capacity of one part image data PD1 to PD3. Further, the total data capacity of all the color palettes CP1 and CP2 included in the color palette data group CP is smaller than the data capacity of one part image data PD1 to PD3. Furthermore, in a configuration in which three or more types of display colors of the color change target area CR are set, the sum of all the data capacities of the part image data PD1 to PD3 and all the data capacities of the color palettes CP1 and CP2 is the base. It is smaller than the data capacity of double the data capacity of the moving image data BMD. As a result, it is possible to reduce the data capacity required for storing the image data in advance, as compared with the configuration in which the base moving image data BMD is prepared for the type of display color of the color change target area CR.

以下、上記色替え演出を実行するための具体的な処理構成を説明する。図26は、表示CPU72にて実行される色替え演出用の演算処理を示すフローチャートである。色替え演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。また、当該色替え演出用の演算処理は、現状設定されている実行対象テーブルにおいて色替え演出についての情報が設定されている場合に起動される。 Hereinafter, a specific processing configuration for executing the color change effect will be described. FIG. 26 is a flowchart showing an arithmetic process for color change effect executed by the display CPU 72. The calculation process for the color change effect is executed in the effect calculation process of step S909 in the task process (FIG. 19). In addition, the arithmetic processing for the color change effect is started when the information about the color change effect is set in the currently set execution target table.

色替え演出の開始タイミングとなっている場合(ステップS1201:YES)、メモリモジュール74におけるベース動画データBMDと第1〜第nパーツ画像データPD1〜PD3との各アドレスを把握する(ステップS1202及びステップS1203)。また、今回の実行対象テーブルにおいて設定されている表示色に対応したカラーパレットCP1,CP2のメモリモジュール74におけるアドレスを把握する(ステップS1204)。その後、ステップS1205にて色替え演出を開始すべきことをVDP76に認識させるための色替え演出開始指定情報を表示CPU72のレジスタに記憶する。 When it is the start timing of the color change effect (step S1201: YES), the addresses of the base moving image data BMD and the first to nth part image data PD1 to PD3 in the memory module 74 are grasped (step S1202 and step). S1203). Further, the addresses in the memory modules 74 of the color palettes CP1 and CP2 corresponding to the display colors set in the execution target table this time are grasped (step S1204). After that, the color change effect start designation information for causing the VDP 76 to recognize that the color change effect should be started in step S1205 is stored in the register of the display CPU 72.

ステップS1201にて否定判定をした場合、又はステップS1205の処理を実行した場合、実行対象テーブルにおいて現状のポインタ情報に設定されている今回のフレーム番号に対応した各種アドレスを把握する(ステップS1206)。具体的には、ベース動画データBMDをデコードして複数フレーム分のベース静止画像データBD1〜BD3がVRAM75の展開用バッファ81に展開されている場合において、今回のフレーム番号に対応したベース静止画像データBD1〜BD3が格納されているエリアのアドレスと、VRAM75の展開用バッファ81において今回のフレーム番号に対応したパーツ画像データPD1〜PD3が格納されているエリアのアドレスと、VRAM75の展開用バッファ81において今回の表示色に対応したカラーパレットCP1,CP2が格納されているエリアのアドレスと、を把握する。 When a negative determination is made in step S1201 or when the process of step S1205 is executed, various addresses corresponding to the current frame numbers set in the current pointer information in the execution target table are grasped (step S1206). Specifically, when the base moving image data BMD is decoded and the base still image data BD1 to BD3 for a plurality of frames are expanded in the expansion buffer 81 of the VRAM 75, the base still image data corresponding to the current frame number is used. In the address of the area where BD1 to BD3 are stored, the address of the area where the part image data PD1 to PD3 corresponding to the frame number of this time are stored in the expansion buffer 81 of the VRAM 75, and the expansion buffer 81 of the VRAM 75. Grasp the address of the area where the color palettes CP1 and CP2 corresponding to the display color this time are stored.

続くステップS1207では、今回の使用対象となるベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3の各種パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれらベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS1208にて、色替え演出を実行すべきことをVDP76に認識させるための色替え演出指定情報を表示CPU72のレジスタに記憶する。 In the following step S1207, various parameter information of the base still image data BD1 to BD3 and the part image data PD1 to PD3 to be used this time is calculated and derived, and the derived parameter information is used in the work RAM 73 as these base still image data. The control information is updated by writing in the area secured corresponding to BD1 to BD3 and part image data PD1 to PD3. After that, in step S1208, the color change effect designation information for causing the VDP 76 to recognize that the color change effect should be executed is stored in the register of the display CPU 72.

上記のように色替え演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレーム番号に対応したベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3が描画対象として設定されるとともに、今回の表示色に対応したカラーパレットCP1,CP2が使用対象として設定される。また、当該描画リストには、ベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3に適用するパラメータ情報が設定されるとともに、色替え演出指定情報が設定される。なお、色替え演出の開始タイミングである場合には色替え演出開始指定情報が設定される。 When the arithmetic processing for the color change effect is executed as described above, the drawing list transmitted to the VDP 76 in the subsequent drawing list output processing (step S609) includes the base still image data BD1 corresponding to the current frame number. ~ BD3 and part image data PD1 to PD3 are set as drawing targets, and the color palettes CP1 and CP2 corresponding to the current display color are set as usage targets. Further, in the drawing list, parameter information applied to the base still image data BD1 to BD3 and the part image data PD1 to PD3 is set, and color change effect designation information is set. When it is the start timing of the color change effect, the color change effect start designation information is set.

次に、VDP76にて実行される色替え演出用の設定処理及び色替え演出用の書き込み処理について説明する。色替え演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行され、色替え演出用の書き込み処理は、描画処理(図23)のステップS1105にて実行される書き込み処理の一部の処理として実行される。また、描画リストにおいて色替え演出指定情報が設定されている場合に、これら色替え演出用の設定処理及び色替え演出用の書き込み処理が実行される。ここで、描画リストでは、色替え演出指定情報が演出用の画像データに関連付けて設定されているため、色替え演出用の設定処理及び色替え演出用の書き込み処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。 Next, the setting process for the color change effect and the write process for the color change effect executed by the VDP 76 will be described. The setting process for the color change effect is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23), and the writing process for the color change effect is the drawing process (FIG. 23). It is executed as a part of the writing process executed in step S1105 of the above. Further, when the color change effect designation information is set in the drawing list, the setting process for the color change effect and the write process for the color change effect are executed. Here, in the drawing list, since the color change effect designation information is set in association with the image data for the effect, the setting process for the color change effect and the write process for the color change effect are included in the drawing list of this time. , It is activated when the drawing order of the image data for production is reached.

図27は色替え演出用の設定処理を示すフローチャートである。 FIG. 27 is a flowchart showing the setting process for the color change effect.

今回の描画リストに色替え演出開始指定情報が設定されている場合(ステップS1301:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74においてベース動画データBMDが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からベース動画データBMDをVRAM75の展開用バッファ81に読み出す(ステップS1302)。そして、動画デコーダ93を利用してベース動画データBMDのデコード処理を実行する(ステップS1303)。これにより、展開用バッファ81に設けられたベース動画用エリアにベース静止画像データBD1〜BD3の全てが展開されて記憶保持される。 When the color change effect start designation information is set in the drawing list this time (step S1301: YES), the base moving image data BMD is stored in the memory module 74 from the information of the address set in the drawing list. The address of the area is grasped, and the base moving image data BMD is read from the memory module 74 into the expansion buffer 81 of the VRAM 75 based on the grasped result (step S1302). Then, the video decoder 93 is used to execute the decoding process of the base video data BMD (step S1303). As a result, all of the base still image data BD1 to BD3 are expanded and stored in the base moving image area provided in the expansion buffer 81.

その後、ステップS1304にて、描画リストに設定されているアドレスの情報から、メモリモジュール74において第1〜第nパーツ画像データPD1〜PD3が記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74から第1〜第nパーツ画像データPD1〜PD3の全てを、VRAM75の展開用バッファ81に設けられたパーツ画像用エリアに読み出す。また、ステップS1305にて、描画リストに設定されているアドレスの情報から、今回の表示色に対応したカラーパレットCP1,CP2が記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からそのカラーパレットCP1,CP2を、VRAM75の展開用バッファ81に設けられたパレット用エリアに読み出す。 After that, in step S1304, the address of the area where the first to nth parts image data PD1 to PD3 are stored in the memory module 74 is grasped from the information of the address set in the drawing list, and the grasping result is obtained. Based on this, all of the first to nth part image data PD1 to PD3 are read from the memory module 74 into the part image area provided in the expansion buffer 81 of the VRAM 75. Further, in step S1305, the address of the area where the color palettes CP1 and CP2 corresponding to the current display color are stored is grasped from the address information set in the drawing list, and the memory module is based on the grasped result. The color palettes CP1 and CP2 are read from 74 into a palette area provided in the expansion buffer 81 of the VRAM 75.

ステップS1301にて否定判定をした場合、又はステップS1305の処理を実行した場合、ステップS1306にて、今回の設定対象のベース静止画像データBD1〜BD3が格納されているアドレスの情報を描画リストから把握するとともに、ステップS1307にて、今回の設定対象のパーツ画像データPD1〜PD3が格納されているアドレスの情報を描画リストから把握する。また、ステップS1308にて、これらベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3のパラメータ情報を描画リストに設定されている情報から把握する。 When a negative determination is made in step S1301 or when the process of step S1305 is executed, in step S1306, the information of the address where the base still image data BD1 to BD3 to be set this time are stored is grasped from the drawing list. At the same time, in step S1307, the information of the address where the part image data PD1 to PD3 to be set this time are stored is grasped from the drawing list. Further, in step S1308, the parameter information of the base still image data BD1 to BD3 and the part image data PD1 to PD3 is grasped from the information set in the drawing list.

図28は色替え演出用の書き込み処理を示すフローチャートである。 FIG. 28 is a flowchart showing a writing process for color change effect.

まず描画対象のフレーム領域82a,82bに対して、今回の描画対象のベース静止画像データBD1〜BD3を描画する。この描画は、描画対象のフレーム領域82a,82bにおいて描画リストにて指定された座標を基準にして行う(ステップS1401)。 First, the base still image data BD1 to BD3 to be drawn this time are drawn with respect to the frame areas 82a and 82b to be drawn. This drawing is performed with reference to the coordinates specified in the drawing list in the frame areas 82a and 82b to be drawn (step S1401).

その後、ステップS1402〜ステップS1406にて、今回の描画対象のパーツ画像データPD1〜PD3を今回の表示色に対応したカラーパレットPD1,PD2に従って、描画対象のフレーム領域82a,82bにおいてベース静止画像データBD1〜BD3が描画された各ドットに上書きする。 After that, in steps S1402 to S1406, the part image data PD1 to PD3 to be drawn this time are subjected to the base still image data BD1 in the frame areas 82a and 82b to be drawn according to the color palettes PD1 and PD2 corresponding to the display color this time. ~ BD3 overwrites each drawn dot.

具体的には、まずステップS1402にて、今回の描画対象のパーツ画像データPD1〜PD3におけるピクセルの総数に対応した値をレジスタ92に設けられた書き込み処理カウンタにセットする。その後、ステップS1403にて、今回の描画対象のパーツ画像データPD1〜PD3において現状の書き込み処理カウンタの値に対応したピクセルに設定されているデータに対応する色情報を、今回の表示色に対応したカラーパレットPD1,PD2から読み出す。ステップS1404では、ステップS1403にて読み出した色情報を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに上書きする。 Specifically, first, in step S1402, a value corresponding to the total number of pixels in the part image data PD1 to PD3 to be drawn this time is set in the write processing counter provided in the register 92. After that, in step S1403, the color information corresponding to the data set in the pixels corresponding to the value of the current write processing counter in the part image data PD1 to PD3 to be drawn this time corresponds to the display color this time. Read from the color palettes PD1 and PD2. In step S1404, the color information read in step S1403 is overwritten with dots corresponding to the values of the current write processing counter in the frame areas 82a and 82b to be drawn.

ちなみに、今回のピクセルが色替え対象領域CR又は色替え演出用エフェクト画像EG1以外である枠領域FRに対応している場合には、いずれのカラーパレットPD1,PD2であったとしても無色の色情報が選択されるとともにその色情報が完全透明となるようにして上書きされる。この場合、描画対象のフレーム領域82a,82bに書き込まれているベース静止画像データBD1〜BD3の色情報は変更されることなく維持される。また、今回のピクセルが色替え対象領域CRに対応している場合には、今回の表示色を基調とした色情報が不透明として上書きされる。また、今回のピクセルが色替え演出用エフェクト画像EG1に対応している場合には、当該エフェクト画像EG1に対応した色情報が半透明として上書きされる。 By the way, when the pixel of this time corresponds to the frame area FR other than the color change target area CR or the effect image EG1 for color change effect, colorless color information regardless of which color palette PD1 or PD2 is used. Is selected and the color information is overwritten so that it becomes completely transparent. In this case, the color information of the base still image data BD1 to BD3 written in the frame areas 82a and 82b to be drawn is maintained without being changed. Further, when the pixel of this time corresponds to the color change target area CR, the color information based on the display color of this time is overwritten as opaque. Further, when the pixel of this time corresponds to the effect image EG1 for color change effect, the color information corresponding to the effect image EG1 is overwritten as semi-transparent.

その後、ステップS1405にてレジスタ92の書き込み処理カウンタの値を1減算し、ステップS1406にてその減算後における書き込み処理カウンタの値が「0」となっているか否かを判定する。「0」となっていない場合には減算後の書き込み処理カウンタの値に対応したピクセルの書き込み処理を実行し、「0」となっている場合にはそのまま本色替え演出用の書き込み処理を終了する。 After that, in step S1405, the value of the write processing counter of the register 92 is subtracted by 1, and in step S1406, it is determined whether or not the value of the write processing counter after the subtraction is "0". If it is not "0", the pixel writing process corresponding to the value of the write processing counter after subtraction is executed, and if it is "0", the writing process for this color change effect is terminated as it is. ..

色替え演出用キャラクタCH1を表示するための画像データとして、ベース動画データBMDとは別にパーツ画像データPD1〜PD3が設けられており、ベース動画データBMDをデコードすることにより得られたベース静止画像データBD1〜BD3に対してパーツ画像データPD1〜PD3を上書きするとともに当該パーツ画像データPD1〜PD3に適用するカラーパレットPD1,PD2の種類を変更することにより、同一のベース動画データBMDを利用しながら色替え演出用キャラクタCH1の色替え対象領域CRの表示色を変更することが可能となる。これにより、色替え対象領域CRの表示色の種類分、ベース動画データBMDを用意する構成に比べて、画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。 As image data for displaying the character CH1 for color change effect, parts image data PD1 to PD3 are provided separately from the base video data BMD, and the base still image data obtained by decoding the base video data BMD. By overwriting the part image data PD1 to PD3 for BD1 to BD3 and changing the types of the color palettes PD1 and PD2 applied to the part image data PD1 to PD3, the colors are used while using the same base video data BMD. It is possible to change the display color of the color change target area CR of the change effect character CH1. As a result, it is possible to reduce the data capacity required for storing the image data in advance, as compared with the configuration in which the base moving image data BMD is prepared for the type of display color of the color change target area CR.

パーツ画像データPD1〜PD3は、ベース動画データBMDをデコードすることにより得られるベース静止画像データBD1〜BD3と1対1で対応させて設けられている。これにより、ベース動画データBMDによる画像の表示期間の全体に亘って、色替え演出用キャラクタCH1の色替え対象領域CRの表示色を所定の色に設定することが可能となる。 The part image data PD1 to PD3 are provided in a one-to-one correspondence with the base still image data BD1 to BD3 obtained by decoding the base moving image data BMD. As a result, the display color of the color change target area CR of the color change effect character CH1 can be set to a predetermined color over the entire display period of the image by the base moving image data BMD.

パーツ画像データPD1〜PD3に適用するカラーパレットPD1,PD2を変更することにより色替え対象領域CRの表示色を変更する構成である。これにより、変更可能な表示色の数分、パーツ画像データPD1〜PD3の組合せを予め用意する構成に比べて、画像データを記憶するために必要なデータ容量を抑えることが可能となる。 The display color of the color change target area CR is changed by changing the color palettes PD1 and PD2 applied to the part image data PD1 to PD3. As a result, it is possible to reduce the data capacity required for storing the image data as compared with the configuration in which the combination of the part image data PD1 to PD3 is prepared in advance by the number of changeable display colors.

ベース動画データBMDをデコードすることにより得られるベース静止画像データBD1〜BD3には色情報が設定されているものの完全透明又は半透明となるα値は設定されていない。完全透明又は半透明となるα値が設定された静止画像データを動画データとして圧縮するとα値が差分データに悪影響を及ぼし画質が劣化してしまうおそれがあるが、ベース静止画像データBD1〜BD3として完全透明又は半透明となるα値が設定されていないことにより、このような画質の劣化を生じさせないようにしながら画像データを圧縮することが可能となる。同様に、完全透明又は半透明のα値が色情報とともに設定されたパーツ画像データPD1〜PD3は動画データとして圧縮されるのではなく静止画像データとして用意されている。これにより、パーツ画像データPD1〜PD3についても画質の劣化を生じさせないようにすることが可能となる。 Although the color information is set in the base still image data BD1 to BD3 obtained by decoding the base moving image data BMD, the α value that becomes completely transparent or translucent is not set. If still image data with an α value set to be completely transparent or translucent is compressed as moving image data, the α value may adversely affect the difference data and the image quality may deteriorate, but as the base still image data BD1 to BD3 Since the α value that is completely transparent or translucent is not set, it is possible to compress the image data while preventing such deterioration of image quality. Similarly, the part image data PD1 to PD3 in which the completely transparent or translucent α value is set together with the color information are prepared as still image data instead of being compressed as moving image data. This makes it possible to prevent deterioration of the image quality of the part image data PD1 to PD3.

色替え演出の終了側の途中タイミングのフレームから終了タイミングのフレームまでの複数フレーム分のパーツ画像データPD3には、色替え演出用エフェクト画像EG1を表示するためのデータが設定されている。色替え演出用エフェクト画像EG1のデータは色情報だけでなく半透明のα値が設定されたデータであるため、このようなデータをベース動画データBMDとして圧縮すると、α値が差分データに悪影響を及ぼし画質が劣化してしまうおそれがある。これに対して、静止画像データであるパーツ画像データPD3に対して色替え演出用エフェクト画像EG1のデータが設定されていることにより、色替え演出用エフェクト画像EG1を表示する場合における画質を良好なものとすることが可能となる。 Data for displaying the effect image EG1 for the color change effect is set in the part image data PD3 for a plurality of frames from the frame of the intermediate timing on the end side of the color change effect to the frame of the end timing. Since the data of the effect image EG1 for color change effect is not only the color information but also the data in which the semi-transparent α value is set, if such data is compressed as the base moving image data BMD, the α value adversely affects the difference data. There is a risk that the image quality will deteriorate. On the other hand, since the data of the effect image EG1 for color change effect is set for the part image data PD3 which is still image data, the image quality when displaying the effect image EG1 for color change effect is good. It becomes possible to make it.

<色替え演出に係る構成の別形態>
・動画データをデコードすることにより作成された複数の静止画像データに対して他の画像データを重ねて設定することで追加される画像の内容は、動画データにより表示されるキャラクタの一部の領域の画像である構成に限定されることはなく、動画データにより表示されるキャラクタとは別のキャラクタが追加される構成としてもよい。この場合、動画データにおいてキャラクタが所定の動作を行うような動画表示が行われるとともに、動画データによる静止画像データに追加される画像データによって上記別のキャラクタが所定の動作を行うように動画表示が行われる構成としてもよい。
<Another form of configuration related to color change production>
-The content of the image added by superimposing other image data on multiple still image data created by decoding the moving image data is a part of the character area displayed by the moving image data. The configuration is not limited to the image of the above, and a character different from the character displayed by the moving image data may be added. In this case, the moving image is displayed so that the character performs a predetermined operation in the moving image data, and the moving image is displayed so that the other character performs a predetermined operation by the image data added to the still image data by the moving image data. It may be a configuration to be performed.

・動画データをデコードすることにより作成された複数の静止画像データに対して他の画像データを重ねて設定することで動画データにより表示される画像に対して当該他の画像データに対応する画像が追加される構成において、当該他の画像データが複数設けられていることで追加される画像の内容が変更される構成に代えて、動画データにより作成される複数の静止画像データに対して同一の画像データを重ねて設定することで動画データにより作成される動画表示に対して同一の静止画像が追加される構成としてもよい。 -By superimposing other image data on a plurality of still image data created by decoding the moving image data, an image corresponding to the other image data can be displayed on the image displayed by the moving image data. In the configuration to be added, instead of the configuration in which the content of the image to be added is changed by providing a plurality of the other image data, the same is applied to the plurality of still image data created by the moving image data. The same still image may be added to the moving image display created by the moving image data by superimposing the image data.

・パーツ画像データPD1〜PD3が静止画像データとしてそのまま記憶されている構成に限定されることはなく、パーツ画像データPD1〜PD3が動画データとして圧縮させて設けられている構成としてもよい。この場合、色替え演出を行う場合には、ベース動画データBMDと、パーツ画像データPD1〜PD3に対応する動画データとの両方をデコードし、ベース動画データBMDをデコードすることにより作成した静止画像データに対して後者の動画データをデコードすることにより作成した静止画像データを重ねて設定する必要がある。 -The configuration is not limited to the configuration in which the part image data PD1 to PD3 are stored as they are as still image data, and the configuration may be such that the part image data PD1 to PD3 are compressed as moving image data. In this case, when performing a color change effect, both the base video data BMD and the video data corresponding to the parts image data PD1 to PD3 are decoded, and the still image data created by decoding the base video data BMD. On the other hand, it is necessary to superimpose and set the still image data created by decoding the latter moving image data.

・ベース動画データBMDをデコードすることにより作成される静止画像データと1対1で対応させてパーツ画像データPD1〜PD3が設けられている構成に限定されることはなく、ベース動画データBMDをデコードすることにより作成される静止画像データの方がパーツ画像データPD1〜PD3よりも多い構成としてもよい。この場合、所定の複数の更新タイミングにおいては同一のパーツ画像データPD1〜PD3がベース動画データBMDから作成された各静止画像データに適用されることとなる。例えば色替え対象領域CRの表示位置、形状及びサイズが複数の更新タイミングに対して1回のみ変更される構成においては、その変更タイミングの数分、パーツ画像データPD1〜PD3を設ける構成としてもよい。これにより、パーツ画像データPD1〜PD3の数を抑えることが可能となる。また、ベース動画データBMDをデコードすることにより作成される静止画像データよりもパーツ画像データPD1〜PD3の方が多い構成としてもよい。この場合、ベース動画データBMDから作成された同一の静止画像データに対して異なるパーツ画像データPD1〜PD3を設定することが可能となり、色替え演出用キャラクタCH1を静止させた状態で色替え対象領域CRを移動させたり変形させたりすることが可能となる。 -The configuration is not limited to the configuration in which the part image data PD1 to PD3 are provided in a one-to-one correspondence with the still image data created by decoding the base video data BMD, and the base video data BMD is decoded. The still image data created by the above may be configured to have more than the part image data PD1 to PD3. In this case, the same part image data PD1 to PD3 are applied to each still image data created from the base moving image data BMD at a plurality of predetermined update timings. For example, in a configuration in which the display position, shape, and size of the color change target area CR are changed only once for a plurality of update timings, the parts image data PD1 to PD3 may be provided for the number of the change timings. .. This makes it possible to reduce the number of part image data PD1 to PD3. Further, the component image data PD1 to PD3 may have more parts than the still image data created by decoding the base moving image data BMD. In this case, different part image data PD1 to PD3 can be set for the same still image data created from the base moving image data BMD, and the color change target area can be set while the color change effect character CH1 is stationary. It is possible to move or deform the CR.

・ベース動画データBMDによる動画表示が行われる期間の各更新タイミングにおいて当該ベース動画データBMDから作成される静止画像データに対して適用されるパーツ画像データPD1〜PD3は1個のみである構成に限定されることはなく、一の更新タイミングにおいて2個以上のパーツ画像データが適用される構成としてもよい。 -Limited to a configuration in which only one part image data PD1 to PD3 is applied to the still image data created from the base video data BMD at each update timing of the period during which the video is displayed by the base video data BMD. It may be configured in which two or more part image data are applied at one update timing.

<エフェクト演出を行うための構成>
次に、エフェクト演出を行うための構成について、図29を参照しながら説明する。図29(a)〜図29(e)はエフェクト演出を説明するための説明図である。
<Structure for producing effects>
Next, the configuration for performing the effect effect will be described with reference to FIG. 29. 29 (a) to 29 (e) are explanatory views for explaining the effect effect.

エフェクト演出とは、図29(a)に示すように、エフェクト演出用キャラクタCH2の動画表示が行われている状況でエフェクト演出用キャラクタCH2に表示面Pの手前から重なるようにしてエフェクト画像EG2が表示される演出である。エフェクト画像EG2として具体的には、煙を表す画像が表示される。 As shown in FIG. 29A, the effect effect means that the effect image EG2 overlaps the effect effect character CH2 from the front of the display surface P in a situation where the effect effect character CH2 is displayed as a moving image. This is the effect that is displayed. Specifically, as the effect image EG2, an image representing smoke is displayed.

エフェクト演出用キャラクタCH2を表示させるための画像データとして、メモリモジュール74にはキャラクタ用静止画像データSDが予め記憶されている。キャラクタ用静止画像データSDは、エフェクト演出の実行期間においてエフェクト演出用キャラクタCH2が所定の動作を行うことが可能なように複数設けられている。キャラクタ用静止画像データSDは、図29(b)に示すように、個別画像としてエフェクト演出用キャラクタCH2を表示するためのデータと、キャラクタ用静止画像データSDによる画像を矩形状の画像として扱うことを可能とするためにエフェクト演出用キャラクタCH2の周囲を囲むように設定された枠領域FR1のデータとを備えている。 As image data for displaying the effect effect character CH2, the character still image data SD is stored in advance in the memory module 74. A plurality of character still image data SDs are provided so that the effect effect character CH2 can perform a predetermined operation during the effect effect execution period. As shown in FIG. 29B, the character still image data SD handles the data for displaying the effect effect character CH2 as individual images and the image by the character still image data SD as a rectangular image. It is provided with the data of the frame area FR1 set so as to surround the periphery of the effect effect character CH2 in order to enable the above.

エフェクト画像EG2を表示させるための画像データとして、メモリモジュール74にはエフェクト用画像データED1が予め記憶されている。エフェクト用画像データED1はエフェクト演出の実行期間においてエフェクト画像EG2が所定の態様で変化することが可能なように複数設けられている。エフェクト用画像データED1は、図29(c)に示すように、個別画像としてエフェクト画像EG2を表示するためのデータと、エフェクト用画像データED1による画像を矩形状の画像として扱うことを可能とするためにエフェクト画像EG2の周囲を囲むように設定された枠領域FR2のデータとを備えている。 As image data for displaying the effect image EG2, the effect image data ED1 is stored in advance in the memory module 74. A plurality of effect image data ED1s are provided so that the effect image EG2 can be changed in a predetermined mode during the execution period of the effect effect. As shown in FIG. 29 (c), the effect image data ED1 makes it possible to handle the data for displaying the effect image EG2 as an individual image and the image by the effect image data ED1 as a rectangular image. Therefore, the data of the frame area FR2 set to surround the effect image EG2 is provided.

キャラクタ用静止画像データSDと、エフェクト用画像データED1とは、初期設定時において同一サイズ及び同一形状となるように形成されている。また、エフェクト演出用キャラクタCH2及びエフェクト画像EG2を構成するピクセルには不透明又は半透明のα値が設定されているため表示面Pへの表示対象となるが、各枠領域FR1,FR2を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。 The still image data SD for characters and the image data ED1 for effects are formed so as to have the same size and shape at the time of initial setting. Further, since the pixels constituting the effect effect character CH2 and the effect image EG2 are set with an opaque or translucent α value, they are displayed on the display surface P, but each frame area FR1 and FR2 are formed. Since a completely transparent α value is set for the pixel, it is not a display target on the display surface P.

キャラクタ用静止画像データSD及びエフェクト用画像データED1が描画されるフレーム領域82a,82bには、既に説明したとおり、多数の単位エリアが含まれており、各単位エリアには色情報を格納するためのエリアが設定されている。具体的には、図29(d)に示すように、各単位エリア121には、RGBの各色に1対1で対応させて1バイトからなる色情報格納用エリア121a〜121cが設定されており、RGBのそれぞれに256色の設定が可能となっている。 As described above, the frame areas 82a and 82b on which the still image data SD for characters and the image data ED1 for effects are drawn include a large number of unit areas, and each unit area stores color information. Area is set. Specifically, as shown in FIG. 29 (d), color information storage areas 121a to 121c consisting of 1 byte are set in each unit area 121 so as to correspond one-to-one with each color of RGB. 256 colors can be set for each of RGB and RGB.

各色情報格納用エリア121a〜121cに格納される数値情報の値が小さいほどRGBにおいて暗い度合いの色が最終的に表示され、最小値の場合には黒色が表示される。また、数値情報の値が大きいほどRGBにおいて明るい度合いの色が最終的に表示され、最大値の場合には白色が表示される。なお、フルカラー方式ではなく、256色のみ表示可能な構成においては、色情報格納用エリア121a〜121cは1バイトのみでよい。 The smaller the value of the numerical information stored in each of the color information storage areas 121a to 121c, the darker the color is finally displayed in RGB, and in the case of the minimum value, black is displayed. Further, the larger the value of the numerical information is, the brighter the color is finally displayed in RGB, and in the case of the maximum value, white is displayed. In a configuration in which only 256 colors can be displayed instead of the full-color system, the color information storage areas 121a to 121c need only be 1 byte.

一方、キャラクタ用静止画像データSD及びエフェクト用画像データED1の各ピクセル122にも、図29(e)に示すように、カラーパレットなどを利用して数値情報からなる色情報が設定される。各ピクセル122には、RGBの各色に1対1で対応させて1バイトからなる色情報規定用エリア122a〜122cが設定されており、RGBのそれぞれに256色の表示が可能となっている。 On the other hand, as shown in FIG. 29 (e), color information consisting of numerical information is set in each pixel 122 of the character still image data SD and the effect image data ED1 by using a color palette or the like. Each pixel 122 is set with color information defining areas 122a to 122c having one byte corresponding to each color of RGB on a one-to-one basis, and 256 colors can be displayed for each of RGB.

なお、これに限定されることはなく、各単位エリア121の色情報格納用エリア121a〜121cが3バイトではなく1バイトで設定されており、256色のみ表示可能な構成においては各ピクセル122の色情報規定用エリア122a〜122cも1バイトで設定されている構成としてもよい。 It should be noted that the present invention is not limited to this, and the color information storage areas 121a to 121c of each unit area 121 are set to 1 byte instead of 3 bytes, and in a configuration in which only 256 colors can be displayed, each pixel 122 The color information defining areas 122a to 122c may also be set with 1 byte.

各ピクセル122には、色情報規定用エリア122a〜122cの他にα値規定用エリア122dが設定されており、α値の情報が設定されている。α値規定用エリア122dとして1バイトの記憶容量が確保されているが、実際には十進数で「0〜100」のいずれかの数値情報が設定されている。また、α値の情報は「0〜100」の数値情報であるが、これが「0〜1」のα値に対応しており、α値を利用した演算に際しては1未満の値として扱われる。 In addition to the color information defining areas 122a to 122c, the α value defining area 122d is set in each pixel 122, and the α value information is set. Although a storage capacity of 1 byte is secured as the α value defining area 122d, numerical information of any one of "0 to 100" is actually set as a decimal number. Further, the α value information is numerical information of "0 to 100", which corresponds to the α value of "0 to 1", and is treated as a value less than 1 in the calculation using the α value.

各ピクセル122の色情報を描画対象の単位エリア121に描画する場合には、各ピクセル122におけるRGBの各数値情報に対してα値を積算した各数値情報が、単位エリア121における色情報格納用エリア121a〜121cのRGBのそれぞれ対応するエリアに対して格納される。この場合に、不透明のα値(具体的には「1」)が設定されている場合には、対応する単位エリア121に対してピクセル122の色情報がそのまま上書きされ、完全透明のα値(具体的には「0」)が設定されている場合には、対応する単位エリア121に対してピクセル122の色情報は書き込まれない。 When the color information of each pixel 122 is drawn in the unit area 121 to be drawn, each numerical information obtained by integrating the α value with each RGB numerical information in each pixel 122 is used for storing the color information in the unit area 121. It is stored for each of the corresponding areas of RGB of the areas 121a to 121c. In this case, when an opaque α value (specifically, “1”) is set, the color information of the pixel 122 is overwritten as it is on the corresponding unit area 121, and the completely transparent α value (specifically, “1”) is set. Specifically, when "0") is set, the color information of the pixel 122 is not written for the corresponding unit area 121.

0<α値<1である場合には、表示面Pの奥側において重ね合わせられる画像との間で、α値を利用した所定の演算が実行され、その演算結果が単位エリア121に対して書き込まれる。キャラクタ用静止画像データSDにおいて0<α値<1となっているピクセルを単位エリア121に書き込む場合、表示面Pの奥側において重ね合わせられる画像との間でブレンド処理が実行される。ブレンド処理について詳細には、単位エリア121に既に書き込まれている色情報を「r1,g1,b1」とし、当該単位エリア121に次に書き込まれる色情報を「r2,g2,b2」とし、当該色情報に付随して設定されたα値をα1とした場合、
R:r1×(1−α1)+r2×α1
G:g1×(1−α1)+g2×α1
B:b1×(1−α1)+b2×α1
となる。
When 0 <α value <1, a predetermined calculation using the α value is executed with the image superimposed on the back side of the display surface P, and the calculation result is obtained with respect to the unit area 121. Written. When a pixel having 0 <α value <1 in the still image data SD for a character is written in the unit area 121, a blending process is executed with an image superimposed on the back side of the display surface P. More specifically, the color information already written in the unit area 121 is set to "r1, g1, b1", and the color information to be written next in the unit area 121 is set to "r2, g2, b2". When the α value set along with the color information is α1,
R: r1 × (1-α1) + r2 × α1
G: g1 × (1-α1) + g2 × α1
B: b1 × (1-α1) + b2 × α1
Will be.

一方、エフェクト用画像データED1の場合、エフェクト画像EG2を表示するための全ピクセルに対して半透明のα値として0<α値<1が設定されている。そして、当該ピクセルをフレーム領域82a,82bに描画する場合には、描画対象のフレーム領域82a,82bにおける各単位エリア121に対して、エフェクト画像EG2を表示するためのピクセルの加算処理が実行される。加算処理について詳細には、単位エリア121に既に書き込まれている色情報を「r3,g3,b3」とし、当該単位エリア121に書き込まれるエフェクト画像EG2の色情報を「r4,g4,b4」とし、当該色情報に付随して設定されたα値をα2とした場合、
R:r3+r4×α2
G:g3+g4×α2
B:b3+b4×α2
となる。
On the other hand, in the case of the effect image data ED1, 0 <α value <1 is set as the semi-transparent α value for all the pixels for displaying the effect image EG2. Then, when the pixels are drawn in the frame areas 82a and 82b, the pixel addition process for displaying the effect image EG2 is executed for each unit area 121 in the frame areas 82a and 82b to be drawn. .. More specifically, the color information already written in the unit area 121 is set to "r3, g3, b3", and the color information of the effect image EG2 written in the unit area 121 is set to "r4, g4, b4". , When the α value set accompanying the color information is α2,
R: r3 + r4 × α2
G: g3 + g4 × α2
B: b3 + b4 × α2
Will be.

上記加算処理が実行されることにより、エフェクト用画像データED1に対応したエフェクト画像EG2は、当該エフェクト画像EG2が重ね合わせられるエフェクト演出用キャラクタCH2の色情報や明るさの度合いが反映された状態で表示される。エフェクト画像EG2は、既に説明したとおり、煙といったように奥側のものを透過させる画像であるため、エフェクト演出用キャラクタCH2と無関係に表示されると違和感が生じる。これに対して、上記のように加算処理が実行されることで、エフェクト演出用キャラクタCH2が反映された状態でエフェクト画像EG2が表示されることとなり、上記違和感を生じさせることなく、見た目上、好ましいものとなる。 By executing the above addition process, the effect image EG2 corresponding to the effect image data ED1 reflects the color information and the degree of brightness of the effect effect character CH2 on which the effect image EG2 is superimposed. Is displayed. As described above, the effect image EG2 is an image that allows an object on the back side to pass through, such as smoke, and therefore, if it is displayed independently of the effect effect effect character CH2, a sense of incongruity will occur. On the other hand, by executing the addition process as described above, the effect image EG2 is displayed in a state where the effect effect effect character CH2 is reflected, and the effect image EG2 is displayed without causing the above-mentioned discomfort. It will be preferable.

このようにエフェクト画像EG2を適用する場合には加算処理が実行されることとなるが、明るい画像に対して同じく明るいエフェクト画像EG2が重ね合わせられると、フレーム領域82a,82bの単位エリア121において色情報格納用エリア121a〜121cが最大値となり、設計者の意図から外れて白色表示となってしまうことがある(所謂、白とびの発生)。これに対して、本パチンコ機10では、当該白とびの発生を抑制しながらエフェクト演出が実行される。 When the effect image EG2 is applied in this way, the addition process is executed. However, when the same bright effect image EG2 is superimposed on the bright image, the color is displayed in the unit area 121 of the frame areas 82a and 82b. The information storage areas 121a to 121c have the maximum value, which may deviate from the designer's intention and cause a white display (so-called overexposure). On the other hand, in the pachinko machine 10, the effect effect is executed while suppressing the occurrence of the overexposure.

以下に、白とびの発生を抑制しながらエフェクト演出を実行するための具体的な処理構成を説明する。図30は、表示CPU72にて実行されるエフェクト演出用の演算処理を示すフローチャートである。エフェクト演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。また、当該エフェクト演出用の演算処理は、現状設定されている実行対象テーブルにおいてエフェクト演出についての情報が設定されている場合に起動される。 The specific processing configuration for executing the effect effect while suppressing the occurrence of overexposure will be described below. FIG. 30 is a flowchart showing arithmetic processing for effect effect executed by the display CPU 72. The calculation process for effect effect is executed in the effect calculation process in step S909 in the task process (FIG. 19). Further, the arithmetic processing for the effect effect is started when the information about the effect effect is set in the currently set execution target table.

まずステップS1501では、現状設定されている実行対象テーブルに基づき、表示対象となるキャラクタデータを把握する。当該キャラクタデータには、キャラクタ用静止画像データSDが含まれているとともに、今回のフレームの更新タイミングに対応した種類のキャラクタ用静止画像データSDが表示対象として把握される。ちなみに、エフェクト演出が実行される場合、エフェクト画像EG2が表示されていない状況でエフェクト演出用キャラクタCH2が複数フレームに亘って所定の動作をしているかのように動画表示され、その後に動画表示されているエフェクト演出用キャラクタCH2に対してエフェクト画像EG2が重ね合わせられた表示が複数フレームに亘って行われる。続くステップS1502では、ステップS1501にて把握したキャラクタ用静止画像データSDのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該キャラクタ用静止画像データSDに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。 First, in step S1501, the character data to be displayed is grasped based on the currently set execution target table. The character data includes the still image data SD for characters, and the still image data SD for characters of the type corresponding to the update timing of the current frame is grasped as a display target. By the way, when the effect effect is executed, the effect image EG2 is displayed as a moving image as if the effect effect character CH2 is performing a predetermined operation over a plurality of frames in a situation where the effect image EG2 is not displayed, and then the moving image is displayed. The display in which the effect image EG2 is superimposed on the effect effect character CH2 is displayed over a plurality of frames. In the following step S1502, the parameter information of the character still image data SD grasped in step S1501 is calculated and derived, and the derived parameter information is secured in the work RAM 73 in correspondence with the character still image data SD. Update the control information by writing to the area.

続くステップS1503では、現状設定されている実行対象テーブルに基づき、エフェクト用画像データED1を適用すべきか否かを判定する。エフェクト用画像データED1を適用する必要がある場合には、ステップS1504にて、今回のフレームの更新タイミングに対応した種類のエフェクト用画像データED1を表示対象として把握する。続くステップS1505では、ステップS1504にて把握したエフェクト用画像データED1のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該エフェクト用画像データED1に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS1506にて、エフェクト用画像データED1を利用すべきことをVDP76に認識させるためのエフェクト発生指定情報を表示CPU72のレジスタに記憶する。 In the following step S1503, it is determined whether or not the effect image data ED1 should be applied based on the currently set execution target table. When it is necessary to apply the effect image data ED1, in step S1504, the effect image data ED1 of the type corresponding to the update timing of the current frame is grasped as a display target. In the following step S1505, the parameter information of the effect image data ED1 grasped in step S1504 is calculated and derived, and the derived parameter information is transferred to the area secured in the work RAM 73 corresponding to the effect image data ED1. Update the control information by writing. After that, in step S1506, the effect generation designation information for causing the VDP 76 to recognize that the effect image data ED1 should be used is stored in the register of the display CPU 72.

続くステップS1507では、エフェクト用画像データED1を適用する場合に白とびの発生を抑制するための処理である部分加算処理の実行タイミングであるか否かを、現状設定されている実行対象テーブルに基づき判定する。部分加算処理の実行タイミングである場合には、ステップS1508にて、部分加算処理を実行すべきことをVDP76に認識させるための部分加算指定情報を表示CPU72のレジスタに記憶する。 In the following step S1507, whether or not it is the execution timing of the partial addition process, which is a process for suppressing the occurrence of overexposure when applying the effect image data ED1, is determined based on the currently set execution target table. judge. When it is the execution timing of the partial addition process, in step S1508, the partial addition designation information for causing the VDP 76 to recognize that the partial addition process should be executed is stored in the register of the display CPU 72.

ステップS1503にて否定判定をした場合、ステップS1507にて否定判定をした場合、又はステップS1508の処理を実行した場合、ステップS1509に進む。ステップS1509では、エフェクト演出を実行すべきことをVDP76に認識させるためのエフェクト演出指定情報を表示CPU72のレジスタに記憶する。 If a negative determination is made in step S1503, a negative determination is made in step S1507, or the process of step S1508 is executed, the process proceeds to step S1509. In step S1509, effect effect designation information for causing the VDP 76 to recognize that the effect effect should be executed is stored in the register of the display CPU 72.

上記のようにエフェクト演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレームの更新タイミングに対応したキャラクタ用静止画像データSDが描画対象として設定されるとともに、エフェクト画像EG2を表示させる期間である場合にはエフェクト用画像データED1が描画対象として設定される。また、当該描画リストには、キャラクタ用静止画像データSD及びエフェクト用画像データED1に適用するパラメータ情報が設定される。また、当該描画リストにはエフェクト演出指定情報が設定されるとともに、エフェクト用画像EG2の表示期間であればエフェクト発生指定情報が設定され、さらに部分加算処理の実行タイミングであれば部分加算指定情報が設定される。なお、エフェクト演出の開始タイミングにおいては、メモリモジュール74においてキャラクタ用静止画像データSDが記憶されているアドレスの情報と、エフェクト用画像データED1が記憶されているアドレスの情報とが、描画リストに指定される。 When the arithmetic processing for effect production is executed as described above, the drawing list transmitted to the VDP 76 in the subsequent drawing list output processing (step S609) includes a still image for characters corresponding to the update timing of the current frame. When the data SD is set as a drawing target and the effect image EG2 is displayed, the effect image data ED1 is set as a drawing target. Further, in the drawing list, parameter information applied to the still image data SD for characters and the image data ED1 for effects is set. In addition, effect effect designation information is set in the drawing list, effect generation designation information is set during the display period of the effect image EG2, and partial addition designation information is set at the execution timing of the partial addition process. Set. At the start timing of the effect effect, the information of the address where the still image data SD for the character is stored in the memory module 74 and the information of the address where the image data ED1 for the effect is stored are designated in the drawing list. Will be done.

次に、VDP76にて実行されエフェクト演出用の設定処理及びエフェクト演出用の書き込み処理について説明する。エフェクト演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行され、エフェクト演出用の書き込み処理は、描画処理(図23)のステップS1105にて実行される書き込み処理の一部の処理として実行される。また、描画リストにおいてエフェクト演出指定情報が設定されている場合に、これらエフェクト演出用の設定処理及びエフェクト演出用の書き込み処理が実行される。ここで、描画リストでは、エフェクト演出指定情報が演出用の画像データに関連付けて設定されているため、エフェクト演出用の設定処理及びエフェクト演出用の書き込み処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。 Next, the setting process for effect effect and the write process for effect effect executed by VDP76 will be described. The setting process for the effect effect is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23), and the writing process for the effect effect is the step of the drawing process (FIG. 23). It is executed as a part of the writing process executed in S1105. Further, when the effect effect designation information is set in the drawing list, the setting process for the effect effect and the write process for the effect effect are executed. Here, in the drawing list, since the effect effect designation information is set in association with the image data for the effect, the setting process for the effect effect and the write process for the effect effect are for the effect in this drawing list. It is started when the drawing order of the image data of is reached.

図31はエフェクト演出用の設定処理を示すフローチャートである。 FIG. 31 is a flowchart showing a setting process for effect production.

ステップS1601では、描画リストにて示されている今回の描画対象のキャラクタ用静止画像データSDがVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。なお、エフェクト演出の開始タイミングにおいて、エフェクト演出において使用するキャラクタ用静止画像データSD及びエフェクト用画像データED1は、メモリモジュール74から読み出され、展開用バッファ81の所定のエリアに書き込まれている。続くステップS1602では、今回の描画対象のキャラクタ用静止画像データSDに適用するパラメータ情報を把握する。 In step S1601, the address of the area where the still image data SD for the character to be drawn this time, which is shown in the drawing list, is read in the expansion buffer 81 of the VRAM 75 is grasped. At the start timing of the effect effect, the character still image data SD and the effect image data ED1 used in the effect effect are read from the memory module 74 and written in a predetermined area of the expansion buffer 81. In the following step S1602, the parameter information applied to the still image data SD for the character to be drawn this time is grasped.

描画リストにおいてエフェクト発生指定情報が設定されている場合(ステップS1603:YES)、ステップS1604にて、描画リストにて示されている今回の描画対象のエフェクト用画像データED1がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。その後、ステップS1605にて、今回の描画対象のエフェクト用画像データED1に適用するパラメータ情報を把握する。 When the effect generation designation information is set in the drawing list (step S1603: YES), in step S1604, the effect image data ED1 to be drawn this time shown in the drawing list is the expansion buffer 81 of the VRAM 75. Grasp the address of the area read in. After that, in step S1605, the parameter information applied to the effect image data ED1 to be drawn this time is grasped.

図32はエフェクト演出用の書き込み処理を示すフローチャートである。 FIG. 32 is a flowchart showing a writing process for effect production.

まず描画対象のフレーム領域82a,82bに対して、今回の描画対象のキャラクタ用静止画像データSDを描画する。この描画は、描画対象のフレーム領域82a,82bにおいて描画リストにて指定された座標を基準にして行う(ステップS1701)。 First, the still image data SD for the character to be drawn this time is drawn on the frame areas 82a and 82b to be drawn. This drawing is performed with reference to the coordinates specified in the drawing list in the frame areas 82a and 82b to be drawn (step S1701).

描画リストにエフェクト発生指定情報が設定されている場合(ステップS1702:YES)、ステップS1703〜ステップS1712にて、エフェクト用画像データED1を適用するための処理を実行する。具体的には、まずステップS1703にて、今回の描画対象のエフェクト用画像データED1におけるピクセルの総数に対応した値をレジスタ92に設けられた書き込み処理カウンタにセットする。その後、ステップS1704にて、描画リストに部分加算指定情報が設定されているか否かを判定する。部分加算指定情報が設定されている場合には、ステップS1705〜ステップS1708に示す部分加算用の設定処理を実行した後に、ステップS1709〜ステップS1711に示す加算処理を実行する。部分加算指定情報が設定されていない場合には、部分加算用の設定処理を実行することなく、加算処理を実行する。 When the effect generation designation information is set in the drawing list (step S1702: YES), the process for applying the effect image data ED1 is executed in steps S1703 to S1712. Specifically, first, in step S1703, a value corresponding to the total number of pixels in the effect image data ED1 to be drawn this time is set in the write processing counter provided in the register 92. After that, in step S1704, it is determined whether or not the partial addition designation information is set in the drawing list. When the partial addition designation information is set, the addition process shown in steps S1709 to S1711 is executed after the setting process for partial addition shown in steps S1705 to S1708 is executed. If the partial addition designation information is not set, the addition process is executed without executing the setting process for the partial addition.

部分加算用の設定処理を実行することなく加算処理を実行する場合について説明する。まず今回の描画対象のエフェクト用画像データED1において現状の書き込み処理カウンタの値に対応したピクセルに設定されているRGBの各色情報とα値とを積算する(ステップS1709)。そして、その積算結果の色情報を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに格納されているRGBの各色情報に加算する(ステップS1710)。その後、書き込み処理カウンタの値を1減算する(ステップS1711)。これにより、キャラクタ用静止画像データSDのピクセルに設定されていた色情報に対して、エフェクト用画像データED1の対応するピクセルに設定されていた色情報とα値との積算結果がそのまま加算される。 A case where the addition process is executed without executing the setting process for partial addition will be described. First, in the effect image data ED1 to be drawn this time, each RGB color information set in the pixel corresponding to the current write processing counter value and the α value are integrated (step S1709). Then, the color information of the integration result is added to each RGB color information stored in the dots corresponding to the values of the current write processing counter in the frame areas 82a and 82b to be drawn (step S1710). After that, the value of the write processing counter is subtracted by 1 (step S1711). As a result, the integration result of the color information set in the corresponding pixel of the effect image data ED1 and the α value is added as it is to the color information set in the pixel of the still image data SD for the character. ..

部分加算用の設定処理を実行した後に加算処理を実行する場合について説明する。部分加算用の設定処理に際しては、まず今回の描画対象のエフェクト用画像データED1において現状の書き込み処理カウンタの値に対応したピクセルに設定されているRGBの各色情報を読み出す(ステップS1705)。そして、その読み出した各色情報を反転させる(ステップS1706)。この反転に際しては、RGBのそれぞれについて、色情報の最大値である「255」から上記読み出した色情報を減算する。また、その反転させた結果の値、すなわち「255」から上記読み出した色情報を減算した結果の値を、色情報の最大値である「255」で除算する(ステップS1707)。その後、その除算結果の値を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに格納されているRGBの各色情報に積算する(ステップS1708)。 A case where the addition process is executed after the setting process for partial addition is executed will be described. In the setting process for partial addition, first, each RGB color information set in the pixel corresponding to the value of the current write processing counter in the effect image data ED1 to be drawn this time is read out (step S1705). Then, each of the read color information is inverted (step S1706). At the time of this inversion, the read color information is subtracted from the maximum value of the color information "255" for each of RGB. Further, the value of the inverted result, that is, the value of the result of subtracting the read color information from "255" is divided by "255" which is the maximum value of the color information (step S1707). After that, the value of the division result is integrated with each RGB color information stored in the dots corresponding to the values of the current write processing counters in the frame areas 82a and 82b to be drawn (step S1708).

この場合、エフェクト用画像データED1において色情報として「0」が設定されているピクセルについては上記除算結果が「1」となるため、描画対象のフレーム領域82a,82bにおいて当該除算結果が積算されたドットの色情報は変化しない。一方、エフェクト用画像データED1において色情報として1以上の値が設定されているピクセルについては上記除算結果が1未満の値となる。描画対象のフレーム領域82a,82bにおいて当該1未満の値の除算結果が積算されたドットの色情報は当初設定されていた値よりも小さい値となる。 In this case, since the division result is "1" for the pixels for which "0" is set as the color information in the effect image data ED1, the division results are integrated in the frame areas 82a and 82b to be drawn. The dot color information does not change. On the other hand, for pixels in which a value of 1 or more is set as color information in the effect image data ED1, the above division result is a value less than 1. In the frame areas 82a and 82b to be drawn, the color information of the dots obtained by integrating the division results of the values less than 1 is smaller than the initially set value.

その後、今回の描画対象のエフェクト用画像データED1において現状の書き込み処理カウンタの値に対応したピクセルに設定されているRGBの各色情報とα値とを積算する(ステップS1709)。そして、その積算結果の色情報を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに格納されているRGBの各色情報に加算する(ステップS1710)。その後、ステップS1711にて書き込み処理カウンタの値を1減算し、ステップS1712にてその減算後における書き込み処理カウンタの値が「0」となっているか否かを判定する。「0」となっていない場合には減算後の書き込み処理カウンタの値に対応したピクセルの書き込み処理を実行し、「0」となっている場合にはそのまま本エフェクト演出用の書き込み処理を終了する。 After that, in the effect image data ED1 to be drawn this time, each RGB color information set in the pixels corresponding to the current write processing counter value and the α value are integrated (step S1709). Then, the color information of the integration result is added to each RGB color information stored in the dots corresponding to the values of the current write processing counter in the frame areas 82a and 82b to be drawn (step S1710). After that, in step S1711, the value of the write processing counter is subtracted by 1, and in step S1712, it is determined whether or not the value of the write processing counter after the subtraction is "0". If it is not "0", the pixel writing process corresponding to the value of the write processing counter after subtraction is executed, and if it is "0", the writing process for this effect effect is terminated as it is. ..

上記のように部分加算用の設定処理が実行されることにより、フレーム領域82a,82bの各単位エリア121に既に描画されているキャラクタ用静止画像データSDの色情報が小さな値に低減される。これにより、加算処理を実行する前の状態でエフェクト用画像データED1が加算される単位エリア121の色情報の値を小さくすることが可能となり、白とびの発生を抑えることが可能となる。 By executing the setting process for partial addition as described above, the color information of the still image data SD for characters already drawn in each unit area 121 of the frame areas 82a and 82b is reduced to a small value. As a result, it is possible to reduce the value of the color information in the unit area 121 to which the effect image data ED1 is added in the state before the addition process is executed, and it is possible to suppress the occurrence of overexposure.

この低減は、エフェクト用画像データED1の各色情報を反転させた結果の値を色情報の最大値で除算した値を積算することにより行われるため、フレーム領域82a,82bの各単位エリア121において、適用されるエフェクト用画像データED1の色情報が大きい単位エリア121ほど色情報が大きく低減される(つまり、小さい値が積算される)。これにより、エフェクト用画像データED1において大きな色情報のピクセルが適用される単位エリア121ほど色情報の事前の低減量が大きくなり、白とびの発生の可能性が高い単位エリア121の色情報を重点的に事前に低減することが可能となる。よって、白とびの発生の可能性が低い単位エリア121についてはキャラクタ用静止画像データSDにより設定された色情報の低減量を抑えることが可能となり、エフェクト演出用キャラクタCH2の表示内容を極力維持することが可能となる。 This reduction is performed by integrating the value obtained by inverting each color information of the effect image data ED1 by the maximum value of the color information, and therefore, in each unit area 121 of the frame areas 82a and 82b, The unit area 121 in which the color information of the applied effect image data ED1 is larger is greatly reduced in color information (that is, smaller values are integrated). As a result, the amount of prior reduction of color information becomes larger as the unit area 121 to which the pixel of large color information is applied in the effect image data ED1, and the color information of the unit area 121 having a high possibility of overexposure is emphasized. It is possible to reduce the amount in advance. Therefore, in the unit area 121 where the possibility of overexposure is low, it is possible to suppress the reduction amount of the color information set by the still image data SD for the character, and the display content of the character CH2 for effect production is maintained as much as possible. It becomes possible.

エフェクト用画像データED1の色情報の内容に応じた色情報の低減が当該エフェクト用画像データED1を利用して行われる。これにより、エフェクト用画像データED1とは別の部分加算用の画像データがメモリモジュール74に予め記憶されている構成に比べて、当該メモリモジュール74において画像データを記憶しておくために必要なデータ容量を抑えることが可能となる。 The reduction of the color information according to the content of the color information of the effect image data ED1 is performed by using the effect image data ED1. As a result, the data required for storing the image data in the memory module 74 is compared with the configuration in which the image data for partial addition different from the effect image data ED1 is stored in the memory module 74 in advance. It is possible to reduce the capacity.

<エフェクト演出に係る構成の別形態>
・エフェクト用画像データED1を利用して色情報の低減が行われる構成に代えて、エフェクト用画像データED1とは別の低減用データをメモリモジュール74に予め記憶させておき、当該低減用データをキャラクタ用静止画像データSDに適用することで色情報を低減させる構成としてもよい。この場合、当該低減用データを、エフェクト用画像データED1における相対的に明るい色情報に対応するデータが適用される箇所は相対的に暗い色情報に対応するデータが適用される箇所よりも低減量が大きくなるように設定することで、上記実施形態と同様にエフェクト用画像データED1のデータ内容に応じた態様で色情報を低減させることが可能となる。
<Another form of configuration related to effect production>
-Instead of the configuration in which the color information is reduced by using the effect image data ED1, the reduction data different from the effect image data ED1 is stored in the memory module 74 in advance, and the reduction data is stored. It may be configured to reduce the color information by applying it to the still image data SD for characters. In this case, the amount of reduction of the reduction data is reduced at the location where the data corresponding to the relatively bright color information is applied in the effect image data ED1 as compared with the location where the data corresponding to the relatively dark color information is applied. By setting so as to be large, it is possible to reduce the color information in a manner corresponding to the data content of the effect image data ED1 as in the above embodiment.

・キャラクタ用静止画像データSDにより設定された色情報においてエフェクト用画像データED1における所定の数値以上の色情報が設定されることとなる箇所については色情報を低減させる一方、キャラクタ用静止画像データSDにより設定された色情報においてエフェクト用画像データED1における所定の数値以上の色情報が設定されない箇所については色情報を低減させない構成としてもよい。 -In the color information set by the character still image data SD, the color information is reduced at the place where the color information equal to or higher than the predetermined value in the effect image data ED1 is set, while the character still image data SD In the color information set by the above, the color information may not be reduced at the portion where the color information equal to or larger than the predetermined value in the effect image data ED1 is not set.

・キャラクタ用静止画像データSDにおいてエフェクト用画像データED1における完全透明のα値(具体的には「0」)が設定されているピクセルの色情報が設定されることとなる箇所については、色情報の低減が行われない構成としてもよい。この場合、エフェクト用画像データED1の加算処理を行ったとしても確実に白とびが発生しない箇所については色情報の低減対象から除外することが可能となり、本来表示すべき内容で画像を表示することが可能となる。 -Color information for the part where the color information of the pixel for which the completely transparent α value (specifically, "0") in the effect image data ED1 is set in the still image data SD for characters is set. May be configured so that the reduction is not performed. In this case, even if the effect image data ED1 is added, the part where the overexposure does not occur can be excluded from the reduction target of the color information, and the image is displayed with the content that should be displayed originally. Is possible.

・エフェクト用画像データED1に設定されている各ピクセルの色情報に対応させて色情報を低減させる対象は、キャラクタ用静止画像データSDにより設定された色情報のみに限定されることはなく、キャラクタ用静止画像データSDにより設定された色情報と、エフェクト用画像データED1に設定されている色情報との両方であってもよく、キャラクタ用静止画像データSDにより設定された色情報を低減させることなく、エフェクト用画像データED1に設定されている色情報のみを低減させる構成としてもよい。 -The target for reducing the color information corresponding to the color information of each pixel set in the effect image data ED1 is not limited to the color information set by the character still image data SD, and the character. Both the color information set by the still image data SD for effect and the color information set in the image data ED1 for effect may be used, and the color information set by the still image data SD for character may be reduced. Instead, only the color information set in the effect image data ED1 may be reduced.

・キャラクタ用静止画像データSDにより設定された色情報に対応させて、当該キャラクタ用静止画像データSDにより設定された色情報を低減させる構成としてもよく、キャラクタ用静止画像データSDにより設定された色情報に対応させて、エフェクト用画像データED1に設定されている色情報を低減させる構成としてもよい。 The color information set by the still image data SD for characters may be reduced in correspondence with the color information set by the still image data SD for characters, and the colors set by the still image data SD for characters may be reduced. The color information set in the effect image data ED1 may be reduced in correspondence with the information.

<発展演出を行うための構成>
次に、発展演出を行うための構成について、図33を参照しながら説明する。図33(a)〜図33(e)は発展演出を説明するための説明図である。
<Structure for performing development production>
Next, the configuration for performing the development effect will be described with reference to FIG. 33. 33 (a) to 33 (e) are explanatory views for explaining the development effect.

発展演出とは、適用されるエフェクト画像の種類が演出の進行に伴って変化するとともに、全体的なエフェクト画像の内容が段階的に派手なものとなるようにエフェクト画像の種類が増加していく演出である。具体的には、発展演出における第1段階の演出期間においては図33(a)に示すように中央から外側に向けて光線が照射される第1エフェクト画像EG3が動画表示され、発展演出における第2段階の演出期間においては図33(b)に示すように中央から外側に向けて粒子が移動していく第2エフェクト画像EG4が動画表示され、発展演出における第3段階の演出期間においては図33(c)に示すように第1エフェクト画像EG3及び第2エフェクト画像EG4の両方が重ね合わされた状態で動画表示され、発展演出における第4段階の演出期間においては図33(d)に示すように第1エフェクト画像EG3及び第2エフェクト画像EG4に加えて、光の輪が中央側から外側に向けて広がっていく第3エフェクト画像EG5が動画表示される。 With the development effect, the type of effect image applied changes as the effect progresses, and the type of effect image increases so that the content of the overall effect image becomes flashy in stages. It is a production. Specifically, during the first stage of the development effect, the first effect image EG3 in which light rays are emitted from the center to the outside is displayed as a moving image as shown in FIG. 33 (a), and the first effect image EG3 in the development effect is displayed. In the two-stage production period, as shown in FIG. 33 (b), the second effect image EG4 in which the particles move from the center to the outside is displayed as a moving image, and in the third stage production period in the development production, FIG. As shown in 33 (c), both the first effect image EG3 and the second effect image EG4 are displayed as a moving image in a superposed state, and as shown in FIG. 33 (d) during the fourth stage of the development effect. In addition to the first effect image EG3 and the second effect image EG4, the third effect image EG5 in which the ring of light expands from the center side to the outside is displayed as a moving image.

発展演出は、遊技回用の演出として実行され、後側の段階まで進むほどリーチ表示の発生の期待度又は大当たり結果の発生の期待度が高くなる。つまり、第1段階のみで終了する場合、第1段階の後に第2段階まで実行されて終了する場合、第1段階〜第2段階の後に第3段階まで実行されて終了する場合、及び第1段階〜第3段階の後に第4段階まで実行されて終了する場合のそれぞれが発展演出の実行パターンとして設定されており、上記期待度は後側の実行パターンの発展演出が実行された場合の方が高くなる。 The development effect is executed as an effect for game rounds, and the higher the stage is, the higher the expectation of the reach display or the occurrence of the jackpot result. That is, when it ends only in the first stage, when it is executed and finished up to the second stage after the first stage, when it is executed and finished up to the third stage after the first stage to the second stage, and when it ends. Each of the cases where the fourth stage is executed after the stage to the third stage and ends is set as the execution pattern of the development effect, and the above expectation is the case where the development effect of the later execution pattern is executed. Will be higher.

発展演出では上記のようにエフェクト画像EG3〜EG5の表示内容が複数段階で変更されることとなるが、発展演出においてエフェクト画像EG3〜EG5を表示させるためにメモリモジュール74に予め記憶されているエフェクト用画像データED2〜ED4の数は発展演出の段階数よりも少ない数となっている。具体的には、図33(e)に示すように、メモリモジュール74には発展演出を実行するための画像データとして、第1エフェクト用画像データED2と、第2エフェクト用画像データED3と、合成エフェクト用画像データED4とが予め記憶されている。 In the development effect, the display contents of the effect images EG3 to EG5 are changed in a plurality of stages as described above, but in the development effect, the effect stored in advance in the memory module 74 in order to display the effect images EG3 to EG5. The number of image data ED2 to ED4 for use is smaller than the number of stages of development production. Specifically, as shown in FIG. 33 (e), the memory module 74 is composed of the image data ED2 for the first effect and the image data ED3 for the second effect as image data for executing the development effect. The effect image data ED4 is stored in advance.

第1エフェクト用画像データED2は、発展演出の各エフェクト画像EG3〜EG5のうち第1エフェクト画像EG3のみを表示させるための画像データであり、第1段階の演出期間において第1エフェクト画像EG3を所定の態様で変化させることが可能なように複数設けられている。第1エフェクト用画像データED2は、個別画像として第1エフェクト画像EG3を表示するためのデータと、第1エフェクト用画像データED2による画像を矩形状の画像として扱うことを可能とするために第1エフェクト画像EG3の周囲を囲むように設定された枠領域のデータとを備えている。第1エフェクト画像EG3を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。 The image data ED2 for the first effect is image data for displaying only the first effect image EG3 out of the effect images EG3 to EG5 of the development effect, and the first effect image EG3 is predetermined in the first stage effect period. A plurality of them are provided so that they can be changed in the above manner. The first effect image data ED2 is the first to enable the data for displaying the first effect image EG3 as an individual image and the image by the first effect image data ED2 to be treated as a rectangular image. It includes data in a frame area set to surround the effect image EG3. Since the pixels constituting the first effect image EG3 have a semitransparent α value (0 <α value <1), they are displayed on the display surface P, but the pixels constituting the frame area are completely displayed. Since the transparent α value is set, it is not displayed on the display surface P.

第2エフェクト用画像データED3は、発展演出の各エフェクト画像EG3〜EG5のうち第2エフェクト画像EG4のみを表示させるための画像データであり、第2段階の演出期間において第2エフェクト画像EG4を所定の態様で変化させることが可能なように複数設けられている。第2エフェクト用画像データED3は、個別画像として第2エフェクト画像EG4を表示するためのデータと、第2エフェクト用画像データED3による画像を矩形状の画像として扱うことを可能とするために第2エフェクト画像EG4の周囲を囲むように設定された枠領域のデータとを備えている。第2エフェクト画像EG4を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。 The image data ED3 for the second effect is image data for displaying only the second effect image EG4 out of the effect images EG3 to EG5 of the development effect, and the second effect image EG4 is predetermined in the effect period of the second stage. A plurality of them are provided so that they can be changed in the above manner. The second effect image data ED3 is used to enable the data for displaying the second effect image EG4 as an individual image and the image by the second effect image data ED3 to be treated as a rectangular image. It includes data in a frame area set to surround the effect image EG4. Since the pixels constituting the second effect image EG4 are set with a semi-transparent α value (0 <α value <1), they are displayed on the display surface P, but the pixels constituting the frame area are completely displayed. Since the transparent α value is set, it is not displayed on the display surface P.

合成エフェクト用画像データED4は、発展演出の各エフェクト画像EG3〜EG5の全てを表示させるための画像データであり、第4段階の演出期間において第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5が所定の態様で変化することが可能なように複数設けられている。合成エフェクト用画像データED4は、個別画像として第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5を表示するためのデータと、合成エフェクト用画像データED4による画像を矩形状の画像として扱うことを可能とするために第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5の周囲を囲むように設定された枠領域のデータとを備えている。第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。 The image data ED4 for the composite effect is image data for displaying all of the effect images EG3 to EG5 of the development effect, and is the first effect image EG3, the second effect image EG4, and the third effect image EG4 in the fourth stage effect period. A plurality of effect images EG5 are provided so that they can be changed in a predetermined manner. The composite effect image data ED4 uses data for displaying the first effect image EG3, the second effect image EG4, and the third effect image EG5 as individual images, and the composite effect image data ED4 as a rectangular image. It includes data in a frame area set to surround the first effect image EG3, the second effect image EG4, and the third effect image EG5 so as to be able to handle them. Since the pixels constituting the first effect image EG3, the second effect image EG4, and the third effect image EG5 are set with a translucent α value (0 <α value <1), they are displayed on the display surface P. However, since the pixels constituting the frame area are set with a completely transparent α value, they are not displayed on the display surface P.

ここで、発展演出の各エフェクト画像EG3〜EG5を表示するための画像データとして、第1エフェクト用画像データED2、第2エフェクト用画像データED3及び合成エフェクト用画像データED4のみが予め記憶された構成においては、第3段階の演出期間に対応したエフェクト用画像データが存在していないこととなる。これに対して、第3段階の演出期間においては第1エフェクト用画像データED2と第2エフェクト用画像データED3との両方が利用されることにより、第1エフェクト画像EG3及び第2エフェクト画像EG4の両方が重ね合わされた状態で動画表示される。 Here, as image data for displaying the effect images EG3 to EG5 of the development effect, only the image data ED2 for the first effect, the image data ED3 for the second effect, and the image data ED4 for the composite effect are stored in advance. In, the effect image data corresponding to the third stage production period does not exist. On the other hand, in the third stage production period, both the first effect image data ED2 and the second effect image data ED3 are used, so that the first effect image EG3 and the second effect image EG4 The video is displayed with both superimposed.

各エフェクト用画像データED2〜ED4を利用して発展演出が実行される様子について図34のタイムチャートを参照しながら説明する。図34(a)は第1エフェクト用画像データED2の使用期間を示し、図34(b)は第2エフェクト用画像データED3の使用期間を示し、図34(c)は合成エフェクト用画像データED4の使用期間を示す。 A state in which the development effect is executed using the image data ED2 to ED4 for each effect will be described with reference to the time chart of FIG. 34. FIG. 34 (a) shows the usage period of the first effect image data ED2, FIG. 34 (b) shows the usage period of the second effect image data ED3, and FIG. 34 (c) shows the composite effect image data ED4. Indicates the period of use of.

t1のタイミング〜第2のタイミングに亘って実行される第1段階の演出期間では、図34(a)に示すように第1エフェクト用画像データED2が使用され、第2エフェクト用画像データED3及び合成エフェクト用画像データED4は使用されない。t2のタイミング〜第3のタイミングに亘って実行される第2段階の演出期間では、図34(b)に示すように第2エフェクト用画像データED3が使用され、第1エフェクト用画像データED2及び合成エフェクト用画像データED4は使用されない。 In the first stage production period executed from the timing of t1 to the second timing, the image data ED2 for the first effect is used as shown in FIG. 34 (a), and the image data ED3 for the second effect and the image data ED3 for the second effect and The image data ED4 for the composite effect is not used. In the second stage production period executed from the timing of t2 to the third timing, the second effect image data ED3 is used as shown in FIG. 34 (b), and the first effect image data ED2 and The image data ED4 for the composite effect is not used.

t3のタイミング〜第4のタイミングに亘って実行される第3段階の演出期間では、図34(a)及び図34(b)に示すように第1エフェクト用画像データED2及び第2エフェクト用画像データED3の両方が使用され、合成エフェクト用画像データED4は使用されない。t4のタイミング〜第5のタイミングに亘って実行される第4段階の演出期間では、図34(c)に示すように合成エフェクト用画像データED4が使用され、第1エフェクト用画像データED2及び第2エフェクト用画像データED3は使用されない。 In the third stage effect period executed from the timing of t3 to the fourth timing, the image data for the first effect ED2 and the image for the second effect are shown as shown in FIGS. 34 (a) and 34 (b). Both data ED3 are used, and image data ED4 for compositing effect is not used. In the fourth stage production period executed from the timing of t4 to the fifth timing, the image data ED4 for the composite effect is used as shown in FIG. 34 (c), and the image data ED2 for the first effect and the image data ED2 for the first effect are used. 2 Effect image data ED3 is not used.

以下に、発展演出を実行するための具体的な処理構成を説明する。図35は、表示CPU72にて実行される発展演出用の演算処理を示すフローチャートである。発展演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。当該発展演出用の演算処理は、現状設定されている実行対象テーブルにおいて発展演出についての情報が設定されている場合に起動される。 The specific processing configuration for executing the development effect will be described below. FIG. 35 is a flowchart showing arithmetic processing for development effect executed by the display CPU 72. The calculation process for the development effect is executed in the effect operation process of step S909 in the task process (FIG. 19). The arithmetic processing for the development effect is started when the information about the development effect is set in the currently set execution target table.

発展演出の開始タイミングとなっている場合(ステップS1801:YES)、メモリモジュール74における第1エフェクト用画像データED2、第2エフェクト用画像データED3及び合成エフェクト用画像データED4の各アドレスを把握する(ステップS1802)。そして、ステップS1803にて、発展演出を開始すべきことをVDP76に認識させるための発展演出開始指定情報を表示CPU72のレジスタに記憶する。 When it is the start timing of the development effect (step S1801: YES), the addresses of the first effect image data ED2, the second effect image data ED3, and the composite effect image data ED4 in the memory module 74 are grasped (step S1801: YES). Step S1802). Then, in step S1803, the development effect start designation information for causing the VDP 76 to recognize that the development effect should be started is stored in the register of the display CPU 72.

第1段階の演出期間である場合(ステップS1804:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の第1エフェクト用画像データED2を把握する(ステップS1805)。また、第1エフェクト用画像データED2のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該第1エフェクト用画像データED2に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1806)。その後、ステップS1807にて第1段階の演出期間であることをVDP76に認識させるための第1段階指定情報を表示CPU72のレジスタに記憶する。 In the case of the first stage production period (step S1804: YES), the image data ED2 for the first effect of the type corresponding to the current update timing is grasped based on the currently set execution target table (step S1805). .. Further, the parameter information of the image data ED2 for the first effect is calculated and derived, and the derived parameter information is written in the area secured corresponding to the image data ED2 for the first effect in the work RAM 73 for control. Information is updated (step S1806). After that, in step S1807, the first stage designation information for causing the VDP 76 to recognize that it is the first stage effect period is stored in the register of the display CPU 72.

第2段階の演出期間である場合(ステップS1808:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の第2エフェクト用画像データED3を把握する(ステップS1809)。また、第2エフェクト用画像データED3のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該第2エフェクト用画像データED3に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1810)。その後、ステップS1811にて第2段階の演出期間であることをVDP76に認識させるための第2段階指定情報を表示CPU72のレジスタに記憶する。 In the case of the second stage production period (step S1808: YES), the image data ED3 for the second effect of the type corresponding to the current update timing is grasped based on the currently set execution target table (step S1809). .. Further, the parameter information of the second effect image data ED3 is calculated and derived, and the derived parameter information is written in the area secured corresponding to the second effect image data ED3 in the work RAM 73 for control. Information is updated (step S1810). After that, in step S1811, the second stage designation information for causing the VDP 76 to recognize that it is the second stage production period is stored in the register of the display CPU 72.

第3段階の演出期間である場合(ステップS1812:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の第1エフェクト用画像データED2を把握するとともに(ステップS1813)、今回の更新タイミングに対応した種類の第2エフェクト用画像データED3を把握する(ステップS1814)。また、第1エフェクト用画像データED2及び第2エフェクト用画像データED3のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれら第1エフェクト用画像データED2及び第2エフェクト用画像データED3に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1815)。その後、ステップS1816にて第3段階の演出期間であることをVDP76に認識させるための第3段階指定情報を表示CPU72のレジスタに記憶する。 In the case of the third stage production period (step S1812: YES), the image data ED2 for the first effect of the type corresponding to the update timing this time is grasped based on the currently set execution target table (step S1813). ), The image data ED3 for the second effect of the type corresponding to the update timing this time is grasped (step S1814). Further, the parameter information of the image data ED2 for the first effect and the image data ED3 for the second effect is calculated and derived, and the derived parameter information is used in the work RAM 73 for the image data ED2 for the first effect and the image for the second effect. The control information is updated by writing in the area secured corresponding to the data ED3 (step S1815). After that, in step S1816, the third stage designation information for causing the VDP 76 to recognize that it is the third stage effect period is stored in the register of the display CPU 72.

第3段階の演出期間ではない場合(ステップS1812:NO)、第4段階の演出期間であることを意味するため、ステップS1817に進む。ステップS1817では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の合成エフェクト用画像データED4を把握する。また、合成エフェクト用画像データED4のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該合成エフェクト用画像データED4に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1818)。その後、ステップS1819にて第4段階の演出期間であることをVDP76に認識させるための第4段階指定情報を表示CPU72のレジスタに記憶する。 If it is not the third stage production period (step S1812: NO), it means that it is the fourth stage production period, so the process proceeds to step S1817. In step S1817, the image data ED4 for the composite effect of the type corresponding to the current update timing is grasped based on the currently set execution target table. Further, the parameter information of the composite effect image data ED4 is calculated and derived, and the derived parameter information is written in the area secured corresponding to the composite effect image data ED4 in the work RAM 73 for control information. Is updated (step S1818). After that, in step S1819, the fourth stage designation information for causing the VDP 76 to recognize that it is the fourth stage production period is stored in the register of the display CPU 72.

上記のように発展演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレームの更新タイミングに対応したエフェクト用画像データED2〜ED4が描画対象として設定される。また、当該描画リストには、描画対象のエフェクト用画像データED2〜ED4に適用するパラメータ情報が設定される。また、当該描画リストには現状の演出期間に対応させて第1段階指定情報、第2段階指定情報、第3段階指定情報及び第4段階指定情報のいずれかが設定され、さらに発展演出の開始タイミングにおいては発展演出開始指定情報が設定される。 When the arithmetic processing for development effect is executed as described above, the drawing list transmitted to the VDP 76 in the subsequent drawing list output processing (step S609) includes the effect image data corresponding to the update timing of the current frame. ED2 to ED4 are set as drawing targets. Further, in the drawing list, parameter information applied to the effect image data ED2 to ED4 to be drawn is set. In addition, any of the first stage designation information, the second stage designation information, the third stage designation information, and the fourth stage designation information is set in the drawing list according to the current production period, and further development production is started. At the timing, the development production start designation information is set.

次に、VDP76にて実行される発展演出用の設定処理について説明する。発展演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行される。また、描画リストにおいて第1〜第4段階指定情報のいずれかが設定されている場合に、発展演出用の設定処理が実行される。ここで、描画リストでは、第1〜第4演出指定情報が演出用の画像データに関連付けて設定されているため、発展演出用の設定処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。 Next, the setting process for development effect executed by VDP76 will be described. The setting process for the development effect is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23). Further, when any of the first to fourth stage designation information is set in the drawing list, the setting process for the development effect is executed. Here, in the drawing list, since the first to fourth effect designation information is set in association with the image data for the effect, the setting process for the development effect is the image data for the effect in the drawing list of this time. It is started when the drawing order of is reached.

今回の描画リストに発展演出開始指定情報が設定されている場合(ステップS1901:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において各第1エフェクト用画像データED2が記憶されているアドレス、各第2エフェクト用画像データED3が記憶されているアドレス、及び各合成エフェクト用画像データED4が記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール74からエフェクト用画像データED2〜ED4の全てをVRAM75の展開用バッファ81に読み出す(ステップS1902)。 When the development effect start designation information is set in the drawing list this time (step S1901: YES), the image data ED2 for each first effect is stored in the memory module 74 from the information of the address set in the drawing list. The address, the address where the image data ED3 for each second effect is stored, and the address where the image data ED4 for each composite effect is stored are grasped, and the effect image is grasped from the memory module 74 based on the grasped result. All of the data ED2 to ED4 are read into the expansion buffer 81 of the VRAM 75 (step S1902).

今回の描画リストに第1段階指定情報が設定されている場合(ステップS1903:YES)、ステップS1904にて、描画リストにて示されている今回の第1エフェクト用画像データED2がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1905では、今回の第1エフェクト用画像データED2に適用するパラメータ情報を把握する。 When the first stage designation information is set in the drawing list this time (step S1903: YES), in step S1904, the image data ED2 for the first effect shown in the drawing list is used for expanding the VRAM 75. The address of the area read in the buffer 81 is grasped. In the following step S1905, the parameter information applied to the image data ED2 for the first effect this time is grasped.

今回の描画リストに第2段階指定情報が設定されている場合(ステップS1906:YES)、ステップS1907にて、描画リストにて示されている今回の第2エフェクト用画像データED3がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1908では、今回の第2エフェクト用画像データED3に適用するパラメータ情報を把握する。 When the second stage designation information is set in the drawing list this time (step S1906: YES), in step S1907, the image data ED3 for the second effect shown in the drawing list is used for expanding the VRAM 75. The address of the area read in the buffer 81 is grasped. In the following step S1908, the parameter information applied to the image data ED3 for the second effect this time is grasped.

今回の描画リストに第3段階指定情報が設定されている場合(ステップS1909:YES)、ステップS1910にて、描画リストにて示されている今回の第1エフェクト用画像データED2がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握するとともに、ステップS1911にて、描画リストにて示されている今回の第2エフェクト用画像データED3がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1912では、今回の第1エフェクト用画像データED2及び第2エフェクト用画像データED3に適用するパラメータ情報を把握する。 When the third stage designation information is set in the drawing list this time (step S1909: YES), in step S1910, the image data ED2 for the first effect shown in the drawing list is used for expanding the VRAM 75. The address of the area read in the buffer 81 is grasped, and in step S1911, the image data ED3 for the second effect shown in the drawing list is read in the expansion buffer 81 of the VRAM 75. Know the address of the area you are in. In the following step S1912, the parameter information applied to the image data ED2 for the first effect and the image data ED3 for the second effect is grasped.

今回の描画リストに第1〜第3段階指定情報が設定されていない場合(ステップS1909:NO)、第4段階の演出期間であることを意味するため、ステップS1913に進む。ステップS1913では、描画リストにて示されている今回の合成エフェクト用画像データED4がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1914では、今回の合成エフェクト用画像データED4に適用するパラメータ情報を把握する。 If the first to third stage designation information is not set in the drawing list this time (step S1909: NO), it means that it is the fourth stage production period, so the process proceeds to step S1913. In step S1913, the address of the area where the image data ED4 for the present synthesis effect shown in the drawing list is read in the expansion buffer 81 of the VRAM 75 is grasped. In the following step S1914, the parameter information applied to the image data ED4 for the composite effect this time is grasped.

発展演出用の設定処理が実行されることにより、その後の書き込み処理(ステップS1105)にて、描画対象のフレーム領域82a,82bに対して、描画対象のエフェクト用画像データED2〜ED4がパラメータ情報を適用した状態で描画される。 By executing the setting process for the development effect, the effect image data ED2 to ED4 to be drawn provide parameter information to the frame areas 82a and 82b to be drawn in the subsequent writing process (step S1105). It is drawn in the applied state.

第1エフェクト画像EG3及び第2エフェクト画像EG4の両方が重ね合わされた状態で動画表示される第3段階の演出期間においては、両エフェクト画像EG3,EG4がまとめて設定された合成エフェクト用画像データを予め用意しておくのではなく、第1段階の演出期間において描画対象となる第1エフェクト用画像データED2と第2段階の演出期間において描画対象となる第2エフェクト用画像データED3とを利用する構成としたことにより、エフェクト用画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。その一方、第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5が同時に表示される第4段階の演出期間に対しては、それらエフェクト画像EG3〜EG5がまとめて設定された合成エフェクト用画像データED4が予め用意されている。これにより、3種類のエフェクト用画像データを利用して各エフェクト画像EG3〜EG5を同時に表示する構成に比べて処理負荷の低減を図ることが可能となる。つまり、上記構成によれば、メモリモジュール74の記憶容量と処理負荷とのバランスを取りながら、エフェクト画像EG3〜EG5の種類数を段階的に増やす演出を行うことが可能となる。 In the third stage production period in which both the first effect image EG3 and the second effect image EG4 are superposed and displayed as a moving image, the composite effect image data in which both effect images EG3 and EG4 are collectively set is displayed. Instead of preparing in advance, the image data ED2 for the first effect to be drawn in the production period of the first stage and the image data ED3 for the second effect to be drawn in the production period of the second stage are used. With the configuration, it is possible to reduce the data capacity required for storing the effect image data in advance. On the other hand, for the fourth stage production period in which the first effect image EG3, the second effect image EG4, and the third effect image EG5 are displayed at the same time, the composite effect in which the effect images EG3 to EG5 are collectively set is set. Image data ED4 for use is prepared in advance. As a result, it is possible to reduce the processing load as compared with the configuration in which each effect image EG3 to EG5 is displayed at the same time by using three types of effect image data. That is, according to the above configuration, it is possible to perform an effect of gradually increasing the number of types of effect images EG3 to EG5 while balancing the storage capacity of the memory module 74 and the processing load.

<発展演出に係る構成の別形態>
・第3エフェクト画像EG5を表示するためのエフェクト用画像データがメモリモジュール74に予め記憶されている構成としてもよい。この場合、第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5のそれぞれを異なる表示期間において個別に表示させることが可能であるとともに、一の合成エフェクト用画像データED4を利用して第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5を同時に表示させることが可能である。また、本構成においては第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5のうち任意の2組の組合せの画像を表示することが可能となる。
<Another form of composition related to development production>
The effect image data for displaying the third effect image EG5 may be stored in the memory module 74 in advance. In this case, the first effect image EG3, the second effect image EG4, and the third effect image EG5 can be individually displayed in different display periods, and one composite effect image data ED4 is used. It is possible to display the first effect image EG3, the second effect image EG4, and the third effect image EG5 at the same time. Further, in this configuration, it is possible to display an image of any combination of two of the first effect image EG3, the second effect image EG4, and the third effect image EG5.

<同時表示演出を行うための構成>
次に、同時表示演出を行うための構成について説明する。
<Structure for simultaneous display effect>
Next, the configuration for performing the simultaneous display effect will be described.

同時表示演出とは、図37(a)の説明図に示すように、同時に表示される演出用キャラクタCH3〜CH7の数が途中で増加し、さらに演出用キャラクタCH3〜CH7の数が増加するタイミングで増加時用エフェクト画像EG6の表示が開始される演出である。増加時用エフェクト画像EG6は、中央から外側に向けて波が伝搬していく画像である。増加時用エフェクト画像EG6は、演出用キャラクタCH3〜CH7の数が同時に増加するタイミングから、複数のフレームの更新タイミングに亘る所定期間において所定の態様で変化するように表示される。 The simultaneous display effect is a timing at which the number of effect characters CH3 to CH7 displayed at the same time increases in the middle and the number of effect characters CH3 to CH7 further increases, as shown in the explanatory diagram of FIG. 37 (a). This is an effect in which the display of the effect image EG6 for increasing is started. The effect image EG6 for increasing time is an image in which waves propagate from the center to the outside. The effect image EG6 for increasing time is displayed so as to change in a predetermined mode from the timing when the numbers of the effect characters CH3 to CH7 increase at the same time to the update timing of a plurality of frames in a predetermined period.

増加時用エフェクト画像EG6を表示させるための画像データとして図37(b)の説明図に示すように、通常エフェクト用画像データED5と、簡易エフェクト用画像データED6とがメモリモジュール74に予め記憶されている。通常エフェクト用画像データED5と簡易エフェクト用画像データED6とは共に増加時用エフェクト画像EG6を表示するための画像データであるものの、簡易エフェクト用画像データED6の方が通常エフェクト用画像データED5よりもピクセル数が少ない点で相違する。また、通常エフェクト用画像データED5は演出用キャラクタCH3〜CH7を表示するための画像データとピクセル数が同一となっているため、簡易エフェクト用画像データED6は演出用キャラクタCH3〜CH7を表示するための画像データよりもピクセル数が少ないとも言える。 As shown in the explanatory diagram of FIG. 37B, the normal effect image data ED5 and the simple effect image data ED6 are stored in advance in the memory module 74 as image data for displaying the effect image EG6 for increasing time. ing. Although both the normal effect image data ED5 and the simple effect image data ED6 are image data for displaying the increasing effect image EG6, the simple effect image data ED6 is larger than the normal effect image data ED5. The difference is that the number of pixels is small. Further, since the normal effect image data ED5 has the same number of pixels as the image data for displaying the effect characters CH3 to CH7, the simple effect image data ED6 displays the effect characters CH3 to CH7. It can be said that the number of pixels is smaller than that of the image data of.

当該ピクセル数について具体的には、図37(c−1)及び図37(c−2)に示すように、簡易エフェクト用画像データED6はピクセル数が通常エフェクト用画像データED5の半分となっている。したがって、同一のサイズで増加時用エフェクト画像EG6を表示させるためには、簡易エフェクト用画像データED6を描画対象とする場合には、通常エフェクト用画像データED5を描画対象とする場合に比べてスケールの情報を2倍にする必要がある。 Specifically, as shown in FIGS. 37 (c-1) and 37 (c-2), the number of pixels of the simple effect image data ED6 is half that of the normal effect image data ED5. There is. Therefore, in order to display the effect image EG6 for increasing with the same size, when the simple effect image data ED6 is the drawing target, the scale is larger than when the normal effect image data ED5 is the drawing target. It is necessary to double the information of.

簡易エフェクト用画像データED6は1個のみ設けられているのに対して、通常エフェクト用画像データED5は増加時用エフェクト画像EG6を複数のフレームの更新タイミングに亘る所定期間において所定の態様で変化させることが可能なように複数設けられている。増加時用エフェクト画像EG6を表示する場合、詳細は後述するように、簡易エフェクト用画像データED6が先に使用対象となり、その後に複数の通常エフェクト用画像データED5が使用対象となる。この場合、複数のフレームの更新タイミングに亘る所定期間において所定の態様で増加時用エフェクト画像EG6を変化させることが可能となるように、簡易エフェクト用画像データED6により表示される増加時用エフェクト画像EG6の表示態様に対して、複数の通常エフェクト用画像データED5のうち使用順序が最初の通常エフェクト用画像データED5により表示される増加時用エフェクト画像EG6の表示態様は連続性を有している。 While only one image data ED6 for simple effects is provided, the image data ED5 for normal effects changes the effect image EG6 for increasing in a predetermined mode in a predetermined period over the update timing of a plurality of frames. Multiple are provided so that it is possible. When displaying the effect image EG6 for increasing time, as will be described in detail later, the simple effect image data ED6 is used first, and then a plurality of normal effect image data ED5s are used. In this case, the increasing effect image displayed by the simple effect image data ED6 so that the increasing effect image EG6 can be changed in a predetermined manner in a predetermined period over the update timings of the plurality of frames. The display mode of the increasing effect image EG6 displayed by the first normal effect image data ED5 in the order of use among the plurality of normal effect image data ED5 has continuity with respect to the display mode of the EG6. ..

通常エフェクト用画像データED5及び簡易エフェクト用画像データED6は、増加時用エフェクト画像EG6を表示するためのデータと、通常エフェクト用画像データED5及び簡易エフェクト用画像データED6による画像を矩形状の画像として扱うことを可能とするために増加時用エフェクト画像EG6の周囲を囲むように設定された枠領域のデータとを備えている。増加時用エフェクト画像EG6を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。 The image data ED5 for normal effects and the image data ED6 for simple effects are data for displaying the effect image EG6 for increasing, and the image by the image data ED5 for normal effects and the image data ED6 for simple effects as a rectangular image. It includes data in a frame area set to surround the augmentation effect image EG6 so that it can be handled. Since a semi-transparent α value (0 <α value <1) is set for the pixels constituting the effect image EG6 for increase, it is displayed on the display surface P, but the pixels constituting the frame area are displayed. Since a completely transparent α value is set, it is not a display target on the display surface P.

増加時用エフェクト画像EG6を表示するための画像データとして、通常エフェクト用画像データED5及び簡易エフェクト用画像データED6が使い分けられる様子について、図38のタイムチャートを参照しながら説明する。図38(a)は同時に表示される演出用キャラクタCH3〜CH7の数が少ない期間である少数表示期間を示し、図38(b)は同時に表示される演出用キャラクタCH3〜CH7の数が多い期間である多数表示期間を示し、図38(c)は増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される期間を示し、図38(d)は増加時用エフェクト画像EG6を表示するための画像データとして通常エフェクト用画像データED5が使用される期間を示す。 The state in which the normal effect image data ED5 and the simple effect image data ED6 are properly used as the image data for displaying the effect image EG6 for increasing time will be described with reference to the time chart of FIG. 38. FIG. 38 (a) shows a minority display period in which the number of effect characters CH3 to CH7 displayed at the same time is small, and FIG. 38 (b) shows a period in which the number of effect characters CH3 to CH7 displayed at the same time is large. 38 (c) shows the period during which the simple effect image data ED6 is used as the image data for displaying the effect image EG6 for increasing, and FIG. 38 (d) shows the period for increasing. The period during which the normal effect image data ED5 is used as the image data for displaying the effect image EG6 is shown.

図38(a)に示すように、t1のタイミング〜t2のタイミングに亘って少数表示期間となる。少数表示期間では、図38(A)に示すように表示面Pに表示される演出用キャラクタCH3,CH4は2個のみとなっている。 As shown in FIG. 38 (a), the minority display period extends from the timing of t1 to the timing of t2. In the minority display period, as shown in FIG. 38A, there are only two effect characters CH3 and CH4 displayed on the display surface P.

t2のタイミングで少数表示期間が終了することで、図38(b)に示すように多数表示期間が開始される。多数表示期間が開始されたタイミングで、図38(B)に示すように表示面Pに表示される演出用キャラクタCH3〜CH7の数が5個に増加するとともに、増加時用エフェクト画像EG6の表示が開始される。この場合、多数表示期間の開始タイミングであるt2のタイミングにおいては、図38(c)に示すように増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される。これにより、多数表示期間の開始タイミングにおいて演出用キャラクタCH3〜CH7を表示するための画像データが複数読み出される構成において、増加時用エフェクト画像EG6を表示するための画像データの読み出しに要する時間の短縮化が図られる。よって、多数表示期間の開始タイミングにおける画像データの読み出し期間を短縮することが可能となり、多数表示期間の開始タイミングにおいて表示対象となる演出用キャラクタCH3〜CH7の増加と増加時用エフェクト画像EG6の表示開始との両方を好適に行うことが可能となる。また、本構成によれば増加時用エフェクト画像EG6を表示するための画像データを多数表示期間が開始されるよりも前のタイミングでメモリモジュール74からVRAM75の展開用バッファ81に読み出しておく必要がないため、事前転送用のプログラムを設定する必要がない。 When the minority display period ends at the timing of t2, the majority display period starts as shown in FIG. 38 (b). At the timing when the multiple display period starts, the number of effect characters CH3 to CH7 displayed on the display surface P increases to 5 as shown in FIG. 38 (B), and the effect image EG6 for increase is displayed. Is started. In this case, at the timing of t2, which is the start timing of the multiple display period, the simple effect image data ED6 is used as the image data for displaying the effect image EG6 for increasing as shown in FIG. 38 (c). .. As a result, in a configuration in which a plurality of image data for displaying the effect characters CH3 to CH7 are read out at the start timing of the multiple display period, the time required for reading out the image data for displaying the effect image EG6 for increase is shortened. Is planned. Therefore, it is possible to shorten the reading period of the image data at the start timing of the multi-display period, and increase the production characters CH3 to CH7 to be displayed at the start timing of the multi-display period and display the effect image EG6 for increasing. Both the start and the start can be preferably performed. Further, according to this configuration, it is necessary to read a large number of image data for displaying the effect image EG6 at the time of increase from the memory module 74 to the expansion buffer 81 of the VRAM 75 at a timing before the start of the display period. Therefore, there is no need to set a program for advance transfer.

増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される状態は、複数フレームの更新タイミングに亘って継続される。その後、t3のタイミングで、図38(c)及び図38(d)に示すように増加時用エフェクト画像EG6を表示するための画像データが簡易エフェクト用画像データED6から通常エフェクト用画像データED5に切り換えられる。これにより、簡易エフェクト用画像データED6が使用されていた期間よりも増加時用エフェクト画像EG6の画質を向上させることが可能となる。その後、t4のタイミングで、図38(b)及び図38(d)に示すように多数表示期間が終了するとともに通常エフェクト用画像データED5を使用した増加時用エフェクト画像EG6の表示が終了する。 The state in which the simple effect image data ED6 is used as the image data for displaying the increasing effect image EG6 is continued over the update timing of a plurality of frames. After that, at the timing of t3, as shown in FIGS. 38 (c) and 38 (d), the image data for displaying the effect image EG6 for increasing is changed from the image data ED6 for simple effect to the image data ED5 for normal effect. Can be switched. As a result, it is possible to improve the image quality of the effect image EG6 for increasing time compared to the period during which the image data ED6 for simple effects is used. After that, at the timing of t4, as shown in FIGS. 38 (b) and 38 (d), the multiple display period ends and the display of the increasing effect image EG6 using the normal effect image data ED5 ends.

以下に、同時表示演出を実行するための具体的な処理構成を説明する。図39は、表示CPU72にて実行される同時表示演出用の演算処理を示すフローチャートである。同時表示演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。当該同時表示演出用の演算処理は、現状設定されている実行対象テーブルにおいて同時表示演出についての情報が設定されている場合に起動される。 A specific processing configuration for executing the simultaneous display effect will be described below. FIG. 39 is a flowchart showing a calculation process for simultaneous display effect executed by the display CPU 72. The arithmetic processing for the simultaneous display effect is executed in the effect arithmetic process in step S909 in the task process (FIG. 19). The arithmetic processing for the simultaneous display effect is started when the information about the simultaneous display effect is set in the currently set execution target table.

少数表示期間である場合(ステップS2001:YES)、ステップS2002にて少数表示期間の開始タイミングであるか否かを判定する。少数表示期間の開始タイミングである場合(ステップS2002:YES)、少数表示期間において表示対象となる演出用キャラクタCH3,CH4を表示するための画像データのメモリモジュール74における各アドレスを把握する(ステップS2003)。そして、ステップS2004にて、同時表示演出の少数表示期間を開始すべきことをVDP76に認識させるための少数表示開始指定情報を表示CPU72のレジスタに記憶する。 When it is the minority display period (step S2001: YES), it is determined in step S2002 whether or not it is the start timing of the minority display period. When it is the start timing of the minority display period (step S2002: YES), each address in the memory module 74 of the image data for displaying the effect characters CH3 and CH4 to be displayed in the minority display period is grasped (step S2003). ). Then, in step S2004, the minority display start designation information for causing the VDP 76 to recognize that the minority display period of the simultaneous display effect should be started is stored in the register of the display CPU 72.

ステップS2002にて否定判定をした場合又はステップS2004の処理を実行した場合、現状設定されている実行対象テーブルに基づき今回の更新タイミングに対応した種類の画像データを把握する(ステップS2005)。また、当該画像データのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該画像データに対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS2006)。その後、ステップS2007にて少数表示期間であることをVDP76に認識させるための少数表示指定情報を表示CPU72のレジスタに記憶する。 When a negative determination is made in step S2002 or when the process of step S2004 is executed, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table (step S2005). Further, the parameter information of the image data is calculated and derived, and the derived parameter information is written in the area secured corresponding to the image data in the work RAM 73 to update the control information (step S2006). .. After that, in step S2007, the minority display designation information for causing the VDP 76 to recognize that it is the minority display period is stored in the register of the display CPU 72.

多数表示期間である場合(ステップS2001:NO)、ステップS2008にて多数表示期間の開始タイミングであるか否かを判定する。多数表示期間の開始タイミングである場合(ステップS2008:YES)、多数表示期間において表示が開始される演出用キャラクタCH5,CH6,CH7を表示するための画像データ及び簡易エフェクト用画像データED6のメモリモジュール74における各アドレスを把握する(ステップS2009)。そして、ステップS2010にて、同時表示演出の多数表示期間を開始すべきことをVDP76に認識させるための多数表示開始指定情報を表示CPU72のレジスタに記憶する。 In the case of a large number display period (step S2001: NO), it is determined in step S2008 whether or not it is the start timing of the large number display period. When it is the start timing of the large number display period (step S2008: YES), the memory module of the image data for displaying the effect characters CH5, CH6, CH7 for which the display is started in the large number display period and the image data ED6 for the simple effect. Each address in 74 is grasped (step S2009). Then, in step S2010, the multi-display start designation information for causing the VDP 76 to recognize that the multi-display period of the simultaneous display effect should be started is stored in the register of the display CPU 72.

多数表示期間である場合であって簡易表示期間である場合(ステップS2001:NO、ステップS2011:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2012)。この場合、多数表示期間において表示対象となる演出用キャラクタCH3〜CH7を表示するための画像データと簡易エフェクト用画像データED6とを把握する。また、これら画像データのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれら画像データに対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS2013)。その後、ステップS2014にて、増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6を使用する簡易表示期間であることをVDP76に認識させるための簡易表示指定情報を表示CPU72のレジスタに記憶する。 In the case of a large number display period and a simple display period (step S2001: NO, step S2011: YES), the type of image data corresponding to the current update timing is displayed based on the currently set execution target table. Grasp (step S2012). In this case, the image data for displaying the effect characters CH3 to CH7 to be displayed in the large number of display periods and the image data ED6 for simple effects are grasped. Further, the parameter information of the image data is calculated and derived, and the derived parameter information is written in the area secured corresponding to the image data in the work RAM 73 to update the control information (step S2013). .. After that, in step S2014, the simple display designation information for causing the VDP 76 to recognize that it is the simple display period in which the simple effect image data ED6 is used as the image data for displaying the increasing effect image EG6 is displayed CPU72. Store in the register of.

一方、簡易表示期間ではない場合、すなわち増加時用エフェクト画像EG6を表示するための画像データとして通常エフェクト用画像データED5を使用する通常表示期間である場合(ステップS2011:NO)、ステップS2015にて通常表示期間の開始タイミングであるか否かを判定する。通常表示期間の開始タイミングである場合(ステップS2015:YES)、複数の通常エフェクト用画像データED5の全てについてのメモリモジュール74におけるアドレスを把握する(ステップS2016)。そして、ステップS2017にて、通常表示期間を開始すべきことをVDP76に認識させるための通常表示開始指定情報を表示CPU72のレジスタに記憶する。 On the other hand, if it is not a simple display period, that is, if it is a normal display period in which the normal effect image data ED5 is used as the image data for displaying the increasing effect image EG6 (step S2011: NO), in step S2015. It is determined whether or not it is the start timing of the normal display period. When it is the start timing of the normal display period (step S2015: YES), the addresses in the memory module 74 for all of the plurality of normal effect image data ED5 are grasped (step S2016). Then, in step S2017, the normal display start designation information for causing the VDP 76 to recognize that the normal display period should be started is stored in the register of the display CPU 72.

多数表示期間である場合であって通常表示期間である場合(ステップS2001:NO、ステップS2011:NO)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2018)。この場合、多数表示期間において表示対象となる演出用キャラクタCH3〜CH7を表示するための画像データと通常エフェクト用画像データED5とを把握する。また、これら画像データのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれら画像データに対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS2019)。その後、ステップS2020にて、増加時用エフェクト画像EG6を表示するための画像データとして通常エフェクト用画像データED5を使用する通常表示期間であることをVDP76に認識させるための通常表示指定情報を表示CPU72のレジスタに記憶する。 In the case of a large number of display periods and a normal display period (step S2001: NO, step S2011: NO), based on the currently set execution target table, the type of image data corresponding to the current update timing is displayed. Grasp (step S2018). In this case, the image data for displaying the effect characters CH3 to CH7 to be displayed in the multiple display period and the image data ED5 for the normal effect are grasped. Further, the parameter information of the image data is calculated and derived, and the derived parameter information is written in the area secured corresponding to the image data in the work RAM 73 to update the control information (step S2019). .. After that, in step S2020, the normal display designation information for causing the VDP 76 to recognize that it is the normal display period in which the normal effect image data ED5 is used as the image data for displaying the increasing effect image EG6 is displayed CPU72. Store in the register of.

上記のように同時表示演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレームの更新タイミングに対応した演出用キャラクタCH3〜CH7を表示するための画像データが描画対象として設定される。また、多数表示期間であれば当該描画リストに簡易エフェクト用画像データED6及び通常エフェクト用画像データED5のいずれかが描画対象として設定される。この場合、通常エフェクト用画像データED6については該当する更新タイミングに対応する種類の通常エフェクト用画像データED6が描画対象として設定される。また、当該描画リストには、描画対象の画像データに適用するパラメータ情報が設定される。また、当該描画リストには現状の演出期間に対応させて少数表示指定情報、簡易表示指定情報及び通常表示指定情報のいずれかが設定され、さらに各表示期間の開始タイミングにおいては少数表示開始指定情報、多数表示開始指定情報及び通常表示開始指定情報のいずれかが設定される。 When the arithmetic processing for the simultaneous display effect is executed as described above, the drawing list transmitted to the VDP 76 in the subsequent drawing list output process (step S609) includes the effect character corresponding to the update timing of the current frame. Image data for displaying CH3 to CH7 is set as a drawing target. Further, in the case of a large number of display periods, either the simple effect image data ED6 or the normal effect image data ED5 is set as a drawing target in the drawing list. In this case, for the normal effect image data ED6, the type of normal effect image data ED6 corresponding to the corresponding update timing is set as the drawing target. In addition, parameter information applied to the image data to be drawn is set in the drawing list. In addition, one of the minority display designation information, the simple display designation information, and the normal display designation information is set in the drawing list according to the current production period, and the minority display start designation information is set at the start timing of each display period. , One of the multi-display start designation information and the normal display start designation information is set.

次に、VDP76にて実行される同時表示演出用の設定処理について説明する。同時表示演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行される。また、描画リストにおいて少数表示指定情報、簡易表示指定情報及び通常表示指定情報のいずれかが設定されている場合に、同時表示演出用の設定処理が実行される。ここで、描画リストでは、少数表示指定情報、簡易表示指定情報及び通常表示指定情報が演出用の画像データに関連付けて設定されているため、同時表示演出用の設定処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。 Next, the setting process for simultaneous display effect executed by VDP76 will be described. The setting process for the simultaneous display effect is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23). Further, when any of the minority display designation information, the simple display designation information, and the normal display designation information is set in the drawing list, the setting process for the simultaneous display effect is executed. Here, in the drawing list, the minority display designation information, the simple display designation information, and the normal display designation information are set in association with the image data for the effect, so that the setting process for the simultaneous display effect is the drawing list of this time. Of these, it is activated when the drawing order of the image data for production is reached.

今回の描画リストに少数表示指定情報が設定されている場合(ステップS2101:YES)、ステップS2102にて、当該描画リストにさらに少数表示開始指定情報が設定されているか否かを判定する。少数表示開始指定情報が設定されている場合(ステップS2102:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において少数表示期間にて表示対象となる演出用キャラクタCH3,CH4を表示するための画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からこれら画像データの全てをVRAM75の展開用バッファ81に読み出す(ステップS2103)。 When the minority display designation information is set in the drawing list this time (step S2101: YES), it is determined in step S2102 whether or not the minority display start designation information is further set in the drawing list. When the minority display start designation information is set (step S2102: YES), the effect characters CH3 and CH4 to be displayed in the memory module 74 during the minority display period based on the address information set in the drawing list. The address of the area where the image data for displaying is stored is grasped, and all of these image data are read out from the memory module 74 to the expansion buffer 81 of the VRAM 75 based on the grasped result (step S2103).

また、少数表示指定情報が設定されている場合(ステップS2101:YES)、ステップS2104にて、描画リストにて示されている今回の画像データがVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS2105では、今回の画像データに適用するパラメータ情報を把握する。 Further, when the minority display designation information is set (step S2101: YES), in step S2104, the area in which the current image data shown in the drawing list is read in the expansion buffer 81 of the VRAM 75. Know the address of. In the following step S2105, the parameter information applied to the current image data is grasped.

今回の描画リストに多数表示開始指定情報が設定されている場合(ステップS2106:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において多数表示期間にて表示が開始される演出用キャラクタCH5,CH6,CH7を表示するための画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からこれら画像データの全てをVRAM75の展開用バッファ81に読み出す(ステップS2107)。 When a large number display start designation information is set in the drawing list this time (step S2106: YES), display is started in the memory module 74 in a large number display period from the information of the address set in the drawing list. The address of the area where the image data for displaying the effect characters CH5, CH6, and CH7 is stored is grasped, and all of these image data are read out from the memory module 74 to the expansion buffer 81 of the VRAM 75 based on the grasped result. (Step S2107).

また、今回の描画リストに設定されているアドレスの情報から、メモリモジュール74において簡易エフェクト用画像データED6が記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74から簡易エフェクト用画像データED6をVRAM75の展開用バッファ81に読み出す(ステップS2108)。そして、ステップS2109にて、その読み出した簡易エフェクト用画像データED6の拡大処理を実行する。拡大処理では、簡易エフェクト用画像データED6に対して色情報の補間処理を実行しながらピクセル数を増加させることで、ピクセル数が通常エフェクト用画像データED5のピクセル数と同一となる拡大処理後のエフェクト用画像データを作成し、展開用バッファ81に書き込む。 Further, from the address information set in the drawing list this time, the address of the area where the image data ED6 for simple effects is stored in the memory module 74 is grasped, and based on the grasped result, the memory module 74 is used for simple effects. The image data ED6 is read into the expansion buffer 81 of the VRAM 75 (step S2108). Then, in step S2109, the read-out simple effect image data ED6 is enlarged. In the enlargement processing, the number of pixels is increased while performing color information interpolation processing on the simple effect image data ED6, so that the number of pixels becomes the same as the number of pixels of the normal effect image data ED5 after the enlargement processing. Image data for effects is created and written to the expansion buffer 81.

ここで、当該拡大処理にて要する処理時間は、メモリモジュール74から1個の通常エフェクト用画像データED5を読み出すのに要する時間とメモリモジュール74から1個の簡易エフェクト用画像データED6を読み出すのに要する時間との差の時間よりも短い時間となっている。これにより、簡易エフェクト用画像データED6に対して拡大処理が実行される構成であったとしても、多数表示期間の開始タイミングにおいて通常エフェクト用画像データED5を読み出す場合よりも処理時間の短縮化を図ることが可能となる。 Here, the processing time required for the enlargement processing is the time required to read one normal effect image data ED5 from the memory module 74 and the time required to read one simple effect image data ED6 from the memory module 74. The time is shorter than the time difference from the required time. As a result, even if the enlargement processing is executed for the simple effect image data ED6, the processing time is shortened as compared with the case where the normal effect image data ED5 is read at the start timing of the large number of display periods. It becomes possible.

一方、今回の描画リストに通常表示開始指定情報が設定されている場合(ステップS2110:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において通常エフェクト用画像データED5が記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール74から通常エフェクト用画像データED5の全てをVRAM75の展開用バッファ81に読み出す(ステップS2111)。 On the other hand, when the normal display start designation information is set in the drawing list this time (step S2110: YES), the image data ED5 for the normal effect is stored in the memory module 74 from the information of the address set in the drawing list. The address is grasped, and based on the grasped result, all of the normal effect image data ED5 is read from the memory module 74 into the expansion buffer 81 of the VRAM 75 (step S2111).

今回の描画リストに簡易表示指定情報又は通常表示指定情報が設定されている場合、ステップS2112にて、描画リストにて示されている今回の画像データがVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。この場合、簡易表示期間であれば展開用バッファ81において拡大処理後のエフェクト用画像データが書き込まれているエリアのアドレスを把握する。一方、通常表示期間であれば展開用バッファ81において今回の更新タイミングに対応する通常エフェクト用画像データED5が読み出されているエリアのアドレスを把握する。続くステップS2113では、今回の画像データに適用されるパラメータ情報を把握する。 When the simple display designation information or the normal display designation information is set in the current drawing list, the current image data shown in the drawing list is read out in the expansion buffer 81 of the VRAM 75 in step S2112. Know the address of the area you are in. In this case, if it is a simple display period, the address of the area where the effect image data after the enlargement processing is written is grasped in the expansion buffer 81. On the other hand, during the normal display period, the address of the area in which the normal effect image data ED5 corresponding to the current update timing is read is grasped in the expansion buffer 81. In the following step S2113, the parameter information applied to the current image data is grasped.

同時表示演出用の設定処理が実行されることにより、その後の書き込み処理(ステップS1105)にて、描画対象のフレーム領域82a,82bに対して、描画対象の演出用キャラクタCH3〜CH7を表示するための画像データがパラメータ情報を適用した状態で描画される。また、簡易表示期間であれば増加時用エフェクト画像EG6を表示するための画像データとして拡大処理後のエフェクト用画像データがパラメータ情報を適用した状態で描画され、通常表示期間であれば増加時用エフェクト画像EG6を表示するための通常エフェクト用画像データED5がパラメータ情報を適用した状態で描画される。 By executing the setting process for the simultaneous display effect, in the subsequent write process (step S1105), the effect characters CH3 to CH7 to be drawn are displayed on the frame areas 82a and 82b to be drawn. The image data of is drawn with the parameter information applied. Further, in the simple display period, the effect image data after enlargement processing is drawn as image data for displaying the effect image EG6 for increase in a state where parameter information is applied, and in the normal display period, for increase. The normal effect image data ED5 for displaying the effect image EG6 is drawn with the parameter information applied.

多数表示期間の開始タイミングにおいては、増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される。これにより、多数表示期間の開始タイミングにおいて演出用キャラクタCH3〜CH7を表示するための画像データが複数読み出される構成において、増加時用エフェクト画像EG6を表示するための画像データの読み出しに要する時間の短縮化が図られる。よって、多数表示期間の開始タイミングにおける画像データの読み出し期間を短縮することが可能となり、多数表示期間の開始タイミングにおいて表示対象となる演出用キャラクタCH3〜CH7の増加と増加時用エフェクト画像EG6の表示開始との両方を好適に行うことが可能となる。また、本構成によれば増加時用エフェクト画像EG6を表示するための画像データを多数表示期間が開始されるよりも前のタイミングでメモリモジュール74からVRAM75の展開用バッファ81に読み出しておく必要がないため、事前転送用のプログラムを設定する必要がない。 At the start timing of the multiple display period, the simple effect image data ED6 is used as the image data for displaying the increasing effect image EG6. As a result, in a configuration in which a plurality of image data for displaying the effect characters CH3 to CH7 are read out at the start timing of the multiple display period, the time required for reading out the image data for displaying the effect image EG6 for increase is shortened. Is planned. Therefore, it is possible to shorten the reading period of the image data at the start timing of the multi-display period, and increase the production characters CH3 to CH7 to be displayed at the start timing of the multi-display period and display the effect image EG6 for increasing. Both the start and the start can be preferably performed. Further, according to this configuration, it is necessary to read a large number of image data for displaying the effect image EG6 at the time of increase from the memory module 74 to the expansion buffer 81 of the VRAM 75 at a timing before the start of the display period. Therefore, there is no need to set a program for advance transfer.

画像データの読み出しに要する時間の短縮化を図るべくピクセル数が少なく設定された画像データは、演出用キャラクタCH3〜CH7を表示するための画像データではなく、増加時用エフェクト画像EG6を表示するための画像データである。これにより、画像表示として目立つ演出用キャラクタCH3〜CH7の画質を低下させないようにしながら、多数表示期間の開始タイミングにおける画像の表示を好適に行うことが可能となる。 The image data in which the number of pixels is set to be small in order to shorten the time required to read the image data is not the image data for displaying the effect characters CH3 to CH7, but the effect image EG6 for increasing time is displayed. It is the image data of. As a result, it is possible to preferably display the image at the start timing of the multiple display period while not deteriorating the image quality of the effect characters CH3 to CH7, which are conspicuous as the image display.

多数表示期間がある程度進行した段階で、増加時用エフェクト画像EG6を表示するための画像データが簡易エフェクト用画像データED6から通常エフェクト用画像データED5に変更される。これにより、多数表示期間の途中からは増加時用エフェクト画像EG6の画質も好適なものとすることが可能となる。 When the multiple display period has progressed to some extent, the image data for displaying the effect image EG6 for increasing is changed from the image data ED6 for simple effects to the image data ED5 for normal effects. As a result, it is possible to make the image quality of the effect image EG6 for increasing time suitable from the middle of the multiple display period.

簡易エフェクト用画像データED6は読み出されたタイミングで拡大処理が実行され、その後の簡易表示期間においてはその拡大処理後のエフェクト用画像データが利用される。これにより、簡易表示期間において拡大処理が毎回実行される構成に比べて、処理負荷を低減することが可能となる。 The image data for simple effects ED6 is enlarged at the timing when it is read out, and the image data for effects after the enlargement processing is used in the subsequent simple display period. As a result, it is possible to reduce the processing load as compared with the configuration in which the enlargement processing is executed every time during the simple display period.

<同時表示演出に係る構成の別形態>
・増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6は設けられているものの通常エフェクト用画像データED5は設けられていない構成としてもよい。この場合であっても、多数表示期間の開始タイミングにおいて画像データの読み出しに要する時間の短縮化を図りながら増加時用エフェクト画像ED6を表示することが可能となる。当該構成においては、簡易エフェクト用画像データED6が演出用キャラクタCH3〜CH7を表示するための画像データと同一の解像度となるように拡大処理が実行されることとなる。
<Another form of configuration related to simultaneous display production>
-The image data ED6 for simple effects may be provided as the image data for displaying the effect image EG6 for increasing, but the image data ED5 for normal effects may not be provided. Even in this case, it is possible to display the effect image ED6 for increasing time while shortening the time required for reading the image data at the start timing of the multiple display period. In this configuration, the enlargement processing is executed so that the simple effect image data ED6 has the same resolution as the image data for displaying the effect characters CH3 to CH7.

・簡易エフェクト用画像データED6は通常エフェクト用画像データED5の半分の解像度に設定されている構成としたが、これに限定されることはなく、例えば1/4の解像度に設定されている構成としてもよく、1/3の解像度に設定されている構成としてもよく、2/3の解像度に設定されている構成としてもよい。 -The image data ED6 for simple effects is set to half the resolution of the image data ED5 for normal effects, but it is not limited to this, for example, as a configuration set to 1/4 resolution. It may be a configuration set to a resolution of 1/3, or a configuration set to a resolution of 2/3.

・簡易エフェクト用画像データED6が上記実施形態のように拡大させて使用される期間と、メモリモジュール74に記憶されている解像度のまま使用される期間とが存在している構成としてもよい。例えば、表示面Pの全体を利用して増加時用エフェクト画像EG6が表示される場合には簡易エフェクト用画像データED6を拡大して使用し、表示面Pの一部を区画するように設定された区画領域内の範囲内で増加時用エフェクト画像EG6が表示される場合には簡易エフェクト用画像データED6をそのままの解像度で使用する構成としてもよい。 The simple effect image data ED6 may be configured to have a period in which the image data ED6 is expanded and used as in the above embodiment and a period in which the image data ED6 is used with the resolution stored in the memory module 74. For example, when the effect image EG6 for increasing is displayed by using the entire display surface P, the image data ED6 for simple effects is enlarged and used, and a part of the display surface P is set to be partitioned. When the effect image EG6 for increasing is displayed within the range within the divided area, the simple effect image data ED6 may be used at the same resolution.

・簡易エフェクト用画像データED6が1個のみ設けられている構成に代えて、簡易エフェクト用画像データED6が複数設けられている構成としてもよい。これにより、簡易エフェクト用画像データED6を利用して増加時用エフェクト画像EG6を表示する場合であっても、当該増加時用エフェクト画像EG6の表示態様を変化させることが可能となる。当該構成においては、簡易エフェクト用画像データED6を利用した増加時用エフェクト画像EG6の表示を開始するタイミングにおいて全ての簡易エフェクト用画像データED6をまとめて読み出すのではなく、各更新タイミングのそれぞれにおいて使用対象となる簡易エフェクト用画像データED6を個別に読み出し、さらに読み出した簡易エフェクト用画像データED6に対して拡大処理(ステップS2109)を実行する構成とすることが好ましい。 -Instead of the configuration in which only one image data ED6 for simple effects is provided, a configuration in which a plurality of image data ED6s for simple effects are provided may be provided. As a result, even when the effect image EG6 for increasing is displayed by using the image data ED6 for simple effects, it is possible to change the display mode of the effect image EG6 for increasing. In this configuration, all the simple effect image data ED6 are not read out at the same time when the display of the increasing effect image EG6 using the simple effect image data ED6 is started, but are used at each update timing. It is preferable that the target simple effect image data ED6 is individually read out, and the read-out simple effect image data ED6 is subjected to an enlargement process (step S2109).

<第2の実施形態>
本実施形態では、表示制御に関する電気的構成が上記第1の実施形態と異なっている。以下、上記第1の実施形態との相違点について説明する。図41は、本実施形態における電気的構成を示すブロック図である。
<Second embodiment>
In the present embodiment, the electrical configuration related to display control is different from that of the first embodiment. Hereinafter, the differences from the first embodiment will be described. FIG. 41 is a block diagram showing an electrical configuration in the present embodiment.

図41に示す構成では上記第1の実施形態と同様に、主制御装置50を備えている。また、主制御装置50には、払出装置56を制御する払出制御装置55と、主制御装置50を含めた各機器への電力供給の機能を担うとともに遊技球発射機構58を駆動制御する電源・発射制御装置57と、遊技回の結果を表示する特図ユニット37と、普電開放抽選の結果を表示する普図ユニット38と、が電気的に接続されている。また、主制御装置50から送信されるコマンドに基づいて表示発光部44及びスピーカ部45を駆動制御する音声発光制御装置60が設けられており、さらに当該音声発光制御装置60から送信されるコマンドに基づいて図柄表示装置41を制御する表示制御装置130が設けられている。 In the configuration shown in FIG. 41, the main control device 50 is provided as in the first embodiment. Further, the main control device 50 has a payout control device 55 that controls the payout device 56, and a power supply that functions to supply electric power to each device including the main control device 50 and drives and controls the game ball launch mechanism 58. The launch control device 57, the special figure unit 37 that displays the result of the game round, and the normal figure unit 38 that displays the result of the public electric power opening lottery are electrically connected. Further, a voice emission control device 60 for driving and controlling the display light emission unit 44 and the speaker unit 45 based on a command transmitted from the main control device 50 is provided, and the command transmitted from the voice emission control device 60 is further provided. A display control device 130 that controls the symbol display device 41 based on the symbol display device 41 is provided.

表示制御装置130は、図41に示すように、表示CPU131と、ワークRAM132と、メモリモジュール133と、VRAM134と、ビデオディスプレイプロセッサ(VDP)135と、が搭載された表示制御基板136を備えている。 As shown in FIG. 41, the display control device 130 includes a display control board 136 on which a display CPU 131, a work RAM 132, a memory module 133, a VRAM 134, and a video display processor (VDP) 135 are mounted. ..

表示CPU131は、表示制御装置130においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU131は表示制御基板136に搭載された入力ポート137に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート137を通じて表示CPU131に入力される。 The display CPU 131 has a function as a main control unit in the display control device 130, and reads, interprets, and executes a control program or the like. Specifically, the display CPU 131 is connected to the input port 137 mounted on the display control board 136 via a bus, and various commands transmitted from the voice emission control device 60 are input to the display CPU 131 through the input port 137. Will be done.

表示CPU131は、バスを介してワークRAM132、メモリモジュール133及びVRAM134と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール133に記憶された各種データをワークRAM132に転送させる転送指示を行う。また、表示CPU131は、バスを介してVDP135と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置41に3次元画像(3D画像)を表示させるための描画指示を行う。以下、メモリモジュール133、ワークRAM132、VRAM134及びVDP135について説明する。 The display CPU 131 is connected to the work RAM 132, the memory module 133, and the VRAM 134 via a bus, and transfers various data stored in the memory module 133 to the work RAM 132 based on a command received from the voice emission control device 60. Give a transfer instruction. Further, the display CPU 131 is connected to the VDP 135 via a bus, and gives a drawing instruction for displaying a three-dimensional image (3D image) on the symbol display device 41 based on a command received from the voice emission control device 60. Do. Hereinafter, the memory module 133, the work RAM 132, the VRAM 134, and the VDP 135 will be described.

メモリモジュール133は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、3次元画像を表示するための各種画像データを予め記憶している記憶手段である。当該メモリモジュール133は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール133は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。 The memory module 133 is a storage means that stores control programs and control data including fixed value data in advance, and stores various image data for displaying a three-dimensional image in advance. The memory module 133 includes a non-volatile semiconductor memory that does not require external power supply for storage retention. By the way, the storage capacity is 4 Gbits, but such a storage capacity is arbitrary as long as the control in the display control device 130 is performed well. Further, the memory module 133 is used as a non-writing and read-only memory (ROM) when the pachinko machine 10 is used.

メモリモジュール133に記憶されている各種画像データには、図柄表示装置41に表示される図柄やキャラクタなどのオブジェクトデータと、当該オブジェクトデータに貼り付けられるテクスチャデータと、1フレーム分の画像において最背面の画像を構成する背面用の画像データとが含まれている。 The various image data stored in the memory module 133 include object data such as symbols and characters displayed on the symbol display device 41, texture data pasted on the object data, and the backmost image in one frame of the image. The image data for the back surface that constitutes the image of the above is included.

ここで、オブジェクトデータとは、仮想3次元空間に相当する3次元の座標系であるワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。また、ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。オブジェクトデータには、例えばサーフェスモデルを適用するため、オブジェクトデータ毎に予め設定された基準座標を原点として、各ポリゴンの頂点座標情報が設定されている。つまり、各オブジェクトデータでは、自己完結のローカル座標系において各ポリゴンの相対位置(すなわち、向きやサイズ)が3次元的に定義されている。 Here, the object data is a three-dimensional virtual object arranged in the world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional space, and is three-dimensional information composed of a plurality of polygons. Further, the polygon is a polygonal plane defined by a plurality of vertices having three-dimensional coordinates. For example, in order to apply a surface model to the object data, the vertex coordinate information of each polygon is set with the reference coordinates set in advance for each object data as the origin. That is, in each object data, the relative position (that is, the direction and size) of each polygon is three-dimensionally defined in the self-contained local coordinate system.

テクスチャデータとは、オブジェクトデータの各ポリゴンに貼り付ける画像であり、テクスチャデータがオブジェクトデータに貼り付けられることにより、オブジェクトデータに対応する画像、例えば図柄やキャラクタなどを含む表示画像が生成される。テクスチャデータの持ち方は、任意であるが、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照されるカラーパレットとの組合せを少なくとも含んでいる。 The texture data is an image to be pasted on each polygon of the object data, and when the texture data is pasted on the object data, an image corresponding to the object data, for example, a display image including a pattern or a character is generated. The way of holding the texture data is arbitrary, but includes at least a combination of, for example, bitmap format data and a color palette referred to when determining the display color at each pixel of the bitmap image.

最背面の画像は、2次元画像(2D画像)を構成している。背面用の画像データの持ち方は、任意であるが、例えば2次元の静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。ちなみに、当該背面用の画像データがワールド座標系に配置される場合には板状オブジェクトデータ(すなわち板ポリゴン)が利用される。 The rearmost image constitutes a two-dimensional image (2D image). The way of holding the image data for the back surface is arbitrary, but for example, the two-dimensional still image data is stored and held as JPEG format data in a compressed state. By the way, when the image data for the back surface is arranged in the world coordinate system, the plate-shaped object data (that is, the plate polygon) is used.

ワークRAM132は、メモリモジュール133から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM132は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、ワークRAM132は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The work RAM 132 is a storage means for temporarily storing the control data read from the memory module 133 and transferred, and for temporarily storing the flags and the like. The work RAM 132 has a volatile semiconductor memory that requires an external power supply for storage, and in detail, a DRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as SRAM may be used. The storage capacity is 1 Gbit, but the storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily executed. Further, the work RAM 132 is used for both reading and writing when the pachinko machine 10 is used.

ワークRAM132には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から制御用データが転送される。そして、表示CPU131は、ワークRAM132に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。 Control data is transferred from the memory module 133 to the work RAM 132 based on a data transfer instruction from the display CPU 131 to the memory module 133. Then, the display CPU 131 reads the control data transferred to the work RAM 132 into the internal memory area (register group) as needed, and executes various processes.

VRAM134は、図柄表示装置41に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM134は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該VRAM134は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The VRAM 134 is a storage means for temporarily storing various data necessary for outputting an image to the symbol display device 41. The VRAM 134 has a volatile semiconductor memory that requires power supply from the outside for storage, and in detail, SDRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as DRAM, SRAM or dual port RAM may be used. The storage capacity is 2 Gbits, but the storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily executed. Further, the VRAM 134 is used for both reading and writing when the pachinko machine 10 is used.

VRAM134は展開用バッファ141を備えており、展開用バッファ141には、VDP135からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から画像データが転送される。また、VRAM134には、VDP135により描画データが作成されるフレームバッファ142が設けられている。 The VRAM 134 includes an expansion buffer 141, and image data is transferred from the memory module 133 to the expansion buffer 141 based on a data transfer instruction from the VDP 135 to the memory module 133. Further, the VRAM 134 is provided with a frame buffer 142 in which drawing data is created by the VDP 135.

VDP135は、表示CPU131からの描画指示に基づき、展開用バッファ141に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置41に対して描画を行う画像生成デバイスであり、図柄表示装置41において液晶表示部41aを駆動制御するように組み込まれた画像処理デバイス41bを操作する一種の描画回路である。VDP135はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。 The VDP 135 is an image generation device that draws on the symbol display device 41 by specifically processing the data stored and held in the expansion buffer 141 based on the drawing instruction from the display CPU 131. This is a kind of drawing circuit that operates an image processing device 41b incorporated so as to drive and control a liquid crystal display unit 41a in the symbol display device 41. Since the VDP135 is an IC chip, it is also called a "drawing chip", and its substance can be said to be a microcomputer chip with a built-in firmware dedicated to drawing.

詳細には、VDP135は、ジオメトリ演算部151と、レンダリング部152と、レジスタ153と、表示回路155と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU131用のI/F156及びVRAM134用のI/F157と接続されている。 Specifically, the VDP 135 includes a geometry calculation unit 151, a rendering unit 152, a register 153, and a display circuit 155. Further, these circuits are connected to each other via a bus, and are also connected to the I / F 156 for the display CPU 131 and the I / F 157 for the VRAM 134.

表示CPU131用のI/F156は、表示CPU131から送信された描画指示情報としての描画リストをレジスタ153に記憶させる。ジオメトリ演算部151は、レジスタ153に格納された描画リストに基づいて、メモリモジュール133に記憶されている各種画像データをVRAM134の展開用バッファ141に読み出す。また、ジオメトリ演算部151は、配置対象として指定されているオブジェクトデータをワールド座標系内に配置する。また、ジオメトリ演算部151は、オブジェクトデータをワールド座標系内に配置する場合及び配置した後に、各種の座標変換処理を実行する。そして、最終的に表示面Pのスクリーン座標に対応する3次元空間に対応させて、オブジェクトをクリッピングする。 The I / F 156 for the display CPU 131 stores the drawing list as the drawing instruction information transmitted from the display CPU 131 in the register 153. The geometry calculation unit 151 reads various image data stored in the memory module 133 into the expansion buffer 141 of the VRAM 134 based on the drawing list stored in the register 153. Further, the geometry calculation unit 151 arranges the object data designated as the arrangement target in the world coordinate system. Further, the geometry calculation unit 151 executes various coordinate conversion processes when arranging the object data in the world coordinate system and after arranging the object data. Finally, the object is clipped so as to correspond to the three-dimensional space corresponding to the screen coordinates of the display surface P.

レンダリング部152は、レジスタ153に格納された描画リストに基づいて、クリッピングされた各オブジェクトデータに対して光源調整や、テクスチャデータの貼付を行い、オブジェクトデータの外観を決定する。また、レンダリング部152は、各オブジェクトデータを所定の2次元平面上に投影させて2次元データを作成するとともに、深度情報に基づく各種調整を行い2次元データである1フレーム分の描画データをフレームバッファ142に作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置41の表示面Pにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるのに必要なデータのことをいう。 The rendering unit 152 determines the appearance of the object data by adjusting the light source and pasting the texture data to each of the clipped object data based on the drawing list stored in the register 153. Further, the rendering unit 152 creates the two-dimensional data by projecting each object data on a predetermined two-dimensional plane, and makes various adjustments based on the depth information to frame the drawing data for one frame which is the two-dimensional data. Create in buffer 142. The drawing data for one frame is the data required to display the image at one update timing in the configuration in which the image on the display surface P of the symbol display device 41 is updated at a predetermined update timing. Say.

なお、ジオメトリ演算部151及びレンダリング部152が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリをVDP135に内蔵させ、当該制御プログラムと描画リストの内容によってジオメトリ演算部151及びレンダリング部152が処理を実行する構成としてもよい。また、メモリモジュール133から制御プログラムを事前に読み出す構成としてもよい。また、ジオメトリ演算部151及びレンダリング部152がプログラムを利用することなく、描画リストに対応したハード回路の動作のみで処理を実行する構成としてもよい。 In addition, all the control programs for operating the geometry calculation unit 151 and the rendering unit 152 may be provided by the drawing list, and the memory in which the control program is stored in advance is built in the VDP 135, and the control program and the drawing list are provided. The geometry calculation unit 151 and the rendering unit 152 may execute the processing depending on the contents of the above. Further, the control program may be read in advance from the memory module 133. Further, the geometry calculation unit 151 and the rendering unit 152 may be configured to execute the process only by the operation of the hard circuit corresponding to the drawing list without using the program.

ここで、フレームバッファ142には、複数のフレーム領域142a,142bが設けられている。具体的には、第1フレーム領域142aと、第2フレーム領域142bとが設けられている。これら各フレーム領域142a,142bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域142a,142bにはそれぞれ、液晶表示部41a(すなわち表示面P)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。 Here, the frame buffer 142 is provided with a plurality of frame areas 142a and 142b. Specifically, a first frame area 142a and a second frame area 142b are provided. Each of these frame areas 142a and 142b is set to a capacity capable of storing drawing data for one frame. Specifically, each of the frame areas 142a and 142b includes a large number of unit areas corresponding to the dots (pixels) of the liquid crystal display unit 41a (that is, the display surface P) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color is to be displayed. More specifically, a full-color method is adopted, and 256 colors can be set for each of R (red), G (green), and B (blue) at each dot. Correspondingly, 1 byte (8 bits) is allocated to each RGB color in each unit area. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。 The method is not limited to the full-color method. For example, in a configuration in which only 256 colors can be displayed at each dot, the storage capacity required for storing color information in each unit area may be 1 byte.

フレームバッファ142に第1フレーム領域142a及び第2フレーム領域142bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置41への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ142として、ダブルバッファ方式が採用されている。 Since the frame buffer 142 is provided with the first frame area 142a and the second frame area 142b, in a situation where drawing to the symbol display device 41 is executed using the drawing data created in one frame area. , Creation of drawing data to be used in the future is executed for other frame areas. That is, the double buffer method is adopted as the frame buffer 142.

表示回路155では、第1フレーム領域142a又は第2フレーム領域142bに作成された描画データに基づいて液晶表示部41aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路155に接続された出力ポート138を介して図柄表示装置41に出力される。詳細には、出力対象のフレーム領域142a,142bから表示回路155へ描画データが転送される。その転送された描画データは図柄表示装置41の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置41の各ドットに対応した画像信号が生成されて出力される。なお、表示回路155からは水平同期信号又は垂直同期信号などの同期信号も出力される。 In the display circuit 155, an image signal corresponding to each dot of the liquid crystal display unit 41a is generated based on the drawing data created in the first frame area 142a or the second frame area 142b, and the image signal is transmitted to the display circuit 155. It is output to the symbol display device 41 via the connected output port 138. Specifically, the drawing data is transferred from the output target frame areas 142a and 142b to the display circuit 155. The transferred drawing data is converted into gradation data by adjusting the resolution with a scaler (not shown) so as to correspond to the resolution of the symbol display device 41. Then, an image signal corresponding to each dot of the symbol display device 41 is generated and output based on the gradation data. A synchronization signal such as a horizontal synchronization signal or a vertical synchronization signal is also output from the display circuit 155.

<表示CPU131における基本的な処理>
次に、表示CPU131における基本的な処理について説明する。表示CPU131ではコマンド割込み処理及びV割込み処理が実行される。コマンド割込み処理の内容は、上記第1の実施形態と同様である。また、V割込み処理の内容は、ステップS608のタスク処理を除き、上記第1の実施形態の表示CPU72にて実行されるV割込み処理(図15)と同様である。
<Basic processing in display CPU 131>
Next, the basic processing in the display CPU 131 will be described. The display CPU 131 executes command interrupt processing and V interrupt processing. The content of the command interrupt process is the same as that of the first embodiment. Further, the content of the V interrupt process is the same as the V interrupt process (FIG. 15) executed by the display CPU 72 of the first embodiment, except for the task process of step S608.

図42は、本実施形態におけるタスク処理を示すフローチャートである。 FIG. 42 is a flowchart showing the task processing in the present embodiment.

まずステップS2201では、ワークRAM132に設けられた遅延中フラグに「1」がセットされているか否かを判定する。遅延中フラグに「1」がセットされていない場合(ステップS2201:NO)、ステップS2202にて制御開始用の設定処理を実行する。制御開始用の設定処理では、今回の処理回で表示CPU131において新たに制御を開始する個別画像を設定するための処理を実行する。なお、本実施形態において個別画像とは、背面用の画像データなどの静止画像データにより規定される一の2D画像や、オブジェクトデータとテクスチャデータとの組合せにより規定される一の3D画像のことである。 First, in step S2201, it is determined whether or not "1" is set in the delay flag provided in the work RAM 132. If "1" is not set in the delay flag (step S2201: NO), the control start setting process is executed in step S2202. In the setting process for starting control, the display CPU 131 executes a process for setting an individual image for which control is newly started in this processing time. In the present embodiment, the individual image is a one 2D image defined by still image data such as image data for the back surface, or a one 3D image defined by a combination of object data and texture data. is there.

制御開始用の設定処理について具体的には、まず現状設定されている実行対象テーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM132において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータ情報を設定する。 Specifically, regarding the setting process for starting control, first, based on the currently set execution target table, it is determined whether or not an individual image to be controlled starts exists in this processing time. If it exists, the work RAM 132 searches for a free buffer area for performing various operations in controlling the individual image, and has a one-to-one correspondence with the individual image grasped as the control start target. Allocate free buffer area so as to. Further, the initialization process is executed for all the reserved free buffer areas, and the parameter information for starting control according to the individual image is set for the initialized free buffer area.

続くステップS2202では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。 In the following step S2202, the control update target is grasped. The control update target is an individual image for which the control start processing has been completed and which may be included in the image for one frame after the current processing time.

その後、ステップS2204にてV割込み処理の新たな起動を許可し、直後のステップS2205にてV割込み処理の新たな起動を禁止した後に、背景用演算処理を実行する(ステップS2206)。背景用演算処理では、背景の画像を構成することとなる最背面用の画像や、背景用キャラクタについて、ワールド座標系内における座標、回転角度、スケール、明暗を付けるためのライトの情報、投影を行うためのカメラの情報、及びZテスト指定などといった描画リストを作成する上で必要な各種パラメータ情報を演算して導き出す処理を実行する。 After that, in step S2204, a new activation of the V interrupt process is permitted, and in step S2205 immediately after that, a new activation of the V interrupt process is prohibited, and then the background calculation process is executed (step S2206). In the background arithmetic processing, the coordinates, rotation angle, scale, light information for adding light and darkness, and projection in the world coordinate system are performed for the backmost image that constitutes the background image and the background character. It executes a process of calculating and deriving various parameter information necessary for creating a drawing list such as camera information to be performed and Z test designation.

その後、ステップS2207にてV割込み処理の新たな起動を許可し、直後のステップS2208にてV割込み処理の新たな起動を禁止した後に、演出用演算処理を実行する(ステップS2209)。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる個別画像について、上記各種パラメータ情報を演算して導き出す処理を実行する。 After that, in step S2207, a new activation of the V interrupt process is permitted, and in step S2208 immediately after that, a new activation of the V interrupt process is prohibited, and then the effect calculation process is executed (step S2209). In the effect calculation process, a process of calculating and deriving the above-mentioned various parameter information is executed for the individual image to be displayed in various effects such as reach display, notice display, and jackpot effect.

その後、ステップS2210にてV割込み処理の新たな起動を許可し、直後のステップS2211にてV割込み処理の新たな起動を禁止した後に、図柄用演算処理を実行する(ステップS2212)。図柄用演算処理では、各遊技回において変動表示の対象となる図柄の画像について、上記各種パラメータ情報を演算して導き出す処理を実行する。 After that, the new activation of the V interrupt process is permitted in step S2210, the new activation of the V interrupt process is prohibited in the immediately following step S2211, and then the symbol arithmetic processing is executed (step S2212). In the symbol calculation process, a process of calculating and deriving the various parameter information of the symbol image to be displayed in a variable manner in each game is executed.

ちなみに、ステップS2206、ステップS2209及びステップS2212の各処理では、ステップS2201にて設定された制御開始用のパラメータ情報を更新する処理を実行する。また、ステップS2206、ステップS2209及びステップS2212の各処理では、個別画像の各種パラメータ情報を画像更新タイミングとなる度に特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、個別画像の種類に応じて定められている。また、アニメーション用データは、メモリモジュール133に予め記憶されている。また、図柄用演算処理では、不正報知用又は状態報知用の実行対象テーブルがワークRAM132に読み出されている場合、当該実行対象テーブルに対応した報知画像を表示するための演算処理を実行するとともにその報知画像を表示するための報知スプライト、及び当該報知スプライトに適用する各種パラメータ情報を導出する。 Incidentally, in each process of step S2206, step S2209 and step S2212, a process of updating the parameter information for control start set in step S2201 is executed. Further, in each of the processes of step S2206, step S2209, and step S2212, animation data set so as to change various parameter information of the individual image according to a specific pattern each time the image update timing is reached is used. This animation data is defined according to the type of individual image. Further, the animation data is stored in the memory module 133 in advance. Further, in the symbol arithmetic processing, when the execution target table for fraud notification or status notification is read into the work RAM 132, the arithmetic processing for displaying the notification image corresponding to the execution target table is executed. The notification sprite for displaying the notification image and various parameter information applied to the notification sprite are derived.

その後、ステップS2213にて、ワークRAM132に設けられた演算完了フラグに「1」をセットするとともに、ステップS2214にてワールド座標系への配置対象の把握処理を実行した後に、本タスク処理を終了する。ワールド座標系への配置対象の把握処理では、上記ステップS2206、ステップS2209及びステップS2212の各処理により制御更新対象となった各個別画像のうち、今回の描画リストにおいて描画対象として設定する個別画像を把握する処理を実行する。当該把握は、現状設定されている実行対象テーブルに基づいて行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。 After that, in step S2213, the calculation completion flag provided in the work RAM 132 is set to "1", and in step S2214, the process of grasping the object to be arranged in the world coordinate system is executed, and then this task process is terminated. .. In the process of grasping the object to be arranged in the world coordinate system, among the individual images subject to control update by each process of step S2206, step S2209, and step S2212, the individual image set as the drawing target in the current drawing list is selected. Execute the process to grasp. The grasp is performed based on the currently set execution target table. The individual image grasped here is set as a drawing target in the drawing list.

つまり、表示CPU131にて制御対象となる個別画像の方が、VDP135にて制御対象となる個別画像よりも多く設定されているため、ステップS2214においてその調整を行っている。但し、これに限定されることはなく、表示CPU131において制御対象となる個別画像と、VDP135において制御対象となる個別画像とが同一である構成としてもよく、この場合、ステップS2214の処理を実行する必要がなくなる。 That is, since the number of individual images to be controlled by the display CPU 131 is set to be larger than the number of individual images to be controlled by the VDP 135, the adjustment is performed in step S2214. However, the present invention is not limited to this, and the individual image to be controlled by the display CPU 131 and the individual image to be controlled by the VDP 135 may be the same. In this case, the process of step S2214 is executed. No need.

一方、遅延中フラグに「1」がセットされている場合(ステップS2201:YES)、ステップS2215にて遅延中フラグを「0」クリアした後に、前回のタスク処理においてV割込み処理の新たな処理回が開始される直前に実行していた処理にジャンプする(ステップS2216)。これにより、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。なお、遅延中フラグ及び演算完了フラグの内容は上記第1の実施形態と同様であるとともに、タスク処理においてステップS2201、ステップS2204〜ステップS2205、ステップS2207〜ステップS2208、ステップS2210〜ステップS2211、ステップS2213及びステップS2215〜ステップS2216が実行されることによる作用効果も上記第1の実施形態と同様である。 On the other hand, when "1" is set in the delay flag (step S2201: YES), after clearing the delay flag "0" in step S2215, a new processing time of V interrupt processing in the previous task processing Jumps to the process that was being executed immediately before the start of (step S2216). As a result, it is possible to resume the execution of the process from the timing when the interruption occurred in the previous task process. The contents of the delay flag and the calculation completion flag are the same as those in the first embodiment, and in the task processing, step S2201, step S2204 to step S2205, step S2207 to step S2208, step S220-10, step S2211, and step S2213. The action and effect of executing steps S2215 to S2216 are also the same as those in the first embodiment.

<VDP135における基本的な処理>
次に、VDP135にて実行される基本的な処理について説明する。
<Basic processing in VDP135>
Next, the basic processing executed by the VDP 135 will be described.

VDP135では、表示CPU131から送信されたコマンドに基づいてレジスタ153の値を設定する処理、表示CPU131から送信された描画リストに基づいてフレームバッファ142のフレーム領域142a,142bに描画データを作成する処理、フレーム領域142a,142bに作成された描画データに基づいて図柄表示装置41に画像信号を出力する処理が少なくとも実行される。 In the VDP 135, a process of setting the value of the register 153 based on the command transmitted from the display CPU 131, a process of creating drawing data in the frame areas 142a and 142b of the frame buffer 142 based on the drawing list transmitted from the display CPU 131, At least the process of outputting the image signal to the symbol display device 41 is executed based on the drawing data created in the frame areas 142a and 142b.

上記各処理のうち、レジスタ153の値を設定する処理は、表示CPU131用のI/F156に付随する図示しない回路によって、描画リストを受信した場合にその都度実行される。また、描画データを作成する処理は、ジオメトリ演算部151及びレンダリング部152の協同により、予め定められた周期(例えば、20msec)で繰り返し実行される。また、画像信号を出力する処理は、表示回路155によって、予め定められた画像信号の出力開始タイミングとなることで実行される。 Of the above processes, the process of setting the value of the register 153 is executed each time a drawing list is received by a circuit (not shown) attached to the I / F 156 for the display CPU 131. Further, the process of creating the drawing data is repeatedly executed at a predetermined period (for example, 20 msec) in cooperation with the geometry calculation unit 151 and the rendering unit 152. Further, the process of outputting the image signal is executed by the display circuit 155 at a predetermined output start timing of the image signal.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU131からVDP135に送信される描画リストの内容について説明する。図43(a)〜(c)は描画リストの内容を説明するための説明図である。 Hereinafter, the process of creating the drawing data will be described in detail. Prior to the description of the process, the contents of the drawing list transmitted from the display CPU 131 to the VDP 135 will be described. 43 (a) to 43 (c) are explanatory views for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像を、第1フレーム領域142a及び第2フレーム領域142bのうちいずれを作成対象とするかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、各種指定情報が設定されている。 Header information is set in the drawing list. In the header information, information on the target buffer, which is information indicating which of the first frame area 142a and the second frame area 142b is to be created for the image for one frame related to the drawing list, is set. There is. In addition, various designated information is set in the header information.

描画リストには、上記ヘッダ情報以外にも、今回の描画データの作成に際してワールド座標系への配置対象となる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させてパラメータ情報が設定されている。 In the drawing list, in addition to the above header information, a plurality of types of image data to be arranged in the world coordinate system when creating the drawing data this time are set, and further, information on the drawing order of each image data and information on the drawing order of each image data. Parameter information of each image data is set. In detail, the drawing order information is set so as to be serial number numerical information, and the parameter information is set so that there is a one-to-one correspondence with each numerical information.

図43(a)の描画リストでは、背面用の画像データが最初の描画対象として設定されているとともに、背景用オブジェクトAが2番目、背景用オブジェクトBが3番目、・・・として設定されている。また、これら背景用の画像データよりも後の順番として、演出用の画像データが設定されており、例えば演出用オブジェクトAがm番目、演出用オブジェクトBがm+1番目、・・・として設定されている。また、これら演出用の画像データよりも後の順番として、図柄用の画像データが設定されており、例えば図柄用オブジェクトAがn番目、図柄用オブジェクトBがn+1番目、・・・として設定されている。 In the drawing list of FIG. 43 (a), the image data for the back surface is set as the first drawing target, the background object A is set as the second object, the background object B is set as the third object, and so on. There is. Further, the image data for the effect is set in the order after the image data for the background. For example, the object A for the effect is set as the mth, the object B for the effect is set as the m + 1th, and so on. There is. Further, the image data for the symbol is set in the order after the image data for the effect, for example, the symbol object A is set as the nth, the symbol object B is set as the n + 1th, and so on. There is.

なお、描画リストにおいて各画像データが設定されている順番は上記のものに限定されることはなく、設定されている順番が上記のものとは逆の順番であってもよく、図柄用の画像データの後に演出用の画像データ又は背景用の画像データが設定されていてもよく、所定の演出用の画像データと他の演出用の画像データとの間の順番に図柄用の画像データが設定されていてもよい。 The order in which each image data is set in the drawing list is not limited to the above, and the order in which the image data is set may be the reverse of the above, and the image for the design. The image data for the effect or the image data for the background may be set after the data, and the image data for the design is set in the order between the image data for the predetermined effect and the image data for the other effect. It may have been done.

パラメータ情報P(1),P(2),P(3),・・・,P(m),P(m+1),・・・,P(n),P(n+1),・・・には、複数種類のパラメータ情報が設定されている。背面用の画像データのパラメータ情報P(1)について具体的には、図43(b)に示すように、メモリモジュール133において背面用の画像データが記憶されているエリアのアドレスの情報と、背面用の画像データを設定する場合におけるワールド座標系内の位置を示す座標の情報(X値の情報,Y値の情報,Z値の情報)と、背面用の画像データを設定する場合におけるワールド座標系内の回転角度を示す回転角度の情報と、背面用の画像データの初期状態として設定されているスケールに対して、ワールド座標系に設定する際の倍率を示すスケールの情報と、背面用の画像データを設定する場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、が設定されている。 Parameter information P (1), P (2), P (3), ..., P (m), P (m + 1), ..., P (n), P (n + 1), ... , Multiple types of parameter information are set. Regarding the parameter information P (1) of the image data for the back surface, specifically, as shown in FIG. 43 (b), the information of the address of the area where the image data for the back surface is stored in the memory module 133 and the back surface. Coordinate information (X value information, Y value information, Z value information) indicating a position in the world coordinate system when setting image data for the back and world coordinates when setting image data for the back Information on the rotation angle indicating the rotation angle in the system, information on the scale indicating the magnification when setting in the world coordinate system with respect to the scale set as the initial state of the image data for the back surface, and information for the back surface. A uniform α value information indicating the entire transparent information (or transparent information) when setting image data is set.

ここで、座標の情報は、オブジェクトデータの全頂点について個別に設定される。また、この座標の情報はオブジェクトデータに対して設定されているが、テクスチャデータには設定されていない。テクスチャデータは、各ピクセルの座標値が、オブジェクトデータの各頂点に関連付けて予め定められている。この座標値は、ワールド座標系における座標値とは異なるUV座標値であり、オブジェクトデータ及びテクスチャデータの組合せに対して付属させた状態でメモリモジュール133に記憶されている。このUV座標値はテクスチャマッピングする際にVDP135により参照される。 Here, the coordinate information is set individually for all the vertices of the object data. Moreover, although the information of this coordinate is set for the object data, it is not set for the texture data. In the texture data, the coordinate values of each pixel are predetermined in association with each vertex of the object data. This coordinate value is a UV coordinate value different from the coordinate value in the world coordinate system, and is stored in the memory module 133 in a state of being attached to the combination of the object data and the texture data. This UV coordinate value is referred to by VDP135 when texture mapping.

パラメータ情報(P1)には、背面用の画像データを描画用の仮想2次元平面上に投影する場合における仮想カメラの座標及び向きの情報を含むカメラの情報と、背面用の画像データをレンダリングする場合における陰影を決定する仮想光源の位置及び向きの情報を含むライトの情報と、が設定されている。 In the parameter information (P1), the camera information including the coordinates and orientation information of the virtual camera when projecting the image data for the back surface on the virtual two-dimensional plane for drawing and the image data for the back surface are rendered. Light information, including information on the position and orientation of the virtual light source that determines the shadow in the case, is set.

パラメータ情報(P1)には、隠面消去を行う手法の一種であるZバッファ法の適用有無を示すZテスト指定の情報が設定されている。Zバッファ法とは、ワールド座標系内において多数のオブジェクトや2次元画像が奥行き方向(Z軸方向)に重なった場合に、Z軸上に並ぶ各ピクセル(又は各ボクセル、各画素、各ポリゴン)について視点からの距離を順次参照し、最も視点に近いピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに設定する深度調整用の処理方法である。 In the parameter information (P1), information specified by the Z test indicating whether or not the Z buffer method, which is a kind of method for erasing the hidden surface, is applied is set. The Z-buffer method is a method in which each pixel (or each voxel, each pixel, each polygon) arranged on the Z-axis when a large number of objects or two-dimensional images overlap in the depth direction (Z-axis direction) in the world coordinate system. This is a processing method for depth adjustment in which the distances from the viewpoint are sequentially referred to, and the numerical information set in the pixel closest to the viewpoint is set in the corresponding unit area in the frame areas 142a and 142b.

なお、上記隠面消去を行う手法としてZバッファ法以外にも、Zソート法が設定されている。Zソート法とは、Z軸上に並ぶ各ピクセルについて、各ピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに順次設定する深度調整用の処理方法である。当該Zソート法を適用する場合には、各ピクセルに設定されているα値が参照されて、Z軸上に並ぶ各ピクセルの色情報に対応した数値情報に対して対応するα値が適用された状態で、それら数値情報の加算処理や融合用の演算処理が実行されることとなる。Zソートによる隠面処理の具体的な処理構成の説明は省略するが、エフェクト画像を表示させる場合に起動される。 In addition to the Z-buffer method, a Z-sort method is set as a method for erasing the hidden surface. The Z sort method is a processing method for depth adjustment in which the numerical information set for each pixel is sequentially set in the corresponding unit area in the frame areas 142a and 142b for each pixel arranged on the Z axis. When the Z sort method is applied, the α value set for each pixel is referred to, and the corresponding α value is applied to the numerical information corresponding to the color information of each pixel arranged on the Z axis. In this state, the addition processing of the numerical information and the arithmetic processing for fusion are executed. Although the description of the specific processing configuration of the hidden surface processing by Z sorting is omitted, it is activated when the effect image is displayed.

パラメータ情報(P1)には、αデータの適用有無及び適用対象を示すαデータ指定の情報と、フォグの適用有無及び適用対象を示すフォグ指定の情報と、が設定されている。 In the parameter information (P1), information on α data designation indicating whether or not α data is applied and an application target, and information on fog designation indicating whether or not fog is applied and an application target are set.

ここで、α値とは対応するピクセルの透過情報のことである。このα値の描画リスト上における設定の仕方として、上記一律α値を指定する方法と、αデータ指定を行う方法とがある。一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU131における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、2次元の静止画像データやテクスチャデータの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。当該αデータは、同一の静止画像データ又は同一のテクスチャデータの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。 Here, the α value is the transparency information of the corresponding pixel. As a method of setting the α value on the drawing list, there are a method of uniformly specifying the α value and a method of specifying the α data. The uniform α value is transparent information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 131. The uniform α value is uniformly applied to all pixels of the image data. On the other hand, the α data is transparent information applied to each pixel of two-dimensional still image data and texture data, and is stored in advance in the memory module 133 as image data. In the α data, the transparency information can be different for each pixel within the range of the same still image data or the same texture data. This α data has a larger data capacity than the program data for setting a uniform α value.

上記のように一律α値とαデータとが設定されていることにより、2次元の静止画像データやテクスチャデータの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。 By setting the α value and α data uniformly as described above, the transparency of the two-dimensional still image data and texture data should be controlled uniformly for all pixels instead of being finely controlled for each pixel. In a good situation, it is possible to reduce the required data capacity by being able to deal with a uniform α value, and it is also possible to finely control the transparency in pixel units by applying α data.

フォグとは、ワールド座標系において所定方向、具体的にはZ軸方向の位置に対する明るさの度合いを調整するための情報である。フォグは、霧を表現したり、洞窟内を表現したりする場合に使用される。ここで、1フレーム分の画像の全体に対して単一のフォグを適用してもよい。この場合、1フレーム分の画像に一定の態様でフォグがかかることとなる。また、これに代えて、1フレーム分の画像の全体に対して複数のフォグを適用してもよい。この場合、Z軸方向の奥側に配置されているオブジェクトに対してその他のオブジェクトと同様のフォグを適用すると暗すぎることで質感がでないような状況において、当該オブジェクトには別のフォグを設定する構成とするとよい。これにより、上記質感を損なわせないようにしつつ、フォグを設定することによる効果を得ることができる。 The fog is information for adjusting the degree of brightness with respect to a position in a predetermined direction, specifically, a Z-axis direction in the world coordinate system. Fog is used to represent fog or the inside of a cave. Here, a single fog may be applied to the entire image for one frame. In this case, the image for one frame is fogged in a certain manner. Alternatively, a plurality of fogs may be applied to the entire image for one frame. In this case, if the same fog as other objects is applied to the object located on the back side in the Z-axis direction, it will be too dark and the texture will not be obtained. In this case, another fog is set for the object. It is good to have a configuration. As a result, the effect of setting the fog can be obtained while not impairing the texture.

パラメータ情報P(2)といった他のパラメータでは、図43(c)に示すように、上記図43(b)の各種情報のうち、背面用の画像データの情報に代えて、オブジェクトの情報とテクスチャの情報とが設定されている。これらの情報としては、メモリモジュール133においてオブジェクトやテクスチャが記憶されているエリアのアドレスの情報が設定されている。 In other parameters such as the parameter information P (2), as shown in FIG. 43 (c), among the various information in FIG. 43 (b), the object information and the texture are replaced with the image data information for the back surface. Information and is set. As such information, information on the address of the area where the object or texture is stored is set in the memory module 133.

VDP135における描画処理について、図44のフローチャートを参照しながら説明する。なお、以下の説明では、描画処理の実行に伴い描画データが作成される様子を、図45を参照しながら説明する。 The drawing process in the VDP 135 will be described with reference to the flowchart of FIG. In the following description, a state in which drawing data is created as the drawing process is executed will be described with reference to FIG. 45.

まずステップS2301では、表示CPU131から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS2302にて、背景用の設定処理を実行する。 First, in step S2301, it is determined whether or not a new drawing list is received from the display CPU 131. If a new drawing list has been received, the background setting process is executed in step S2302.

背景用の設定処理では、今回の描画リストにて指定されている画像データのうち、背景画像を表示するための背面用の画像データ及びキャラクタを表示するためのオブジェクトデータを把握する。そして、それら画像データやオブジェクトデータが、ワールド座標系に既に配置されているか否かを判定する。 In the background setting process, among the image data specified in the drawing list this time, the image data for the back surface for displaying the background image and the object data for displaying the character are grasped. Then, it is determined whether or not the image data and the object data are already arranged in the world coordinate system.

配置されていない場合には、ワールド座標系への配置を行うために参照する空きバッファ領域を画像データ毎に検索し、空きバッファ領域を確保した場合にはその領域の初期化処理を実行する。その後、メモリモジュール133においてその画像データが記憶されているアドレスを把握して読み出すとともに、描画リストに指定された座標、回転角度及びスケールとなるように、その画像データについてのローカル座標系の座標値をワールド座標系の座標値に変換させるワールド変換処理を実行して、上記確保したバッファ領域に設定する。 If it is not arranged, the free buffer area to be referred to for arranging it in the world coordinate system is searched for each image data, and if the free buffer area is secured, the initialization process of that area is executed. After that, the memory module 133 grasps and reads out the address where the image data is stored, and at the same time, the coordinate values of the local coordinate system for the image data so as to be the coordinates, the rotation angle, and the scale specified in the drawing list. Is executed in the world conversion process for converting to the coordinate values of the world coordinate system, and is set in the buffer area secured above.

配置されている場合には、既に確保されたバッファ領域に設定されている各種パラメータの更新処理を実行する。また、背景用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない背景用の画像データを消去する制御終了処理を実行する。 If it is placed, the update processing of various parameters set in the buffer area already secured is executed. Further, in the background setting process, the control end process for erasing the background image data that is not specified in the drawing list this time among the image data already arranged in the world coordinate system is executed.

続くステップS2303では、演出用の設定処理を実行する。演出用の設定処理では、今回の描画リストにて指定されている画像データのうち、演出画像を表示するためのオブジェクトデータを把握する。そして、その把握したオブジェクトデータが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、演出用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない演出用の画像データを消去する制御終了処理を実行する。 In the following step S2303, the setting process for the effect is executed. In the setting process for the effect, among the image data specified in the drawing list this time, the object data for displaying the effect image is grasped. Then, it is determined whether or not the grasped object data is already arranged in the world coordinate system. If it is not arranged, the process for starting the arrangement is executed as in the case described in the setting process for the background. If it is arranged, update processing of various parameters is executed. Further, in the setting process for the effect, the control end process for deleting the image data for the effect that is not specified in the drawing list this time among the image data already arranged in the world coordinate system is executed.

続くステップS2304では、図柄用の設定処理を実行する。図柄用の設定処理では、今回の描画リストにて指定されている画像データのうち、図柄を表示するためのオブジェクトデータを把握する。そして、その把握したオブジェクトデータが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、図柄用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない図柄用の画像データを消去する制御終了処理を実行する。 In the following step S2304, the setting process for the symbol is executed. In the setting process for the symbol, among the image data specified in the drawing list this time, the object data for displaying the symbol is grasped. Then, it is determined whether or not the grasped object data is already arranged in the world coordinate system. If it is not arranged, the process for starting the arrangement is executed as in the case described in the setting process for the background. If it is arranged, update processing of various parameters is executed. Further, in the setting process for the symbol, the control end process for deleting the image data for the symbol that is not specified in the drawing list this time among the image data already arranged in the world coordinate system is executed.

上記ステップS2302〜ステップS2304の処理が実行されることにより、図45に示すように、X軸,Y軸,Z軸で規定されたワールド座標系内に、描画リストにより配置対象として指定されている最背面画像用の画像データPC1と、各種オブジェクトデータPC2〜PC10とが、同じく描画リストにより指定されている座標、回転角度及びスケールで配置されたシーンの設定が完了する。 By executing the processes of steps S2302 to S2304, as shown in FIG. 45, they are designated as placement targets by the drawing list in the world coordinate system defined by the X-axis, Y-axis, and Z-axis. The setting of the scene in which the image data PC1 for the rearmost image and the various object data PCs 2 to PC10 are arranged at the coordinates, rotation angle, and scale also specified by the drawing list is completed.

なお、図45においては、最背面画像用の画像データPC1や各種オブジェクトデータPC2〜PC10が配置されている様子を簡易的に示している。また、最背面画像用の画像データPC1は、各種オブジェクトデータPC2〜PC10の全てに対してZ軸方向の座標が奥側に設定されている必要はなく、例えば、最背面画像用の画像データPC1が曲げられた状態又は傾斜した状態で配置されていることにより、一部のオブジェクトデータよりもZ軸方向の座標が手前側となる構成としてもよい。但し、この一部のオブジェクトデータとX軸方向の座標及びY軸方向の座標が同一である最背面画像用の画像データPC1の領域は、そのオブジェクトデータよりもZ軸方向の座標が奥側であることにより、全てのオブジェクトデータが最背面画像用の画像データPC1により覆われない状態となる。 Note that FIG. 45 simply shows how the image data PC1 for the rearmost image and the various object data PCs 2 to PC10 are arranged. Further, the image data PC1 for the rearmost image does not need to have the coordinates in the Z-axis direction set to the back side for all of the various object data PC2 to PC10. For example, the image data PC1 for the rearmost image Since the images are arranged in a bent state or an inclined state, the coordinates in the Z-axis direction may be closer to the front side than some object data. However, in the area of the image data PC1 for the rearmost image in which the coordinates in the X-axis direction and the coordinates in the Y-axis direction are the same as some of the object data, the coordinates in the Z-axis direction are on the back side of the object data. As a result, all the object data is not covered by the image data PC1 for the rearmost image.

続くステップS2305では、カメラ座標系(カメラ空間)への変換処理を実行する。カメラ座標系への変換処理では、描画リストにより指定されたカメラの情報により、視点の座標及び向きを決定するとともに、その視点の座標及び向きに基づいて、ワールド座標系を、視点を原点としたカメラ座標系(カメラ空間)に変換する。これにより、図45に示すように、カメラ形状で示す視点PC11が設定され、それに対応した座標系が設定された状態となる。 In the following step S2305, the conversion process to the camera coordinate system (camera space) is executed. In the conversion process to the camera coordinate system, the coordinates and orientation of the viewpoint are determined based on the camera information specified by the drawing list, and the world coordinate system is set as the origin based on the coordinates and orientation of the viewpoint. Convert to the camera coordinate system (camera space). As a result, as shown in FIG. 45, the viewpoint PC 11 shown in the camera shape is set, and the corresponding coordinate system is set.

ここで、カメラの情報は、個別画像(最背面画像用の画像データPC1及び各種オブジェクトデータPC2〜PC10)毎に設定されており、実際には個別画像毎にカメラ座標系が存在することとなる。このように個別画像毎にカメラ座標系が設定されることにより、視点切換を個別に行うことが可能となり、描画データの作成の自由度が高められる。但し、説明の便宜上、図45には全ての個別画像が単一の視点に設定されている状態を示す。 Here, the camera information is set for each individual image (image data PC1 for the rearmost image and various object data PC2 to PC10), and the camera coordinate system actually exists for each individual image. .. By setting the camera coordinate system for each individual image in this way, it is possible to switch the viewpoint individually, and the degree of freedom in creating drawing data is increased. However, for convenience of explanation, FIG. 45 shows a state in which all the individual images are set to a single viewpoint.

続くステップS2306では、視野座標系(視野空間)への変換処理を実行する。視野座標系への変換処理では、上記各カメラ座標系を、視点からの視野(視野角)に対応する視野座標系に変換する。これにより、各個別画像について、対応する視点の視野内に含まれている場合にはそれが抽出されるとともに、視点から近い個別画像が拡大されるとともに、視点から遠い個別画像が縮小される。 In the following step S2306, the conversion process to the visual field coordinate system (visual field space) is executed. In the conversion process to the field of view coordinate system, each camera coordinate system is converted into a field of view coordinate system corresponding to the field of view (viewing angle) from the viewpoint. As a result, for each individual image, if it is included in the field of view of the corresponding viewpoint, it is extracted, the individual image near the viewpoint is enlarged, and the individual image far from the viewpoint is reduced.

続くステップS2307では、クリッピング処理を実行する。クリッピング処理では、ステップS2306にて抽出された各個別画像が、それぞれ対応する視点を共通の原点として把握される。そして、その状態で描画対象のフレーム領域142a,142b(すなわち、図柄表示装置41の表示面P)に応じたスクリーン領域PC12(図45を参照)に対応する空間を基準として、ステップS2306にて抽出された各個別画像をクリッピングする。 In the following step S2307, clipping processing is executed. In the clipping process, each individual image extracted in step S2306 is grasped with the corresponding viewpoint as a common origin. Then, in that state, extraction is performed in step S2306 with reference to the space corresponding to the screen area PC12 (see FIG. 45) corresponding to the frame areas 142a and 142b to be drawn (that is, the display surface P of the symbol display device 41). Clip each individual image that has been created.

続くステップS2308では、ライティング処理を実行する。ライティング処理では、描画リストにより指定されたライトの情報により、仮想光源の種類、座標及び向きを決定するとともに、上記クリッピング処理により抽出された各オブジェクトについて上記仮想光源に基づき陰影や反射等を演算する。 In the following step S2308, the lighting process is executed. In the lighting process, the type, coordinates, and orientation of the virtual light source are determined based on the light information specified by the drawing list, and shading, reflection, and the like are calculated for each object extracted by the clipping process based on the virtual light source. ..

続くステップS2309では、色情報の設定処理を実行する。色情報の設定処理では、上記クリッピング処理により抽出された各オブジェクトに対して、ピクセル単位(すなわちポリゴン単位)又は頂点単位で、色情報を設定することで、各オブジェクトの外観を決定する。かかる色情報の設定処理では、基本的に、上記クリッピング処理により抽出された各オブジェクトデータに対して、それぞれに対応するテクスチャデータを貼り付けるテクスチャマッピング処理が実行される。また、状況によっては、バンプマッピングや透明度マッピングなどの処理が実行される。 In the following step S2309, the color information setting process is executed. In the color information setting process, the appearance of each object is determined by setting the color information in pixel units (that is, polygon units) or vertex units for each object extracted by the clipping process. In the color information setting process, basically, a texture mapping process of pasting the corresponding texture data to each object data extracted by the clipping process is executed. In addition, depending on the situation, processing such as bump mapping or transparency mapping is executed.

その後、ステップS2310及びステップS2311にて、ステップS2307にて抽出され、さらにライティング処理や色情報の設定処理が完了した各個別画像を、仮想2次元平面であるスクリーン領域PC12に投影(例えば、透視投影や平行投影)することで描画データを作成する。 After that, in step S2310 and step S2311, each individual image extracted in step S2307 and further completed in the lighting process and the color information setting process is projected onto the screen area PC12 which is a virtual two-dimensional plane (for example, perspective projection). And parallel projection) to create drawing data.

具体的には、まずステップS2310にて、背景用の描画データ作成処理を実行する。背景用の描画データ作成処理では、背景画像として設定されている最背面画像用の画像データ及びオブジェクトデータに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、背景用の描画データを作成する。 Specifically, first, in step S2310, the drawing data creation process for the background is executed. In the background drawing data creation process, the background image is drawn by projecting the image data and object data for the rearmost image set as the background image onto the screen area PC12 while erasing the hidden surface. Create data.

ここで、VRAM134には、図41に示すようにスクリーン用バッファ144が設けられており、スクリーン用バッファ144には背景用の描画データが書き込まれる背景用のバッファと、演出用の描画データ及び図柄用の描画データがまとめて書き込まれる演出及び図柄用のバッファとが設定されている。また、背景用のバッファ、演出及び図柄用のバッファには、スクリーン領域PC12のピクセル数と同一のドット数のエリアが設定されている。ステップS2310にて作成される背景用の描画データは、背景用のバッファに書き込まれる。なお、描画リストにおいて背景用の画像データが指定されていない場合には、背景用の描画データは作成されない。 Here, the VRAM 134 is provided with a screen buffer 144 as shown in FIG. 41, and the screen buffer 144 includes a background buffer in which drawing data for the background is written, and drawing data and symbols for the effect. An effect in which drawing data for the purpose is written together and a buffer for the design are set. Further, an area having the same number of dots as the number of pixels of the screen area PC12 is set in the buffer for the background and the buffer for the effect and the design. The background drawing data created in step S2310 is written in the background buffer. If the background image data is not specified in the drawing list, the background drawing data is not created.

続くステップS2311では、演出及び図柄用の描画データ作成処理を実行する。演出及び図柄用の描画データ作成処理では、演出画像として設定されているオブジェクトデータ及び図柄として設定されているオブジェクトデータに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、スクリーン用バッファ144における演出及び図柄用のバッファに演出及び図柄用の描画データを作成する。なお、描画リストにおいて演出及び図柄用の画像データが指定されていない場合には、演出及び図柄用の描画データは作成されない。 In the following step S2311, drawing data creation processing for the effect and the design is executed. In the drawing data creation process for the effect and the pattern, the object data set as the effect image and the object data set as the pattern are projected onto the screen area PC12 while erasing the hidden surface to screen the screen. Drawing data for the effect and the design is created in the buffer for the effect and the design in the buffer 144. If the image data for the effect and the design is not specified in the drawing list, the drawing data for the effect and the design is not created.

その後、ステップS2312にて、描画データ合成処理を実行した後に、本描画処理を終了する。ステップS2312の描画データ合成処理では、ステップS2310及びステップS2311の処理によりそれぞれ個別にスクリーン用バッファ144に作成されている背景用の描画データと、演出及び図柄用の描画データとを合成して、その合成結果を描画対象のフレーム領域142a,142bに1フレーム分の描画データとして書き込む。 Then, in step S2312, after executing the drawing data compositing process, the main drawing process is terminated. In the drawing data compositing process of step S2312, the drawing data for the background, which is individually created in the screen buffer 144 by the processes of steps S2310 and S2311, and the drawing data for the effect and the design are combined, and the drawing data is combined. The composition result is written in the frame areas 142a and 142b to be drawn as drawing data for one frame.

この場合、その書き込む順序は、背景用の描画データ→演出及び図柄用の描画データの順序で奥側から手前側に並ぶように規定されている。したがって、描画対象のフレーム領域142a,142bに対して、まず背景用の描画データを書き込み、次に演出及び図柄用の描画データを書き込む。この際、描画の実行対象となったピクセルに完全透明のα値が設定されている場合には奥側の画像がそのまま利用され、半透明のα値が設定されている場合にはα値を基準とした比率での奥側の画像と手前側の画像との融合が行われ、不透明のα値が設定されている場合には奥側の画像に対する手前側の画像の上書きが行われるように、ブレンド用の演算が実行される。 In this case, the writing order is defined so as to line up from the back side to the front side in the order of drawing data for the background → drawing data for the effect and the design. Therefore, the drawing data for the background is first written in the frame areas 142a and 142b to be drawn, and then the drawing data for the effect and the design is written. At this time, if a completely transparent α value is set for the pixel to be drawn, the image on the back side is used as it is, and if a semi-transparent α value is set, the α value is set. The image on the back side and the image on the front side are fused at the reference ratio, and when the opaque α value is set, the image on the front side is overwritten on the image on the back side. , The operation for blending is executed.

ちなみに、各描画データは1フレーム分の面積を有するように規定されているが、演出及び図柄用の描画データにおいて投影が行われなかったブランク部分については完全透明のα値が設定されている。 Incidentally, although each drawing data is defined to have an area for one frame, a completely transparent α value is set for the blank portion where the projection is not performed in the drawing data for the effect and the design.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路155から図柄表示装置41に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分だけ後の更新タイミングに対応する描画データの作成と並行して行われる。また、表示回路155は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域142a,142bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、描画データの描画対象となっているフレーム領域142a,142bが画像信号を出力するための出力対象とならないように規制されている。 The creation of the drawing data for one frame is performed so as to be completed within the range of the 20 msec cycle. Further, an image signal is output from the display circuit 155 to the symbol display device 41 based on the created drawing data. However, since the double buffer method is adopted as described above, the output of the image signal is output to the output. It is performed in parallel with the creation of drawing data corresponding to the update timing after one frame for the relevant frame. Further, the display circuit 155 has a selector circuit that alternately switches the frame areas 142a and 142b to be referred to each time the output of the image signal for one frame is completed, and the drawing data can be displayed by switching by the selector circuit. The frame areas 142a and 142b to be drawn are regulated so as not to be output targets for outputting an image signal.

なお、上記ステップS2302〜ステップS2307までがジオメトリ演算部151により実行される処理であり、上記ステップS2308〜ステップS2312がレンダリング部152により実行される処理である。 The steps S2302 to S2307 are the processes executed by the geometry calculation unit 151, and the steps S2308 to S2312 are the processes executed by the rendering unit 152.

<ループ演出を行うための構成>
次に、ループ演出を行うための構成について説明する。
<Structure for loop production>
Next, a configuration for performing a loop effect will be described.

ループ演出とは、複数の画像更新タイミングからなる所定期間においてループ演出用キャラクタが所定の動作を行う動画が繰り返し表示される演出である。当該ループ演出用の動画において最終フレームの画像と開始フレームの画像とは連続性を有するように設定されている。具体的には、ループ演出用キャラクタの動作が連続した動作であると遊技者に認識されるように、最終フレームの画像と開始フレームの画像とは連続性を有するように設定されている。これにより、ループ演出用の動画が1周した後において同一のループ演出用の動画を再度表示する場合に、ループ演出用キャラクタの動きを滑らかなものとすることが可能となる。 The loop effect is an effect in which a moving image in which a loop effect character performs a predetermined operation is repeatedly displayed in a predetermined period consisting of a plurality of image update timings. In the moving image for loop production, the image of the final frame and the image of the start frame are set to have continuity. Specifically, the image of the final frame and the image of the start frame are set to have continuity so that the player recognizes that the movement of the loop effect character is a continuous movement. As a result, when the same moving image for loop effect is displayed again after the moving image for loop effect makes one round, the movement of the character for loop effect can be made smooth.

ループ演出の内容について、図46を参照しながら詳細に説明する。図46(a)及び図46(b)はループ演出における動画表示の内容を説明するための説明図である。 The contents of the loop effect will be described in detail with reference to FIG. 46. 46 (a) and 46 (b) are explanatory views for explaining the content of the moving image display in the loop effect.

図46(a)及び図46(b)に示すように、ループ演出に際しては図柄表示装置41の表示面Pに複数のループ演出用キャラクタCH8,CH9が同時に表示される。具体的には、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とが同時に表示される。図46(a)及び図46(b)においてはループ演出用キャラクタCH8,CH9を簡略化して示しているが、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9は顔、胴体、両手、両足を有する人が表現されていると遊技者に認識されるように表示される。また、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とは、顔の表情や服装の柄を含めた模様、外縁形状及びサイズの少なくとも一つが相違していることにより、相互に異なるキャラクタであると遊技者に認識されるように表示される。ループ演出に際しては、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とが異なる動作を行っていると遊技者に認識されるように動画表示が行われる。 As shown in FIGS. 46 (a) and 46 (b), a plurality of loop effect characters CH8 and CH9 are simultaneously displayed on the display surface P of the symbol display device 41 during the loop effect. Specifically, the loop effect A character CH8 and the loop effect B character CH9 are displayed at the same time. Although the loop effect characters CH8 and CH9 are shown in a simplified manner in FIGS. 46 (a) and 46 (b), the loop effect A character CH8 and the loop effect B character CH9 are face, body, both hands, and both feet. It is displayed so that the player can recognize that the person having the is represented. Further, the A character CH8 for loop production and the B character CH9 for loop production are different characters because at least one of the pattern including the facial expression and the pattern of clothes, the outer edge shape, and the size is different. It is displayed so that the player can recognize it. In the loop effect, the moving image is displayed so that the player recognizes that the loop effect A character CH8 and the loop effect B character CH9 are performing different operations.

ループ演出として、図46(a)に示す第1ループ演出態様と、図46(b)に示す第2ループ演出態様とが設定されている。第1ループ演出態様と第2ループ演出態様とでは、図46(a)及び図46(b)に示すように、対応するループ演出用の動画の1周において行われるループ演出用AキャラクタCH8の動作内容が相違しているとともに、対応するループ演出用の動画の1周において行われるループ演出用BキャラクタCH9の動作内容が相違している。そして、ループ演出が実行される場合には、第1ループ演出態様によるループ演出用の動画が複数回繰り返される第1アニメーション期間が行われた後に、第2ループ演出態様によるループ演出用の動画が複数回繰り返される第2アニメーション期間が行われる。 As the loop effect, the first loop effect mode shown in FIG. 46 (a) and the second loop effect mode shown in FIG. 46 (b) are set. In the first loop effect mode and the second loop effect mode, as shown in FIGS. 46 (a) and 46 (b), the loop effect A character CH8 performed in one round of the corresponding loop effect moving image. The operation contents are different, and the operation contents of the loop effect B character CH9 performed in one lap of the corresponding loop effect moving image are different. Then, when the loop effect is executed, the video for the loop effect according to the second loop effect mode is displayed after the first animation period in which the video for the loop effect according to the first loop effect mode is repeated a plurality of times. A second animation period that is repeated multiple times is performed.

ループ演出は遊技回用の演出として実行され、大当たり結果となる遊技回において発生する。第1アニメーション期間は図柄表示装置41の表示面Pにおいて大当たり結果であることを示す図柄の組合せが表示される前に発生し、第2アニメーション期間は表示面Pにおいて大当たり結果であることを示す図柄の組合せが表示された後に発生する。したがって、第1アニメーション期間においては大当たり結果となることを期待するような動作表示がループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれにて行われ、第2アニメーション期間においては大当たり結果となったことを祝福するような動作表示がループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれにて行われる。 The loop effect is executed as an effect for the game times, and occurs in the game times that results in a big hit. The first animation period occurs before the combination of symbols indicating the jackpot result is displayed on the display surface P of the symbol display device 41, and the second animation period is the symbol indicating the jackpot result on the display surface P. Occurs after the combination of is displayed. Therefore, in the first animation period, the operation display expected to be a big hit result is performed in each of the loop effect A character CH8 and the loop effect B character CH9, and in the second animation period, the big hit result is displayed. An operation display for congratulating the fact is performed on each of the loop effect A character CH8 and the loop effect B character CH9.

上記のようにループ演出が実行される場合、第1ループ演出態様及び第2演出態様のそれぞれでループ演出用の動画が繰り返される場合には、最終フレームの画像と開始フレームの画像とでループ演出用AキャラクタCH8の動作が連続性を有するとともにループ演出用BキャラクタCH9の動作が連続性を有する。それに対して、第1ループ演出態様によるループ演出用の動画における最終フレームの画像と、第2ループ演出態様によるループ演出用の動画における開始フレームの画像との間では、ループ演出用AキャラクタCH8の動作が連続性を有さないとともにループ演出用BキャラクタCH9の動作が連続性を有さない。 When the loop effect is executed as described above, when the moving image for the loop effect is repeated in each of the first loop effect mode and the second effect mode, the loop effect is formed by the image of the final frame and the image of the start frame. The operation of the A character CH8 for loop production has continuity, and the operation of the B character CH9 for loop production has continuity. On the other hand, between the image of the final frame in the moving image for the loop effect according to the first loop effect mode and the image of the start frame in the moving image for the loop effect according to the second loop effect mode, the loop effect A character CH8 The operation does not have continuity, and the operation of the loop effect B character CH9 does not have continuity.

そこで、第1アニメーション期間が行われた後に、第2アニメーション期間が行われる場合には、第1ループ演出態様によるループ演出用の動画における最終フレームの画像を表示するためのデータと第2ループ演出態様によるループ演出用の動画における開始フレームの画像を表示するためのデータとを利用して導出されたデータによる補間表示が行われる補間表示期間が実行された後に、第2アニメーション期間が開始される。以下、上記ループ演出を実行するための具体的な構成を説明する。 Therefore, when the second animation period is performed after the first animation period is performed, the data for displaying the image of the final frame in the moving image for the loop effect according to the first loop effect mode and the second loop effect are performed. The second animation period is started after the interpolation display period in which the interpolated display is performed by the data derived by using the data for displaying the image of the start frame in the moving image for the loop effect according to the aspect is executed. .. Hereinafter, a specific configuration for executing the above loop effect will be described.

まずループ演出を実行するためのデータ構成について説明する。図47(a)はループ演出を実行するためのメモリモジュール133のデータ構成を説明するための説明図である。図47(a)に示すように、メモリモジュール133には、第1ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用AキャラクタCH8に行わせるためのAキャラクタ用の第1アニメーションデータAD1と、第2ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用AキャラクタCH8に行わせるためのAキャラクタ用の第2アニメーションデータAD2と、第1ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用BキャラクタCH9に行わせるためのBキャラクタ用の第1アニメーションデータAD3と、第2ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用BキャラクタCH9に行わせるためのBキャラクタ用の第2アニメーションデータAD4と、が予め記憶されている。 First, the data structure for executing the loop effect will be described. FIG. 47A is an explanatory diagram for explaining the data configuration of the memory module 133 for executing the loop effect. As shown in FIG. 47 (a), the memory module 133 has the first A character for the loop effect A character CH8 to display the operation corresponding to the moving image for the loop effect according to the first loop effect mode. According to the animation data AD1, the second animation data AD2 for the A character for causing the A character CH8 for the loop effect to display the operation corresponding to the moving image for the loop effect according to the second loop effect mode, and the first loop effect mode. The first animation data AD3 for the B character for causing the B character CH9 for the loop effect to display the operation corresponding to the moving image for the loop effect, and the operation display corresponding to the moving image for the loop effect according to the second loop effect mode. The second animation data AD4 for the B character to be performed by the B character CH9 for loop production is stored in advance.

各アニメーションデータAD1〜AD4は、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9を表示するためのオブジェクトデータにおける各頂点の座標を決定付けるデータである。各アニメーションデータAD1〜AD4には、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには、対応するオブジェクトデータにおける各頂点の座標データが設定されている。ポインタ情報は、ループ演出が行われている状況において1フレーム分進行する場合(画像更新タイミングとなる度)に更新され、ポインタ情報の更新に伴って参照すべき座標データが次の順番のものに変更されることとなる。この場合に、それら連続する座標データは、対応するループ演出用キャラクタCH8,CH9が対応するループ演出用の動画に対応した動作表示を行うように設定されている。 The animation data AD1 to AD4 are data for determining the coordinates of each vertex in the object data for displaying the loop effect A character CH8 and the loop effect B character CH9. A plurality of pointer information is set in the animation data AD1 to AD4 so as to be serial numbers, and the coordinate data of each vertex in the corresponding object data is set in each of the pointer information. The pointer information is updated when it advances by one frame in the situation where the loop effect is being performed (every time the image update timing is reached), and the coordinate data to be referred to is in the following order as the pointer information is updated. It will be changed. In this case, the continuous coordinate data is set so that the corresponding loop effect characters CH8 and CH9 perform the operation display corresponding to the corresponding loop effect moving image.

上記のとおり第1ループ演出態様によるループ演出用の動画を表示するために第1アニメーションデータAD1,AD3が設けられており、第2ループ演出態様によるループ演出用の動画を表示するために第2アニメーションデータAD2,AD4が設けられている。このように各ループ演出態様によるループ演出用の動画に対応させてアニメーションデータAD1〜AD4が区別して設けられていることにより、各期間におけるループ演出用の動画の繰り返し表示を可能としながら、一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることが可能となる。一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることで、アニメーションデータAD1〜AD4の読み出しに要する期間を分散することが可能となる。 As described above, the first animation data AD1 and AD3 are provided to display the moving image for the loop effect according to the first loop effect mode, and the second animation data AD1 and AD3 are provided to display the moving image for the loop effect according to the second loop effect mode. Animation data AD2 and AD4 are provided. In this way, the animation data AD1 to AD4 are separately provided corresponding to the video for loop production according to each loop production mode, so that the video for loop production can be repeatedly displayed in each period, and at once. It is possible to suppress the amount of data of the animation data AD1 to AD4 to be read. By suppressing the amount of animation data AD1 to AD4 to be read at one time, it is possible to disperse the period required for reading the animation data AD1 to AD4.

また、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9が同時に表示されて同一の期間においてループ演出用の動画が表示される構成であっても、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれに対応させてアニメーションデータAD1〜AD4が設けられている。これにより、ループ演出用AキャラクタCH8を動作させるためのアニメーションデータAD1,AD3と、ループ演出用BキャラクタCH9を動作させるためのアニメーションデータAD2,AD4とを個別に扱うことが可能となる。 Further, even if the loop effect A character CH8 and the loop effect B character CH9 are displayed at the same time and the loop effect moving image is displayed in the same period, the loop effect A character CH8 and the loop effect B are displayed. Animation data AD1 to AD4 are provided corresponding to each of the characters CH9. As a result, the animation data AD1 and AD3 for operating the loop effect A character CH8 and the animation data AD2 and AD4 for operating the loop effect B character CH9 can be handled individually.

メモリモジュール133には、図47(a)に示すように、ループ演出を実行するためのデータとして上記アニメーションデータAD1〜AD4以外にも配合テーブルCTが設けられている。配合テーブルCTは、補間表示期間の各更新タイミングにおける第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとの配合割合を決定付けるデータである。 As shown in FIG. 47A, the memory module 133 is provided with a blending table CT in addition to the animation data AD1 to AD4 as data for executing the loop effect. The blending table CT is data that determines the blending ratio of the coordinate data by the first animation data AD1 and AD3 and the coordinate data by the second animation data AD2 and AD4 at each update timing of the interpolation display period.

配合テーブルCTについて図47(b)の説明図を参照しながら詳細に説明する。配合テーブルCTには、補間表示期間に含まれる全ての更新タイミングと1対1で対応させて設定されたポインタ情報と、各ポインタ情報に対応した更新タイミングにおける第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとの配合割合のデータとが設定されている。具体的には、補間表示期間の開始タイミングから終了タイミングに亘って、第1アニメーションデータAD1,AD3による座標データの配合割合が徐々に小さくなるとともに第2アニメーションデータAD2,AD4による座標データの配合割合が徐々に大きくなるように、配合テーブルCTが設定されている。この場合に、配合テーブルCTによる座標テーブルの配合は、第1アニメーションデータAD1,AD3による最終タイミングの座標データと、第2アニメーションデータAD2,AD4による開始タイミングの座標データとを対象に行われる。したがって、補間表示期間においてループ演出用キャラクタCH8,CH9は、第1アニメーション期間の最終タイミングにおける表示態様から第2アニメーション期間の開始タイミングにおける表示態様に徐々に変化するように動画表示される。 The compounding table CT will be described in detail with reference to the explanatory diagram of FIG. 47 (b). In the compounding table CT, pointer information set in a one-to-one correspondence with all update timings included in the interpolation display period, and coordinate data by the first animation data AD1 and AD3 at the update timing corresponding to each pointer information. And the data of the blending ratio with the coordinate data by the second animation data AD2 and AD4 are set. Specifically, from the start timing to the end timing of the interpolation display period, the mixing ratio of the coordinate data by the first animation data AD1 and AD3 gradually decreases, and the mixing ratio of the coordinate data by the second animation data AD2 and AD4 gradually decreases. The compounding table CT is set so that is gradually increased. In this case, the combination of the coordinate table by the combination table CT is performed for the coordinate data of the final timing by the first animation data AD1 and AD3 and the coordinate data of the start timing by the second animation data AD2 and AD4. Therefore, in the interpolation display period, the loop effect characters CH8 and CH9 are displayed as moving images so as to gradually change from the display mode at the final timing of the first animation period to the display mode at the start timing of the second animation period.

次に、ループ演出が実行される様子について図48のタイミングチャートを参照しながら説明する。図48(a)は第1アニメーション期間を示し、図48(b)は第1アニメーションデータAD1,AD3に基づく第1ループ演出態様によるループ演出用の動画が新たに開始されるタイミングを示し、図48(c)は補間表示期間を示し、図48(d)は第2アニメーション期間を示し、図48(e)は第2アニメーションデータAD2,AD4に基づく第2ループ演出態様によるループ演出用の動画が新たに開始されるタイミングを示す。 Next, a state in which the loop effect is executed will be described with reference to the timing chart of FIG. FIG. 48A shows the first animation period, and FIG. 48B shows the timing at which the moving image for the loop effect according to the first loop effect mode based on the first animation data AD1 and AD3 is newly started. 48 (c) shows the interpolation display period, FIG. 48 (d) shows the second animation period, and FIG. 48 (e) shows the moving image for loop production by the second loop production mode based on the second animation data AD2 and AD4. Indicates the timing when is newly started.

t1のタイミングで図48(a)に示すように第1アニメーション期間が開始され、t1のタイミング、t2のタイミング及びt3のタイミングのそれぞれで、図48(b)に示すように、第1ループ演出態様によるループ演出用の動画の表示周回が新たに開始される。その後、t3のタイミングで開始された第1ループ演出態様によるループ演出用の動画の表示周回が終了するタイミングであるt4のタイミングで、図48(a)に示すように第1アニメーション期間が終了され、図48(c)に示すように補間表示期間が開始される。補間表示期間は、t5のタイミングまで継続する。 The first animation period is started at the timing of t1 as shown in FIG. 48 (a), and the first loop effect is produced at each of the timing of t1, the timing of t2, and the timing of t3, as shown in FIG. 48 (b). The display lap of the moving image for loop production according to the mode is newly started. After that, as shown in FIG. 48A, the first animation period ends at the timing of t4, which is the timing at which the display lap of the moving image for the loop effect according to the first loop effect mode started at the timing of t3 ends. , The interpolation display period is started as shown in FIG. 48 (c). The interpolation display period continues until the timing of t5.

t5のタイミングで補間表示期間が終了されることで、図48(d)に示すように第2アニメーション期間が開始される。そして、t5のタイミング、t6のタイミング及びt7のタイミングのそれぞれで、図48(e)に示すように、第2ループ演出態様によるループ演出用の動画の表示周回が新たに開始される。その後、t7のタイミングで開始された第2ループ演出態様によるループ演出用の動画の表示周回が終了するタイミングであるt8のタイミングで、図48(d)に示すように第2アニメーション期間が終了される。 When the interpolation display period ends at the timing of t5, the second animation period starts as shown in FIG. 48 (d). Then, at each of the timing of t5, the timing of t6, and the timing of t7, as shown in FIG. 48 (e), the display lap of the moving image for the loop effect according to the second loop effect mode is newly started. After that, as shown in FIG. 48 (d), the second animation period ends at the timing of t8, which is the timing at which the display lap of the moving image for the loop effect according to the second loop effect mode started at the timing of t7 ends. To.

ちなみに、補間表示期間の継続期間T2は、第1アニメーション期間において第1ループ演出態様によるループ演出用の動画が1周するために要する期間T1及び第2アニメーション期間において第2ループ演出態様によるループ演出用の動画が1周するために要する期間T3よりも短く設定されている。 By the way, the duration T2 of the interpolation display period is the period T1 required for the moving image for the loop effect by the first loop effect mode to make one round in the first animation period, and the loop effect by the second loop effect mode in the second animation period. It is set shorter than the period T3 required for the moving image to make one lap.

以下、ループ演出を実行するための具体的な処理構成を説明する。図49は、表示CPU131にて実行されるループ演出用の演算処理を示すフローチャートである。ループ演出用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該ループ演出用の演算処理は、現状設定されている実行対象テーブルにおいてループ演出についての情報が設定されている場合に起動される。 Hereinafter, a specific processing configuration for executing the loop effect will be described. FIG. 49 is a flowchart showing an arithmetic process for loop effect executed by the display CPU 131. The calculation process for loop effect is executed in the effect operation process of step S2209 in the task process (FIG. 42). The arithmetic processing for the loop effect is started when the information about the loop effect is set in the currently set execution target table.

第1アニメーション期間である場合(ステップS2401:YES)、ステップS2402にて第1アニメーション期間の開始タイミングであるか否かを判定する。第1アニメーション期間の開始タイミングである場合(ステップS2402:YES)、Aキャラクタ用の第1アニメーションデータAD1及びBキャラクタ用の第1アニメーションデータAD3をメモリモジュール133からワークRAM132に読み出す(ステップS2403)。続くステップS2404では、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9を表示するための画像データのメモリモジュール133における各アドレスを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。その後、ステップS2405にて、ループ演出を開始すべきことをVDP135に認識させるためのループ演出開始指定情報を表示CPU131のレジスタに記憶する。 If it is the first animation period (step S2401: YES), it is determined in step S2402 whether or not it is the start timing of the first animation period. When it is the start timing of the first animation period (step S2402: YES), the first animation data AD1 for the A character and the first animation data AD3 for the B character are read from the memory module 133 into the work RAM 132 (step S2403). In the following step S2404, each address in the memory module 133 of the image data for displaying the loop effect A character CH8 and the loop effect B character CH9 is grasped. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and loop effect B character CH9. Contains the corresponding texture data. After that, in step S2405, the loop effect start designation information for causing the VDP 135 to recognize that the loop effect should be started is stored in the register of the display CPU 131.

ステップS2402にて否定判定をした場合又はステップS2405の処理を実行した場合、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2406)。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。 When a negative determination is made in step S2402 or when the process of step S2405 is executed, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table (step S2406). The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and loop effect B character CH9. Contains the corresponding texture data.

その後、ステップS2407にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。具体的には、今回は第1アニメーション期間であるため、Aキャラクタ用の第1アニメーションデータAD1において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出すとともに、Bキャラクタ用の第1アニメーションデータAD3において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出す。そして、これら読み出した座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。これにより、Aキャラクタ用の第1アニメーションデータAD1に従ってループ演出用AキャラクタCH8を動作させることが可能となるとともに、Bキャラクタ用の第1アニメーションデータAD3に従ってループ演出用BキャラクタCH9を動作させることが可能となる。 After that, in step S2407, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. Specifically, since this is the first animation period, the coordinate data of all the vertices set in the first animation data AD1 for the A character corresponding to the pointer information at the update timing of this time is read out, and at the same time. In the first animation data AD3 for the B character, the coordinate data of all the vertices set corresponding to the pointer information at the current update timing is read out. Then, these read coordinate data are written in the area secured corresponding to the object data of the loop effect A character CH8 and the area reserved corresponding to the object data of the loop effect B character CH9 in the work RAM 132. By updating the information for control. As a result, the loop effect A character CH8 can be operated according to the first animation data AD1 for the A character, and the loop effect B character CH9 can be operated according to the first animation data AD3 for the B character. It will be possible.

続くステップS2408では、ステップS2406にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2409にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。 In the following step S2408, the various image data grasped in step S2406 are derived by calculating parameter information other than the coordinate data, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the reserved area and the reserved area corresponding to the object data of the loop effect B character CH9. After that, in step S2409, the loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

補間表示期間である場合(ステップS2401:NO、ステップS2410:YES)、ステップS2411にて補間表示期間用処理を実行する。補間表示期間用処理では、図50のフローチャートに示すように、まずステップS2501にて先側の補間表示開始タイミングであるか否かを判定する。 If it is the interpolation display period (step S2401: NO, step S2410: YES), the interpolation display period processing is executed in step S2411. In the interpolation display period processing, as shown in the flowchart of FIG. 50, first, in step S2501, it is determined whether or not it is the interpolation display start timing on the front side.

補間表示期間においては、既に説明したとおり、ループ演出用AキャラクタCH8における各頂点の座標データがAキャラクタ用の第1アニメーションデータAD1とAキャラクタ用の第2アニメーションデータAD2とを所定の割合で配合することにより導出されるとともに、ループ演出用BキャラクタCH9における各頂点の座標データがBキャラクタ用の第1アニメーションデータAD3とBキャラクタ用の第2アニメーションデータAD4とを所定の割合で配合することにより導出される。この場合に、配合による座標データの導出は、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて同時に開始されるのではなく、ループ演出用AキャラクタCH8についての配合による座標データの導出が先に開始され、その次の画像の更新タイミングにおいてループ演出用BキャラクタCH9についての配合による座標データの導出が開始される。 In the interpolation display period, as described above, the coordinate data of each vertex in the loop effect A character CH8 is a mixture of the first animation data AD1 for the A character and the second animation data AD2 for the A character in a predetermined ratio. The coordinate data of each vertex in the loop effect B character CH9 is derived by combining the first animation data AD3 for the B character and the second animation data AD4 for the B character in a predetermined ratio. Derived. In this case, the derivation of the coordinate data by the combination is not started at the same time for each of the loop effect A character CH8 and the loop effect B character CH9, but the derivation of the coordinate data by the combination for the loop effect A character CH8. Is started first, and at the next image update timing, the derivation of the coordinate data by blending the loop effect B character CH9 is started.

かかる内容について図51のタイミングチャートを参照しながら説明する。図51(a)は画像の更新タイミングを示し、図51(b)はループ演出用AキャラクタCH8の第1アニメーション期間を示し、図51(c)はループ演出用AキャラクタCH8の補間表示期間を示し、図51(d)はループ演出用BキャラクタCH9の第1アニメーション期間を示し、図51(e)はループ演出用BキャラクタCH9の補間表示期間を示す。 Such contents will be described with reference to the timing chart of FIG. FIG. 51 (a) shows the image update timing, FIG. 51 (b) shows the first animation period of the loop effect A character CH8, and FIG. 51 (c) shows the interpolation display period of the loop effect A character CH8. FIG. 51 (d) shows the first animation period of the loop effect B character CH9, and FIG. 51 (e) shows the interpolation display period of the loop effect B character CH9.

t1のタイミング、t2のタイミング、t3のタイミング及びt4のタイミングのそれぞれで図51(a)に示すように画像の更新タイミングとなる。この場合に、ループ演出用AキャラクタCH8については、t2のタイミングで、図51(b)に示すように第1アニメーション期間が終了するとともに図51(c)に示すように補間表示期間が開始される。但し、当該t2のタイミングでは、ループ演出用BキャラクタCH9については第1アニメーション期間が継続される。その後、1フレーム分だけ後の更新タイミングであるt3のタイミングで、ループ演出用BキャラクタCH9について、図51(d)に示すように第1アニメーション期間が終了するとともに図51(e)に示すように補間表示期間が開始される。 The timing of t1, the timing of t2, the timing of t3, and the timing of t4 are image update timings as shown in FIG. 51 (a). In this case, for the loop effect A character CH8, at the timing of t2, the first animation period ends as shown in FIG. 51 (b) and the interpolation display period starts as shown in FIG. 51 (c). To. However, at the timing of t2, the first animation period is continued for the loop effect B character CH9. After that, at the timing of t3, which is the update timing one frame later, for the loop effect B character CH9, as shown in FIG. 51 (d), the first animation period ends and as shown in FIG. 51 (e). The interpolation display period starts at.

補間表示期間用処理(図50)の説明に戻り、補間表示期間の開始タイミングは、ループ演出用AキャラクタCH8についての配合による座標データの導出の開始タイミングである。この場合、ステップS2501にて肯定判定をしてステップS2502に進む。ステップS2502では、Aキャラクタ用の第2アニメーションデータAD2をメモリモジュール133からワークRAM132に読み出す。また、ステップS2503にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。 Returning to the description of the interpolation display period processing (FIG. 50), the start timing of the interpolation display period is the start timing of deriving the coordinate data by blending the A character CH8 for loop effect. In this case, an affirmative determination is made in step S2501 and the process proceeds to step S2502. In step S2502, the second animation data AD2 for the A character is read from the memory module 133 to the work RAM 132. Further, in step S2503, the compounding table CT is read from the memory module 133 to the work RAM 132.

続くステップS2504では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。 In the following step S2504, based on the currently set execution target table, the type of image data corresponding to the current update timing is grasped. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and loop effect B character CH9. Contains the corresponding texture data.

その後、ステップS2505にて、ループ演出用AキャラクタCH8について各頂点の座標データを更新する。当該更新処理では、Aキャラクタ用の第1アニメーションデータAD1における最終タイミングの各頂点の座標データと、Aキャラクタ用の第2アニメーションデータAD2における開始タイミングの各頂点の座標データとを、配合テーブルCTにおいて最初のポインタ情報に対応した割合で配合する。具体的には、対応する頂点同士において第1アニメーションデータAD1における最終タイミングの座標データと第2アニメーションデータAD2における開始タイミングの座標データとを95対5の割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。 After that, in step S2505, the coordinate data of each vertex of the loop effect A character CH8 is updated. In the update process, the coordinate data of each vertex of the final timing in the first animation data AD1 for the A character and the coordinate data of each vertex of the start timing in the second animation data AD2 for the A character are stored in the compounding table CT. Mix in the proportion corresponding to the first pointer information. Specifically, the coordinate data of the final timing in the first animation data AD1 and the coordinate data of the start timing in the second animation data AD2 are mixed in the corresponding vertices at a ratio of 95: 5. Then, the coordinate data obtained by the combination is written in the area secured corresponding to the object data of the loop effect A character CH8 in the work RAM 132 to update the control information.

その後、ステップS2506にて、ループ演出用BキャラクタCH9について各頂点の座標データを更新する。具体的には、Bキャラクタ用の第1アニメーションデータAD3において最終タイミングの各頂点の座標データを読み出す。そして、これら読み出した座標データを、ワークRAM132においてループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。ここで、直前の更新タイミング、すなわち第1アニメーション期間の最終タイミングにおいても、ループ演出用BキャラクタCH9の各頂点の座標データとしてBキャラクタ用の第1アニメーションデータAD3における最終タイミングの各頂点の座標データが使用されている。したがって、補間表示期間の開始タイミングにおいてはループ演出用BキャラクタCH9における各頂点の座標データは直前の更新タイミングから変更されない。 After that, in step S2506, the coordinate data of each vertex of the loop effect B character CH9 is updated. Specifically, the coordinate data of each vertex at the final timing is read out in the first animation data AD3 for the B character. Then, the read coordinate data is written in the area reserved corresponding to the object data of the loop effect B character CH9 in the work RAM 132 to update the control information. Here, even at the immediately preceding update timing, that is, at the final timing of the first animation period, the coordinate data of each vertex of the final timing in the first animation data AD3 for the B character is used as the coordinate data of each vertex of the B character CH9 for loop production. Is used. Therefore, at the start timing of the interpolation display period, the coordinate data of each vertex in the loop effect B character CH9 is not changed from the immediately preceding update timing.

続くステップS2507では、ステップS2504にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2508にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。 In the following step S2507, the parameter information other than the coordinate data is calculated and derived from the various image data grasped in step S2504, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the reserved area and the reserved area corresponding to the object data of the loop effect B character CH9. After that, in step S2508, the loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

補間表示期間の開始タイミングに対して次の画像の更新タイミングである場合(ステップS2501:NO、ステップS2509:YES)、Bキャラクタ用の第2アニメーションデータAD4をメモリモジュール133からワークRAM132に読み出す(ステップS2510)。また、ステップS2511にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。ここで、補間表示期間の開始タイミングにおいては既に説明したとおり、Aキャラクタ用のアニメーションデータAD1,AD2に適用するための配合テーブルCTが、ステップS2503にて既にワークRAM132に読み出されている。これに対して、ステップS2511にて配合テーブルCTを新たに読み出すことにより、Aキャラクタ用のアニメーションデータAD1,AD2に適用するための配合テーブルCTとBキャラクタ用のアニメーションデータAD3,AD4に適用するための配合テーブルCTとがワークRAM132に個別に読み出されることとなる。これにより、配合テーブルCTを利用した座標データの配合が、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで1回の更新タイミング分ずれて開始される構成であったとしても、配合テーブルCTによる最初のポインタ情報に対応した割合から座標データの配合を開始することが可能となる。 When it is the update timing of the next image with respect to the start timing of the interpolation display period (step S2501: NO, step S2509: YES), the second animation data AD4 for the B character is read from the memory module 133 to the work RAM 132 (step). S2510). Further, in step S2511, the compounding table CT is read from the memory module 133 to the work RAM 132. Here, at the start timing of the interpolation display period, as described above, the blending table CT for applying to the animation data AD1 and AD2 for the A character has already been read into the work RAM 132 in step S2503. On the other hand, by newly reading the blending table CT in step S2511, the blending table CT for applying to the animation data AD1 and AD2 for the A character and the animation data AD3 and AD4 for the B character are applied. The compounding table CT and the compounding table CT of the above are individually read out to the work RAM 132. As a result, even if the combination of the coordinate data using the combination table CT is started with the loop effect A character CH8 and the loop effect B character CH9 shifted by one update timing, the combination table It is possible to start blending the coordinate data from the ratio corresponding to the first pointer information by CT.

続くステップS2512では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。 In the following step S2512, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and loop effect B character CH9. Contains the corresponding texture data.

その後、ステップS2513にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。当該更新処理では、Aキャラクタ用の第1アニメーションデータAD1における最終タイミングの各頂点の座標データと、Aキャラクタ用の第2アニメーションデータAD2における開始タイミングの各頂点の座標データとを、ループ演出用AキャラクタCH8に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。また、Bキャラクタ用の第1アニメーションデータAD3における最終タイミングの各頂点の座標データと、Bキャラクタ用の第2アニメーションデータAD4における開始タイミングの各頂点の座標データとを、ループ演出用BキャラクタCH9に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。 After that, in step S2513, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. In the update process, the coordinate data of each vertex of the final timing in the first animation data AD1 for the A character and the coordinate data of each vertex of the start timing in the second animation data AD2 for the A character are combined with the loop effect A. In the blending table CT corresponding to the character CH8, blending is performed at a ratio corresponding to the pointer information of this time. Then, the coordinate data obtained by the combination is written in the area secured corresponding to the object data of the loop effect A character CH8 in the work RAM 132 to update the control information. Further, the coordinate data of each vertex of the final timing in the first animation data AD3 for the B character and the coordinate data of each vertex of the start timing in the second animation data AD4 for the B character are transferred to the loop effect B character CH9. In the corresponding blending table CT, blend in the ratio corresponding to the pointer information of this time. Then, the coordinate data obtained by the combination is written in the area secured corresponding to the object data of the loop effect B character CH9 in the work RAM 132 to update the control information.

続くステップS2507では、ステップS2512にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2508にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。 In the following step S2507, the parameter information other than the coordinate data is calculated and derived from the various image data grasped in step S2512, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the reserved area and the reserved area corresponding to the object data of the loop effect B character CH9. After that, in step S2508, the loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

補間表示期間であって後側の補間表示開始タイミングよりも後の更新タイミングである場合(ステップS2501:NO、ステップS2509:NO)、ステップS2510及びステップS2511の処理を実行することなくステップS2512に進む。ステップS2512では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。 When the interpolation display period is the update timing after the interpolation display start timing on the rear side (step S2501: NO, step S2509: NO), the process proceeds to step S2512 without executing the processes of steps S2510 and S2511. .. In step S2512, based on the currently set execution target table, the type of image data corresponding to the current update timing is grasped. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and loop effect B character CH9. Contains the corresponding texture data.

その後、ステップS2513にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。当該更新処理では、Aキャラクタ用の第1アニメーションデータAD1における最終タイミングの各頂点の座標データと、Aキャラクタ用の第2アニメーションデータAD2における開始タイミングの各頂点の座標データとを、ループ演出用AキャラクタCH8に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。また、Bキャラクタ用の第1アニメーションデータAD3における最終タイミングの各頂点の座標データと、Bキャラクタ用の第2アニメーションデータAD4における開始タイミングの各頂点の座標データとを、ループ演出用BキャラクタCH9に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。 After that, in step S2513, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. In the update process, the coordinate data of each vertex of the final timing in the first animation data AD1 for the A character and the coordinate data of each vertex of the start timing in the second animation data AD2 for the A character are combined with the loop effect A. In the blending table CT corresponding to the character CH8, blending is performed at a ratio corresponding to the pointer information of this time. Then, the coordinate data obtained by the combination is written in the area secured corresponding to the object data of the loop effect A character CH8 in the work RAM 132 to update the control information. Further, the coordinate data of each vertex of the final timing in the first animation data AD3 for the B character and the coordinate data of each vertex of the start timing in the second animation data AD4 for the B character are transferred to the loop effect B character CH9. In the corresponding blending table CT, blend in the ratio corresponding to the pointer information of this time. Then, the coordinate data obtained by the combination is written in the area secured corresponding to the object data of the loop effect B character CH9 in the work RAM 132 to update the control information.

続くステップS2507では、ステップS2512にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2508にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。 In the following step S2507, the parameter information other than the coordinate data is calculated and derived from the various image data grasped in step S2512, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the reserved area and the reserved area corresponding to the object data of the loop effect B character CH9. After that, in step S2508, the loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

ループ演出用の演算処理(図49)の説明に戻り、第2アニメーション期間である場合(ステップS2401及びステップS2410:NO)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2406)。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。 Returning to the explanation of the arithmetic processing for loop production (FIG. 49), in the case of the second animation period (step S2401 and step S2410: NO), the update timing is supported based on the currently set execution target table. Grasp the type of image data (step S2406). The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and loop effect B character CH9. Contains the corresponding texture data.

その後、ステップS2407にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。具体的には、今回は第2アニメーション期間であるため、Aキャラクタ用の第2アニメーションデータAD2において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出すとともに、Bキャラクタ用の第2アニメーションデータAD4において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出す。そして、これら読み出した座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。これにより、Aキャラクタ用の第2アニメーションデータAD2に従ってループ演出用AキャラクタCH8を動作させることが可能となるとともに、Bキャラクタ用の第2アニメーションデータAD4に従ってループ演出用BキャラクタCH9を動作させることが可能となる。 After that, in step S2407, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. Specifically, since this is the second animation period, the coordinate data of all the vertices set in the second animation data AD2 for the A character corresponding to the pointer information at the update timing of this time is read out, and at the same time. In the second animation data AD4 for the B character, the coordinate data of all the vertices set corresponding to the pointer information at the current update timing is read out. Then, these read coordinate data are written in the area secured corresponding to the object data of the loop effect A character CH8 and the area reserved corresponding to the object data of the loop effect B character CH9 in the work RAM 132. By updating the information for control. As a result, the loop effect A character CH8 can be operated according to the second animation data AD2 for the A character, and the loop effect B character CH9 can be operated according to the second animation data AD4 for the B character. It will be possible.

続くステップS2408では、ステップS2406にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2409にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。 In the following step S2408, the various image data grasped in step S2406 are derived by calculating parameter information other than the coordinate data, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the reserved area and the reserved area corresponding to the object data of the loop effect B character CH9. After that, in step S2409, the loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

上記のようにループ演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータの使用指示の情報が設定される。また、当該描画リストには、各頂点の座標データを含めて、それら画像データに適用するパラメータ情報が設定される。また、当該描画リストにはループ演出指定情報が設定され、さらにループ演出の開始タイミングにおいてはループ演出開始指定情報が設定される。 When the arithmetic processing for loop effect is executed as described above, the drawing list transmitted to VDP135 in the subsequent drawing list output process (step S609) includes the object data corresponding to the loop effect A character CH8 and the loop. Information on usage instructions of texture data corresponding to the A character CH8 for effect, object data corresponding to B character CH9 for loop effect, and texture data corresponding to B character CH9 for loop effect is set. Further, in the drawing list, parameter information to be applied to the image data including the coordinate data of each vertex is set. In addition, loop effect designation information is set in the drawing list, and loop effect start designation information is set at the start timing of the loop effect.

次に、VDP135にて実行されるループ演出用の設定処理を、図52のフローチャートを参照しながら説明する。ループ演出用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいてループ演出指定情報が設定されている場合に、ループ演出用の設定処理が実行される。 Next, the setting process for loop effect executed by VDP135 will be described with reference to the flowchart of FIG. The setting process for the loop effect is executed as a part of the setting process for the effect executed in step S2303 of the drawing process (FIG. 44). Further, when the loop effect designation information is set in the drawing list, the setting process for the loop effect is executed.

今回の描画リストにループ演出開始指定情報が設定されている場合(ステップS2601:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133においてループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール133からこれら画像データをVRAM134の展開用バッファ141に読み出す(ステップS2602)。 When the loop effect start designation information is set in the drawing list this time (step S2601: YES), the object corresponding to the loop effect A character CH8 in the memory module 133 is obtained from the address information set in the drawing list. Grasp the address where the data, the texture data corresponding to the loop effect A character CH8, the object data corresponding to the loop effect B character CH9, and the texture data corresponding to the loop effect B character CH9 are stored, and grasp the address. Based on the result, these image data are read from the memory module 133 into the expansion buffer 141 of the VRAM 134 (step S2602).

ステップS2601にて否定判定をした場合、又はステップS2602の処理を実行した場合、ステップS2603にて、今回の更新タイミングに対応した種類の画像データを把握する。また、ステップS2604にて、ループ演出用AキャラクタCH8を表示するためのオブジェクトデータ及びループ演出用BキャラクタCH9を表示するためのオブジェクトデータのそれぞれについてのワールド座標系における各頂点の座標データを今回の描画リストから把握し、さらにステップS2605にて、これらオブジェクトデータ及び対応するテクスチャデータの他のパラメータ情報を把握する。そして、ステップS2606にて、ステップS2603〜ステップS2605の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。 When a negative determination is made in step S2601 or when the process of step S2602 is executed, in step S2603, the type of image data corresponding to the current update timing is grasped. Further, in step S2604, the coordinate data of each vertex in the world coordinate system for each of the object data for displaying the loop effect A character CH8 and the object data for displaying the loop effect B character CH9 is obtained this time. It is grasped from the drawing list, and in step S2605, the other parameter information of these object data and the corresponding texture data is grasped. Then, in step S2606, the setting process for the world coordinate system is executed according to the contents corresponding to the grasped results of steps S2603 to S2605.

上記のようにループ演出用の設定処理が実行されることにより、ワールド座標系にループ演出用AキャラクタCH8のオブジェクトデータ及びループ演出用BキャラクタCH9のオブジェクトデータが配置されるとともに、それらオブジェクトデータにおける各頂点の座標データとして各アニメーションデータAD1〜AD4から導出された座標データが適用される。これにより、表示面Pでは、第1アニメーション期間、補間表示期間及び第2アニメーション期間のそれぞれに対応した態様でループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9が動作するように動画表示が行われる。 By executing the setting process for the loop effect as described above, the object data of the loop effect A character CH8 and the object data of the loop effect B character CH9 are arranged in the world coordinate system, and the object data in the loop effect The coordinate data derived from each animation data AD1 to AD4 is applied as the coordinate data of each vertex. As a result, on the display surface P, the moving image is displayed so that the loop effect A character CH8 and the loop effect B character CH9 operate in the manner corresponding to each of the first animation period, the interpolation display period, and the second animation period. Will be

第1ループ演出態様によるループ演出用の動画を表示するために第1アニメーションデータAD1,AD3が設けられており、第2ループ演出態様によるループ演出用の動画を表示するために第2アニメーションデータAD2,AD4が設けられている。このように各ループ演出態様によるループ演出用の動画に対応させてアニメーションデータAD1〜AD4が区別して設けられていることにより、各期間におけるループ演出用の動画の繰り返し表示を可能としながら、一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることが可能となる。一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることで、アニメーションデータAD1〜AD4の読み出しに要する期間を分散することが可能となる。 The first animation data AD1 and AD3 are provided to display the moving image for the loop effect according to the first loop effect mode, and the second animation data AD2 is provided to display the moving image for the loop effect according to the second loop effect mode. , AD4 is provided. In this way, the animation data AD1 to AD4 are separately provided corresponding to the video for loop production according to each loop production mode, so that the video for loop production can be repeatedly displayed in each period, and at once. It is possible to suppress the amount of data of the animation data AD1 to AD4 to be read. By suppressing the amount of animation data AD1 to AD4 to be read at one time, it is possible to disperse the period required for reading the animation data AD1 to AD4.

また、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9が同時に表示されて同一の期間においてループ演出用の動画が表示される構成であっても、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれに対応させてアニメーションデータAD1〜AD4が設けられている。これにより、ループ演出用AキャラクタCH8を動作させるためのアニメーションデータAD1,AD3と、ループ演出用BキャラクタCH9を動作させるためのアニメーションデータAD2,AD4とを個別に扱うことが可能となる。 Further, even if the loop effect A character CH8 and the loop effect B character CH9 are displayed at the same time and the loop effect moving image is displayed in the same period, the loop effect A character CH8 and the loop effect B are displayed. Animation data AD1 to AD4 are provided corresponding to each of the characters CH9. As a result, the animation data AD1 and AD3 for operating the loop effect A character CH8 and the animation data AD2 and AD4 for operating the loop effect B character CH9 can be handled individually.

第1ループ演出態様によるループ演出用の動画が表示される第1アニメーション期間と、第2ループ演出態様によるループ演出用の動画が表示される第2アニメーション期間との間には、第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとを所定の割合で配合することにより導出された座標データを利用して動画表示を行う補間表示期間が設定されている。これにより、第1アニメーションデータAD1,AD2と第2アニメーションデータAD2,AD4との間でループ演出用キャラクタCH8,CH9の動作表示の連続性を担保しなくても、第1アニメーション期間から第2アニメーション期間への移行に際してループ演出用キャラクタCH8,CH9の動作表示の連続性を担保することが可能となる。 The first animation data is between the first animation period in which the video for loop production by the first loop production mode is displayed and the second animation period in which the video for loop production in the second loop production mode is displayed. An interpolation display period is set in which the moving image is displayed using the coordinate data derived by blending the coordinate data obtained by AD1 and AD3 and the coordinate data obtained by the second animation data AD2 and AD4 at a predetermined ratio. As a result, even if the continuity of the operation display of the loop effect characters CH8 and CH9 is not ensured between the first animation data AD1 and AD2 and the second animation data AD2 and AD4, the first animation period to the second animation At the time of transition to the period, it is possible to ensure the continuity of the operation display of the loop effect characters CH8 and CH9.

ループ演出用AキャラクタCH8について第1アニメーション期間が終了して補間表示期間が開始されるタイミングと、ループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始されるタイミングとが異なる更新タイミングとなるように設定されている。これにより、補間表示期間の開始タイミングにおける処理負荷が極端に大きくなってしまうことを防止することが可能となる。 The timing when the first animation period ends and the interpolation display period starts for the loop effect A character CH8 and the timing when the first animation period ends and the interpolation display period starts for the loop effect B character CH9 It is set to have different update timings. This makes it possible to prevent the processing load at the start timing of the interpolation display period from becoming extremely large.

ループ演出用AキャラクタCH8について第1アニメーション期間が終了して補間表示期間が開始されたタイミングに対して、次の画像の更新タイミングにおいてループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始される。これにより、補間表示期間の開始タイミングをループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで異ならせる構成であっても、ループ演出用AキャラクタCH8において第2アニメーション期間が開始された場合にはループ演出用BキャラクタCH9における第2アニメーション期間を早期に開始することが可能となる。 Interpolation for the loop effect A character CH8 The first animation period ends and the interpolation display period starts for the loop effect B character CH9 at the next image update timing. The display period starts. As a result, even if the start timing of the interpolation display period is different between the loop effect A character CH8 and the loop effect B character CH9, when the second animation period is started in the loop effect A character CH8. Can start the second animation period in the loop effect B character CH9 at an early stage.

ループ演出用AキャラクタCH8についての補間表示期間及びループ演出用BキャラクタCH9についての補間表示期間のいずれであっても、同一の配合テーブルCTが利用される。これにより、補間表示期間を実行するために必要なデータ量を抑えることが可能となる。 The same compounding table CT is used in both the interpolation display period for the loop effect A character CH8 and the interpolation display period for the loop effect B character CH9. This makes it possible to reduce the amount of data required to execute the interpolation display period.

<ループ演出に係る構成の別形態>
・ループ演出が実行される場合には第1アニメーション期間及び第2アニメーション期間の両方が常に発生する構成に限定されることはなく、例えば外れ結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間は発生するものの第2アニメーション期間は発生しない構成であり、大当たり結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間の後に第2アニメーション期間が発生する構成としてもよい。この場合、ループ演出として第1アニメーション期間のみが発生する場合と、第1アニメーション期間の後に第2アニメーション期間が発生する場合とのそれぞれが起こり得るため、アニメーションデータを第1アニメーションデータAD1,AD3と第2アニメーションデータAD2,AD4とで区別することが好ましい。そして、このようにアニメーションデータAD1〜AD4を第1アニメーション期間用と第2アニメーション期間用とで区別して設ける構成においては上記実施形態のようにループ演出用キャラクタCH8,CH9の動作を滑らかなものとすべく補間表示期間を設定することが好ましい。
<Another form of configuration related to loop production>
-When the loop effect is executed, it is not limited to the configuration in which both the first animation period and the second animation period always occur. For example, in the game times that result in a deviation, the reach display in the production for the game times Although the first animation period occurs as the production of, the second animation period does not occur, and in the game times that result in a big hit, the second animation period after the first animation period as the production of the reach display in the production for the game times. May be configured to generate. In this case, there may be a case where only the first animation period occurs as a loop effect and a case where the second animation period occurs after the first animation period. Therefore, the animation data is referred to as the first animation data AD1 and AD3. It is preferable to distinguish between the second animation data AD2 and AD4. Then, in the configuration in which the animation data AD1 to AD4 are separately provided for the first animation period and the second animation period in this way, the operation of the loop effect characters CH8 and CH9 is smooth as in the above embodiment. It is preferable to set the interpolation display period as much as possible.

・ループ演出用AキャラクタCH8について第1アニメーション期間が終了して補間表示期間が開始されたタイミングに対して、次の画像の更新タイミングにおいてループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始される構成に限定されることはなく、前者のタイミングに対して複数分の更新タイミングの後に、ループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始される構成としてもよい。 -For the loop effect A character CH8, the first animation period ends for the loop effect B character CH9 at the timing when the first animation period ends and the interpolation display period starts, and at the next image update timing. The configuration is not limited to the configuration in which the interpolation display period is started, and the first animation period for the loop effect B character CH9 ends and the interpolation display period starts after a plurality of update timings with respect to the former timing. It may be configured to be interpolated.

・第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとを所定の割合で配合することにより座標データを導出する処理の開始タイミングがループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで異なる構成において、配合することにより導出された座標データが利用されることとなる補間表示期間がループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで同時に開始される構成としてもよい。これにより、処理負荷の分散を図りながら、ループ演出用AキャラクタCH8とループ演出用キャラクタCH9との見た目において補間表示期間の動作を同時に開始することが可能となる。 -The start timing of the process of deriving the coordinate data by blending the coordinate data by the first animation data AD1 and AD3 and the coordinate data by the second animation data AD2 and AD4 in a predetermined ratio is the loop effect A character CH8 and the loop. In a configuration different from that of the effect B character CH9, the interpolation display period in which the coordinate data derived by blending is used is started at the same time in the loop effect A character CH8 and the loop effect B character CH9. It may be configured. As a result, it is possible to simultaneously start the operation of the interpolation display period in the appearance of the loop effect A character CH8 and the loop effect character CH9 while distributing the processing load.

<補間表示期間用処理の別形態>
上記実施形態では、第1アニメーション期間の終了するタイミングが予め定められており、第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データが、ループ演出が実行される度に一定となる構成としたが、これに代えて、第1アニメーション期間の終了するタイミングが変動し得ることにより、第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データが、ループ演出が実行される度に変動し得る構成としてもよい。このように各頂点の座標データが変動し得る具体的な構成について以下に詳細に説明する。
<Another form of processing for the interpolation display period>
In the above embodiment, the end timing of the first animation period is predetermined, and the loop effect is executed on the coordinate data of each vertex of each loop effect character CH8 and CH9 at the end timing of the first animation period. The configuration is constant every time, but instead of this, the end timing of the first animation period can be changed, so that the coordinates of the respective vertices of the loop effect characters CH8 and CH9 at the end timing of the first animation period can be changed. The coordinate data may be configured to be variable each time the loop effect is executed. A specific configuration in which the coordinate data of each vertex can fluctuate in this way will be described in detail below.

本実施形態では、遊技者により操作される演出用操作装置が音声発光制御装置60と電気的に接続されており、第1アニメーション期間の実行途中で演出用操作装置が操作されたことが音光側MPU62にて特定された場合にはそれに対応するコマンドが表示CPU131に送信され、表示CPU131は当該コマンドを受信した場合には第1アニメーション期間を終了させて補間表示期間の実行後に第2アニメーション期間を開始させる。当該構成を、例えば外れ結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間は発生するものの第2アニメーション期間は発生しない構成であり、大当たり結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間の後に第2アニメーション期間が発生する構成に適用した場合、大当たり結果となる遊技回における第1アニメーション期間において演出用操作装置が操作されたタイミングに応じて、大当たり結果となることの確定報知となる第2アニメーション期間の開始タイミングを変動させることが可能となる。この場合、ループ演出を利用しながら、演出用操作装置の操作タイミングに対応したタイミングでの確定報知を行うことが可能となる。 In the present embodiment, the effect operation device operated by the player is electrically connected to the voice emission control device 60, and it is sound that the effect operation device is operated during the execution of the first animation period. When specified by the side MPU 62, a command corresponding to the command is transmitted to the display CPU 131, and when the display CPU 131 receives the command, the display CPU 131 ends the first animation period and executes the interpolation display period and then the second animation period. To start. For example, in the game times that result in a deviation, the first animation period occurs as the effect of the reach display in the effect for the game times, but the second animation period does not occur, and in the game times that result in a big hit, the game When applied to a configuration in which a second animation period occurs after the first animation period as a reach display effect in the replay effect, the timing at which the effect operation device is operated in the first animation period in the game times that results in a big hit. Therefore, it is possible to change the start timing of the second animation period, which is a definite notification that the jackpot result will be obtained. In this case, it is possible to perform definitive notification at a timing corresponding to the operation timing of the effect operation device while using the loop effect.

上記のように第1アニメーション期間の終了するタイミングが変動し得る構成においては、第1アニメーション期間の終了タイミングにおけるループ演出用AキャラクタCH8の動作態様及びループ演出用BキャラクタCH9の動作態様も変動し得る。そうすると、補間表示期間の開始タイミングをループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで異なる更新タイミングとする場合において、第1アニメーション期間の終了タイミングにおけるループ演出用キャラクタCH8,CH9の動作態様に応じて補間表示期間を先に開始する対象を変動させることが好ましい。 In the configuration in which the end timing of the first animation period can be changed as described above, the operation mode of the loop effect A character CH8 and the operation mode of the loop effect B character CH9 at the end timing of the first animation period also change. obtain. Then, when the start timing of the interpolation display period is different between the loop effect A character CH8 and the loop effect B character CH9, the operation mode of the loop effect characters CH8 and CH9 at the end timing of the first animation period. It is preferable to change the target for which the interpolation display period is started first according to the above.

具体的には、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のうち、第1アニメーション期間の終了タイミングと第2アニメーション期間の開始タイミングとの間におけるループ演出用キャラクタCH8,CH9の変化動作量が多い側の方が、当該変化動作量が少ない側よりも補間表示期間における一の更新タイミングにおける動作量が多くなる。そうすると、上記変化動作量が多い側のループ演出用キャラクタCH8,CH9の方が補間表示期間における画像の更新タイミングは多い方が好ましい。これに対して、補間表示期間の開始タイミングが各ループ演出用キャラクタCH8,CH9が相違する構成であったとしても、補間表示期間の終了タイミグは各ループ演出用キャラクタCH8、CH9で同一となっているため、補間表示期間の終了タイミングが遅い側のループ演出用キャラクタCH8,CH9は早い側よりも補間表示期間において発生する画像の更新タイミングの回数が少なくなる。そこで、本別形態では、各ループ演出用キャラクタCH8,CH9のうち、第1アニメーション期間の終了タイミングとの関係で上記変化動作量が多い側から先に補間表示期間を開始させる構成となっている。 Specifically, of the loop effect A character CH8 and the loop effect B character CH9, the change operation of the loop effect characters CH8 and CH9 between the end timing of the first animation period and the start timing of the second animation period. The side with a large amount of motion has a larger amount of motion at one update timing in the interpolation display period than the side with a small amount of change motion. Then, it is preferable that the loop effect characters CH8 and CH9 on the side with a large amount of change operation have more image update timings in the interpolation display period. On the other hand, even if the start timing of the interpolation display period is different for each loop effect character CH8 and CH9, the end timing of the interpolation display period is the same for each loop effect character CH8 and CH9. Therefore, the loop effect characters CH8 and CH9 on the side where the end timing of the interpolation display period is late has fewer image update timings that occur in the interpolation display period than on the early side. Therefore, in this different form, of the loop effect characters CH8 and CH9, the interpolation display period is started first from the side having the larger amount of change operation in relation to the end timing of the first animation period. ..

補間表示期間を先に開始させる対象のループ演出用キャラクタCH8,CH9を第1アニメーション期間の終了タイミングとの関係で決定するためのデータとして、本別形態では、メモリモジュール133に先開始対象決定用テーブルPDTが予め記憶されている。図53は、先開始対象決定用テーブルPDTを説明するための説明図である。 As data for determining the loop effect characters CH8 and CH9 for which the interpolation display period is to be started first in relation to the end timing of the first animation period, in this alternative form, the memory module 133 is used for determining the first start target. The table PDT is stored in advance. FIG. 53 is an explanatory diagram for explaining the first start target determination table PDT.

先開始対象決定用テーブルPDTには、第1アニメーション期間として発生し得るフレーム数(画像の更新タイミングの回数)の範囲と、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9との対応関係が予め定められている。当該対応関係は、パチンコ機10の設計段階において第1アニメーション期間の各更新タイミングにおける各ループ演出用キャラクタCH8,CH9の動作態様と、第2アニメーション期間の開始タイミングにおける各ループ演出用キャラクタCH8,CH9の動作態様とを比較することにより決定されている。具体的には、第1アニメーション期間におけるフレーム数が0フレーム目(開始タイミングのフレーム)〜49フレーム目、100フレーム目〜149フレーム目及び200フレーム目〜249フレーム目に対しては先開始側のキャラクタとしてループ演出用BキャラクタCH9が設定されている。一方、第1アニメーション期間におけるフレーム数が50フレーム目〜99フレーム目、150フレーム目〜199フレーム目及び250フレーム目〜299フレーム目(最終タイミングのフレーム)に対しては先開始側のキャラクタとしてループ演出用AキャラクタCH8が設定されている。 In the table PDT for determining the first start target, the range of the number of frames (the number of image update timings) that can occur as the first animation period and the loop effect characters CH8 and CH9 that are the targets for starting the interpolation display period first. Correspondence relationship with is predetermined. In the design stage of the pachinko machine 10, the correspondence is the operation mode of the loop effect characters CH8 and CH9 at each update timing of the first animation period and the loop effect characters CH8 and CH9 at the start timing of the second animation period. It is determined by comparing with the operation mode of. Specifically, the number of frames in the first animation period is the first start side for the 0th frame (start timing frame) to 49th frame, 100th frame to 149th frame, and 200th frame to 249th frame. The loop effect B character CH9 is set as the character. On the other hand, for the 50th to 99th frames, the 150th to 199th frames, and the 250th to 299th frames (final timing frames) in the first animation period, a loop is performed as the character on the first start side. The A character CH8 for production is set.

当該先開始対象決定用テーブルPDTを利用して補間表示期間を先に開始する対象のループ演出用キャラクタCH8,CH9を決定する処理構成について、図54のフローチャートを参照しながら説明する。図54は、表示CPU72にて実行される補間表示期間用処理の別形態を説明するためのフローチャートである。なお、補間表示期間用処理は第1アニメーション期間の途中で演出用操作装置が操作された後又は第1アニメーション期間の最終タイミングとなった後であって、補間表示期間の終了タイミングとなるまで、ループ演出用の演算処理(図49)が起動される度に実行される。 A processing configuration for determining the loop effect characters CH8 and CH9 for which the interpolation display period is to be started first by using the first start target determination table PDT will be described with reference to the flowchart of FIG. 54. FIG. 54 is a flowchart for explaining another form of the interpolation display period processing executed by the display CPU 72. The processing for the interpolation display period is performed after the operation device for production is operated in the middle of the first animation period or after the final timing of the first animation period is reached, until the end timing of the interpolation display period is reached. It is executed every time the arithmetic processing for loop effect (FIG. 49) is started.

補間表示期間の開始タイミングである場合(ステップS2701:YES)、メモリモジュール133から先開始対象決定用テーブルPDTを読み出し、第1アニメーション期間の現状のフレーム数が先開始側のキャラクタをループ演出用AキャラクタCH8とするフレーム数に対応しているか否かを判定する(ステップS2702)。先開始側のキャラクタをループ演出用AキャラクタCH8とするフレーム数に対応している場合(ステップS2702:YES)、Aキャラクタ用の第2アニメーションデータAD2をメモリモジュール133からワークRAM132に読み出す(ステップS2703)。一方、先開始側のキャラクタをループ演出用BキャラクタCH9とするフレーム数に対応している場合(ステップS2702:NO)、Bキャラクタ用の第2アニメーションデータAD4をメモリモジュール133からワークRAM132に読み出す(ステップS2704)。ステップS2703の処理を実行した場合又はステップS2704の処理を実行した場合、ステップS2705にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。 When it is the start timing of the interpolation display period (step S2701: YES), the table PDT for determining the first start target is read from the memory module 133, and the current number of frames in the first animation period is the character on the first start side for loop production A. It is determined whether or not it corresponds to the number of frames used as the character CH8 (step S2702). When it corresponds to the number of frames in which the character on the first start side is the A character CH8 for loop production (step S2702: YES), the second animation data AD2 for the A character is read from the memory module 133 to the work RAM 132 (step S2703). ). On the other hand, when it corresponds to the number of frames in which the character on the first start side is the B character CH9 for loop production (step S2702: NO), the second animation data AD4 for the B character is read from the memory module 133 to the work RAM 132 (step S2702: NO). Step S2704). When the process of step S2703 is executed or the process of step S2704 is executed, the compounding table CT is read from the memory module 133 to the work RAM 132 in step S2705.

続くステップS2706では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。その後、ステップS2707にて、補間表示期間を先に開始させる側となったループ演出用キャラクタCH8,CH9について、配合テーブルCTに従った座標データの更新処理を実行する。また、ステップS2708にて、補間表示期間を先に開始させる側とならなかったループ演出用キャラクタCH8,CH9について、直前の更新タイミングにおける座標データと同一の座標データを把握する。その後、ステップS2709にて、その他のパラメータの更新処理を実行するとともに、ステップS2710にて、ループ演出指定情報を記憶する。これらステップS2706〜ステップS2710の各処理内容は、上記実施形態における補間表示期間用処理(図50)のステップS2504〜ステップS2508の処理内容と同一である。 In the following step S2706, based on the currently set execution target table, the type of image data corresponding to the current update timing is grasped. After that, in step S2707, the coordinate data update processing according to the blending table CT is executed for the loop effect characters CH8 and CH9 that are on the side of starting the interpolation display period first. Further, in step S2708, the same coordinate data as the coordinate data at the immediately preceding update timing is grasped for the loop effect characters CH8 and CH9 that did not start the interpolation display period first. After that, in step S2709, the update processing of other parameters is executed, and in step S2710, the loop effect designation information is stored. The processing contents of steps S2706 to S2710 are the same as the processing contents of steps S2504 to S2508 of the interpolation display period processing (FIG. 50) in the above embodiment.

補間表示期間の開始タイミングに対して次の画像の更新タイミングである場合(ステップS2701:NO、ステップS2711:YES)、補間表示期間を先に開始させる側とならなかったループ演出用キャラクタCH8,CH9に対応する第2アニメーションデータAD2,AD4をメモリモジュール133からワークRAM132に読み出す(ステップS2712)。具体的には、直前の補間表示期間用処理の処理回にてステップS2703の処理が実行されている場合にはBキャラクタ用の第2アニメーションデータAD4を読み出し、直前の補間表示期間用処理の処理回にてステップS2704の処理が実行されている場合にはAキャラクタ用の第2アニメーションデータAD2を読み出す。その後、ステップS2713にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。 When the update timing of the next image is set with respect to the start timing of the interpolation display period (step S2701: NO, step S2711: YES), the loop effect characters CH8 and CH9 that did not start the interpolation display period first. The second animation data AD2 and AD4 corresponding to the above are read from the memory module 133 to the work RAM 132 (step S2712). Specifically, when the processing of step S2703 is executed in the processing round of the processing for the immediately preceding interpolation display period, the second animation data AD4 for the B character is read out, and the processing for the processing for the immediately preceding interpolation display period is performed. When the process of step S2704 is executed at this time, the second animation data AD2 for the A character is read out. Then, in step S2713, the compounding table CT is read from the memory module 133 to the work RAM 132.

続くステップS2714では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。その後、ステップS2715にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。その後、ステップS2709にて、その他のパラメータの更新処理を実行するとともに、ステップS2710にて、ループ演出指定情報を記憶する。これらステップS2709〜ステップS2710及びステップS2714〜ステップS2715の各処理内容は、上記実施形態における補間表示期間用処理(図50)のステップS2507〜ステップS2508及びステップS2512〜ステップS2513の処理内容と同一である。また、ステップS2711にて否定判定をした場合における処理内容は、上記実施形態における補間表示期間用処理(図50)のステップS2509にて否定判定をした場合における処理内容と同一である。 In the following step S2714, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table. After that, in step S2715, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. After that, in step S2709, the update processing of other parameters is executed, and in step S2710, the loop effect designation information is stored. The processing contents of steps S2709 to S2710 and steps S2714 to S2715 are the same as the processing contents of steps S2507 to S2508 and steps S2512 to S2513 of the interpolation display period processing (FIG. 50) in the above embodiment. .. Further, the processing content when the negative determination is made in step S2711 is the same as the processing content when the negative determination is made in step S2509 of the interpolation display period processing (FIG. 50) in the above embodiment.

本別形態によれば、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の種類が第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の動作態様に応じて変更されるため、補間表示期間の開始タイミングにおける処理負荷を低減することができるだけでなく、第1アニメーション期間の終了タイミングに応じた態様で補間表示を行うことが可能となる。よって、第1アニメーション期間の終了タイミングが変動し得る構成であったとしても、各ループ演出用キャラクタCH8,CH9の補間表示を円滑に行えるようにしながら補間表示期間の開始タイミングにおける処理負荷を低減することが可能となる。 According to this alternative embodiment, the types of loop effect characters CH8 and CH9 for which the interpolation display period is to be started first depend on the operation mode of each loop effect character CH8 and CH9 at the end timing of the first animation period. Since it is changed, not only can the processing load at the start timing of the interpolation display period be reduced, but also the interpolation display can be performed in an manner corresponding to the end timing of the first animation period. Therefore, even if the end timing of the first animation period can be changed, the processing load at the start timing of the interpolation display period is reduced while allowing the interpolation display of the loop effect characters CH8 and CH9 to be smoothly performed. It becomes possible.

また、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の第1アニメーション期間の終了タイミングに対応する種類が先開始対象決定用テーブルPDTとして予め設定されているため、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の種類を決定する場合の処理負荷を低減することが可能となる。 Further, since the type corresponding to the end timing of the first animation period of the loop effect characters CH8 and CH9 for which the interpolation display period is to be started first is set in advance as the first start target determination table PDT, the interpolation display is performed. It is possible to reduce the processing load when determining the types of the loop effect characters CH8 and CH9 for which the period is to be started first.

<補間表示期間用処理のさらなる別形態>
・補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の種類が先開始対象決定用テーブルPDTとして予め設定されている構成に限定されることはなく、例えば第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データと、第2アニメーション期間の開始タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データとから、第1アニメーション期間の終了タイミングから第2アニメーション期間の開始タイミングまでの各ループ演出用キャラクタCH8,CH9の動作量を演算により導出し、その導出した動作量が多い側のループ演出用キャラクタCH8,CH9から先に補間表示期間を開始させる構成としてもよい。
<Further alternative form of processing for interpolation display period>
The types of loop effect characters CH8 and CH9 for which the interpolation display period is to be started first are not limited to the configuration preset as the first start target determination table PDT, for example, in the first animation period. From the coordinate data of each vertex of each loop effect character CH8, CH9 at the end timing and the coordinate data of each vertex of each loop effect character CH8, CH9 at the start timing of the second animation period, the end of the first animation period The operation amount of each loop effect character CH8, CH9 from the timing to the start timing of the second animation period is derived by calculation, and the loop effect character CH8, CH9 on the side with the larger amount of derived operation amount is first interpolated and displayed. May be configured to start.

・第1アニメーション期間の終了タイミングから第2アニメーション期間の開始タイミングまでの動作量が多い側のループ演出用キャラクタCH8,CH9から先に補間表示期間を開始させる構成に代えて、当該動作量が少ない側のループ演出用キャラクタCH8,CH9から先に補間表示期間を開始させる構成としてもよい。 -Instead of the configuration in which the interpolation display period is started first from the loop effect characters CH8 and CH9 on the side where the amount of movement from the end timing of the first animation period to the start timing of the second animation period is large, the amount of movement is small. The interpolation display period may be started first from the loop effect characters CH8 and CH9 on the side.

<ボーンモデル表示演出を行うための構成>
次に、ボーンモデル表示演出を行うための構成について説明する。図55(a)及び図55(b)はボーンモデル表示の内容を説明するための説明図である。
<Structure for performing bone model display production>
Next, the configuration for performing the bone model display effect will be described. 55 (a) and 55 (b) are explanatory views for explaining the contents of the bone model display.

ボーンモデル表示とは、図55(a)に示すように人などを表現したボーン表示用キャラクタCH10を3Dで表示する場合に、オブジェクトデータとして、図55(b)に示すように、複数のボーンデータBOD及び複数のジョイントデータJODを有する骨格データFRD1と、骨格データFRD1に関連付けて設定され皮膚の部分を表す皮膚データSKD1とを利用する表示内容のことである。ボーンデータBODはボーン表示用キャラクタCH10の骨部分に対応し、ジョイントデータJODは複数のボーンデータBODを繋ぐ関節部分に対応している。したがって、ジョイントデータJODを基準としながらボーンデータBODの座標データ及び向きのデータを変更することで、骨格データFRD1に関連付けて設定された皮膚データSKD1における各頂点データTDの座標データが変更され、それに応じてボーン表示用キャラクタCH10の形態が変更されることとなる。なお、図55(b)においては皮膚データの一部を省略している。 The bone model display means that when the bone display character CH10 representing a person or the like is displayed in 3D as shown in FIG. 55 (a), a plurality of bones are displayed as object data as shown in FIG. 55 (b). It is a display content using the skeleton data FRD1 having the data BOD and a plurality of joint data JODs, and the skin data SKD1 which is set in association with the skeleton data FRD1 and represents a skin portion. The bone data BOD corresponds to the bone portion of the bone display character CH10, and the joint data JOD corresponds to the joint portion connecting a plurality of bone data BODs. Therefore, by changing the coordinate data and orientation data of the bone data BOD with reference to the joint data JOD, the coordinate data of each vertex data TD in the skin data SKD1 set in association with the skeletal data FRD1 is changed. The form of the bone display character CH10 will be changed accordingly. In addition, in FIG. 55 (b), a part of skin data is omitted.

複数のボーンデータBODには親と子の関係が設定されており、親対象のボーンデータBODが移動した場合にはそれに追従して、当該親対象のボーンデータBODに対して子対象の関係にあるボーンデータBODが移動することとなる。ボーン表示用キャラクタCH10においては背骨部分に対応するボーンデータが最上位の親対象としてメイン親対象のボーンデータBODに設定されており、当該メイン親対象のボーンデータBODに対してジョイントデータJODを介して連結されたボーンデータBODは全て子対象のボーンデータBODに相当する。また、子対象のボーンデータBODにおいても、メイン親対象のボーンデータBODから一列に並ぶボーンデータBOD間においてはメイン親対象のボーンデータBODに対して連結が近い側のボーンデータBODが遠い側のボーンデータBODに対して親対象の関係となる。したがって、メイン親対象のボーンデータBODが移動した場合には予め定められたボーン重み付けデータBWD1に従って、他のボーンデータBODも移動することとなる。また、メイン親対象のボーンデータBODが移動しない場合であっても、当該メイン親対象のボーンデータBODから一列に並ぶ複数のボーンデータBODのうち親対象の関係にあるボーンデータBODが移動した場合にはそれに対して子対象の関係にあるボーンデータBODも予め定められたボーン重み付けデータBWD1に従って移動することとなる。 A parent-child relationship is set for a plurality of bone data BODs, and when the parent target bone data BOD moves, the relationship between the parent target bone data BOD and the child target is changed accordingly. A certain bone data BOD will move. In the bone display character CH10, the bone data corresponding to the spine portion is set in the bone data BOD of the main parent target as the highest parent target, and the bone data BOD of the main parent target is set via the joint data JOD. The bone data BODs concatenated with each other correspond to the bone data BODs of the child objects. Further, also in the bone data BOD of the child target, the bone data BOD on the side closer to the connection with respect to the bone data BOD of the main parent target is on the far side between the bone data BODs arranged in a line from the bone data BOD of the main parent target. It is a parental relationship with the bone data BOD. Therefore, when the bone data BOD of the main parent target moves, other bone data BODs also move according to the predetermined bone weighting data BWD1. Further, even if the bone data BOD of the main parent target does not move, when the bone data BOD having a parent target relationship among a plurality of bone data BODs lined up in a row moves from the bone data BOD of the main parent target. On the other hand, the bone data BOD having a child target relationship also moves according to the predetermined bone weighting data BWD1.

皮膚データSKD1は多数の頂点データTDを有しており、3個又は4個の頂点データTDによって一のポリゴンが規定され、多数のポリゴンにより皮膚データSKD1が表現されている。各頂点データTDは、一又は複数のボーンデータBODに対して皮膚重み付けデータSWD1に従って関連付けられている。これにより、ボーンデータBODが移動した場合には皮膚重み付けデータSWD1に従って各頂点データTDの座標データが変更され、それに伴って皮膚データSKD1が変形され、最終的にボーンデータBODの動作に応じた態様でボーン表示用キャラクタCH10が動作するとともに当該ボーン表示用キャラクタCH10の皮膚部分が変形する。 The skin data SKD1 has a large number of vertex data TDs, one polygon is defined by three or four vertex data TDs, and the skin data SKD1 is represented by a large number of polygons. Each vertex data TD is associated with one or more bone data BODs according to skin weighting data SWD1. As a result, when the bone data BOD moves, the coordinate data of each vertex data TD is changed according to the skin weighting data SWD1, the skin data SKD1 is deformed accordingly, and finally the mode according to the operation of the bone data BOD. The bone display character CH10 operates and the skin portion of the bone display character CH10 is deformed.

ボーンモデル表示演出においては、ボーン表示用キャラクタCH10を含めて複数のボーン表示用キャラクタが表示される。当該ボーンモデル表示演出を実行するためのデータ構成について説明する。図56はボーンモデル表示を行うためのデータ構成を説明するための説明図である。 In the bone model display effect, a plurality of bone display characters including the bone display character CH10 are displayed. The data structure for executing the bone model display effect will be described. FIG. 56 is an explanatory diagram for explaining a data structure for displaying a bone model.

図56に示すように、メモリモジュール133には、ボーンモデル表示を行うための画像データを記憶するためのエリアとして、ボーン表示用キャラクタCH10の骨格データFRD1を含めて複数のボーン表示用キャラクタのそれぞれに対応した骨格データが予め記憶された骨格データ記憶エリア161と、ボーン表示用キャラクタCH10の皮膚データSKD1を含めて複数のボーン表示用キャラクタのそれぞれに対応した皮膚データが予め記憶された皮膚データ記憶エリア162と、ボーン表示用キャラクタCH10のテクスチャデータBTD1を含めて複数のボーン表示用キャラクタのそれぞれに対応したテクスチャデータが予め記憶されたテクスチャデータ記憶エリア163と、が設けられている。骨格データ及び皮膚データは既に説明したとおりである。テクスチャデータBTD1は、ボーン表示用キャラクタCH10の色情報を決定付けるデータであり、皮膚データSKD1の頂点データとの関係で色情報が定められている。したがって、骨格データFRD1に皮膚データSKD1を適用した後にテクスチャデータBTD1を適用することで、ボーン表示用キャラクタCH10を表示することが可能となる。これら骨格データFRD1、皮膚データSKD1及びテクスチャデータBTD1はVDP135により使用される。 As shown in FIG. 56, the memory module 133 includes the skeleton data FRD1 of the bone display character CH10 as an area for storing image data for displaying the bone model, and each of the plurality of bone display characters. Skin data storage in which skin data corresponding to each of a plurality of bone display characters including the skeletal data storage area 161 in which the skeletal data corresponding to the above is stored in advance and the skin data SKD1 of the bone display character CH10 are stored in advance. An area 162 and a texture data storage area 163 in which texture data corresponding to each of the plurality of bone display characters including the texture data BTD1 of the bone display character CH10 are stored in advance are provided. The skeletal data and skin data are as described above. The texture data BTD1 is data that determines the color information of the bone display character CH10, and the color information is defined in relation to the vertex data of the skin data SKD1. Therefore, by applying the texture data BTD1 after applying the skin data SKD1 to the skeleton data FRD1, the bone display character CH10 can be displayed. These skeletal data FRD1, skin data SKD1 and texture data BTD1 are used by VDP135.

メモリモジュール133には、ボーンモデル表示を行うためのデータとして画像データ以外にも制御用データが予め記憶されている。当該制御用データを記憶するためのエリアとして、ボーン表示用キャラクタCH10のボーン重み付けデータBWD1を含めて複数のボーン表示用キャラクタのそれぞれに対応したボーン重み付けデータが予め記憶されたボーン重み付けデータ記憶エリア164と、ボーン表示用キャラクタCH10の皮膚重み付けデータSWD1を含めて複数のボーン表示用キャラクタのそれぞれに対応した皮膚重み付けデータが予め記憶された皮膚重み付けデータ記憶エリア165と、ボーン表示用キャラクタCH10のボーンアニメーションデータBAD1を含めて複数のボーン表示用キャラクタのそれぞれに対応したボーンアニメーションデータが予め記憶されたボーンアニメーションデータ記憶エリア166と、が設けられている。 In addition to the image data, control data is stored in advance in the memory module 133 as data for displaying the bone model. As an area for storing the control data, the bone weighting data storage area 164 in which bone weighting data corresponding to each of a plurality of bone display characters including the bone weighting data BWD1 of the bone display character CH10 is stored in advance. The skin weighting data storage area 165 in which the skin weighting data corresponding to each of the plurality of bone display characters including the skin weighting data SWD1 of the bone display character CH10 is stored in advance, and the bone animation of the bone display character CH10. A bone animation data storage area 166 in which bone animation data corresponding to each of a plurality of bone display characters including the data BAD1 is stored in advance is provided.

ボーン重み付けデータBWD1は、骨格データFRD1に含まれる複数のボーンデータBODにおける親対象と子対象との関係を定めるとともに親対象のボーンデータBODが移動した場合の移動量を子対象のボーンデータBODに対して反映させる場合の割合を定める。皮膚重み付けデータSWD1は、ボーンデータBODと皮膚データSKD1の各頂点データとの対応関係を定めるとともにボーンデータBODが移動した場合の移動量を各頂点データに対して反映させる場合の割合を定める。 The bone weighting data BWD1 determines the relationship between the parent target and the child target in the plurality of bone data BODs included in the skeleton data FRD1, and converts the movement amount when the bone data BOD of the parent target moves into the bone data BOD of the child target. Determine the ratio when reflecting it. The skin weighting data SWD1 defines the correspondence between the bone data BOD and each vertex data of the skin data SKD1 and determines the ratio when the movement amount when the bone data BOD moves is reflected in each vertex data.

ボーンアニメーションデータBAD1は、ボーン表示用キャラクタCH10に複数の更新タイミングに亘って所定の動作を行わせるために、各更新タイミングにおけるボーンデータBODの座標を決定付けるデータである。ボーンアニメーションデータBAD1には、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには移動設定対象となるボーンデータBODのそれぞれについて前回の座標データからの今回の差分データが設定されている。この場合、当該差分データの設定対象となるボーンデータBODはボーン表示用キャラクタCH10の大まかな動きを決定付けるのに必要となる一部のボーンデータBODについてのみ差分データが設定されており、残りのボーンデータBODについてはボーン重み付けデータBWD1に従って座標データが決定される。また、差分データの設定対象となっているボーンデータBODであっても、他のボーンデータBODに対して子対象の関係にある場合にはボーンアニメーションデータBAD1により定められた差分データだけでなく、親対象のボーンデータBODの座標データとボーン重み付けデータBWD1に従って座標データが決定される。 The bone animation data BAD1 is data that determines the coordinates of the bone data BOD at each update timing in order for the bone display character CH10 to perform a predetermined operation over a plurality of update timings. A plurality of pointer information is set in the bone animation data BAD1 so as to be serial numbers, and for each of the pointer information, each of the bone data BODs to be moved is set this time from the previous coordinate data. Difference data is set. In this case, as for the bone data BOD for which the difference data is set, the difference data is set only for a part of the bone data BOD necessary for determining the rough movement of the bone display character CH10, and the remaining bone data BOD is set. For the bone data BOD, the coordinate data is determined according to the bone weighting data BWD1. Further, even if the bone data BOD for which the difference data is set is a child target relationship with another bone data BOD, not only the difference data defined by the bone animation data BAD1 but also the difference data is not limited. The coordinate data is determined according to the coordinate data of the bone data BOD of the parent target and the bone weighting data BWD1.

ここで、各ボーン表示用キャラクタCH10を表示させる場合には、対応する骨格データFRD1の各ボーンデータBODの座標データが演算により決定される。骨格データFRD1には、図57(a)の説明図に示すように複数のボーンデータBOD1〜BOD50が設定されている。具体的には、第1〜第50ボーンデータBOD1〜BOD50の50個のボーンデータが設定されている。なお、ボーンモデル表示演出において表示されるボーン表示用キャラクタCH10はいずれも最大50個の範囲内でボーンデータBOD1〜BOD50を複数備えている。これら各ボーンデータBOD1〜BOD50の座標データを演算するためのエリアとして、図57(b)の説明図に示すようにワークRAM132には座標演算用エリア169が設けられている。座標演算用エリア169にはボーン表示用キャラクタCH10のボーンデータBOD1〜BOD50の最大数に相当する50個の単位演算用エリアが設けられており、各単位演算用エリアに1対1で対応させてアドレス(第1〜第50アドレス)が設定されている。 Here, when displaying each bone display character CH10, the coordinate data of each bone data BOD of the corresponding skeleton data FRD1 is determined by calculation. A plurality of bone data BOD1 to BOD50 are set in the skeleton data FRD1 as shown in the explanatory diagram of FIG. 57 (a). Specifically, 50 bone data of the 1st to 50th bone data BOD1 to BOD50 are set. It should be noted that each of the bone display character CH10 displayed in the bone model display effect includes a plurality of bone data BOD1 to BOD50 within a range of up to 50 pieces. As an area for calculating the coordinate data of each of the bone data BOD1 to BOD50, the work RAM 132 is provided with a coordinate calculation area 169 as shown in the explanatory diagram of FIG. 57 (b). The coordinate calculation area 169 is provided with 50 unit calculation areas corresponding to the maximum number of bone data BOD1 to BOD50 of the bone display character CH10, and each unit calculation area has a one-to-one correspondence. Addresses (1st to 50th addresses) are set.

以下、ボーンモデル表示演出を実行するための具体的な処理構成を説明する。図58は、表示CPU131にて実行されるボーンモデル表示演出用の演算処理を示すフローチャートである。ボーンモデル表示演出用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該ボーンモデル表示演出用の演算処理は、現状設定されている実行対象テーブルにおいてボーンモデル表示演出についての情報が設定されている場合に起動される。 Hereinafter, a specific processing configuration for executing the bone model display effect will be described. FIG. 58 is a flowchart showing the arithmetic processing for the bone model display effect executed by the display CPU 131. The calculation process for the bone model display effect is executed in the effect operation process of step S2209 in the task process (FIG. 42). The arithmetic processing for the bone model display effect is started when the information about the bone model display effect is set in the currently set execution target table.

ボーンモデル表示演出の開始タイミングである場合(ステップS2801:YES)、今回のボーンモデル表示演出において表示されることとなる複数のボーン表示用キャラクタのそれぞれに対応した制御用データをメモリモジュール133からワークRAM132に読み出す。具体的には、表示対象となる複数のボーン表示用キャラクタのそれぞれに対応したボーン重み付けデータ、皮膚重み付けデータ及びボーンアニメーションデータを読み出す(ステップS2802)。続くステップS2803では、複数のボーン表示用キャラクタのそれぞれを表示するための画像データのメモリモジュール133における各アドレスを把握する。当該画像データには、複数のボーン表示用キャラクタのそれぞれに対応した骨格データ、皮膚データ及びテクスチャデータが含まれる。その後、ステップS2804にて、ボーンモデル表示演出を開始すべきことをVDP135に認識させるためのボーンモデル表示演出の開始指定情報を表示CPU131のレジスタに記憶する。 When it is the start timing of the bone model display effect (step S2801: YES), the control data corresponding to each of the plurality of bone display characters to be displayed in the current bone model display effect is worked from the memory module 133. Read to RAM 132. Specifically, the bone weighting data, the skin weighting data, and the bone animation data corresponding to each of the plurality of bone display characters to be displayed are read out (step S2802). In the following step S2803, each address in the memory module 133 of the image data for displaying each of the plurality of bone display characters is grasped. The image data includes skeleton data, skin data, and texture data corresponding to each of the plurality of bone display characters. After that, in step S2804, the start designation information of the bone model display effect for causing the VDP 135 to recognize that the bone model display effect should be started is stored in the register of the display CPU 131.

ステップS2801にて否定判定をした場合又はステップS2804の処理を実行した場合、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2805)。当該画像データには、複数のボーン表示用キャラクタのそれぞれに対応した骨格データ、皮膚データ及びテクスチャデータが含まれる。 When a negative determination is made in step S2801 or the process of step S2804 is executed, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table (step S2805). The image data includes skeleton data, skin data, and texture data corresponding to each of the plurality of bone display characters.

その後、ステップS2806にて、ワークRAM132に設けられたボーンモデル数カウンタに今回の表示対象となっているボーン表示用キャラクタの数に対応した値をセットする。続くステップS2807では、ワークRAM132に設けられた単位ボーン数カウンタへのセット処理を実行する。単位ボーン数カウンタへのセット処理では、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタの骨格データに含まれるボーンデータの数を単位ボーン数カウンタにセットする。 After that, in step S2806, a value corresponding to the number of bone display characters to be displayed this time is set in the bone model number counter provided in the work RAM 132. In the following step S2807, the setting process to the unit bone number counter provided in the work RAM 132 is executed. In the setting process to the unit bone number counter, the number of bone data included in the skeleton data of the bone display character corresponding to the current value of the bone model number counter is set to the unit bone number counter.

その後、ステップS2808にて、ワークRAM132の座標演算用エリア169に含まれる各単位演算用エリアを「0」クリアする。続くステップS2809では、今回の座標演算対象となっているボーン表示用キャラクタにおける各ボーンデータの前回の更新タイミングにおいて設定された座標データを当該ボーン表示用キャラクタに対応させて確保されているエリアから読み出し、座標演算用エリア169の対応する各単位演算用エリアにセットする。 After that, in step S2808, each unit calculation area included in the coordinate calculation area 169 of the work RAM 132 is cleared to "0". In the following step S2809, the coordinate data set at the previous update timing of each bone data in the bone display character that is the target of the coordinate calculation this time is read from the area secured corresponding to the bone display character. , Set in each corresponding unit calculation area of the coordinate calculation area 169.

その後、ステップS2810にて座標演算処理を実行する。座標演算処理は今回の座標演算対象となっているボーン表示用キャラクタに対応する全てのボーンデータに対して実行されるが、その実行順序はメイン親対象のボーンデータが最初であり、その後は親対象としての優先度が高いボーンデータから順に行われる。これにより、メイン親対象のボーンデータの座標データが最初に算出され、その後は当該メイン親対象のボーンデータに近い側の親対象のボーンデータから順に座標データが算出され、最後に末端の子対象のボーンデータの座標データが算出される。 After that, the coordinate calculation process is executed in step S2810. The coordinate calculation process is executed for all the bone data corresponding to the bone display character that is the target of the coordinate calculation this time, but the execution order is the bone data of the main parent target first, and then the parent. It is performed in order from the bone data having the highest priority as the target. As a result, the coordinate data of the bone data of the main parent target is calculated first, then the coordinate data is calculated in order from the bone data of the parent target closer to the bone data of the main parent target, and finally the child target at the end. The coordinate data of the bone data of is calculated.

座標演算処理について図59のフローチャートを参照しながら説明する。単位ボーン数カウンタの現状の値に対応したボーンデータがメイン親対象のボーンデータではない場合(ステップS2901:NO)、ステップS2902にて、今回のボーンデータに対して親対象の関係にあるボーンデータについて今回の更新タイミング用に新たに算出された座標データと前回の更新タイミングにおいて設定された座標データ(すなわち座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれている座標データ)との差分データを算出するとともに、その算出した差分データと、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタに対応するボーン重み付けデータとから現状の演算対象のボーンデータに適用すべき座標データの差分データを算出する。そして、その差分データを現状の演算対象のボーンデータにおける前回の更新タイミングにおける座標データ(すなわち座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれている座標データ)に適用することで、新たな座標データを算出する。この算出された座標データは、座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれる。 The coordinate calculation process will be described with reference to the flowchart of FIG. 59. If the bone data corresponding to the current value of the unit bone number counter is not the bone data of the main parent target (step S2901: NO), in step S2902, the bone data having a parent target relationship with the current bone data. The coordinate data newly calculated for this update timing and the coordinate data set at the previous update timing (that is, written in the unit calculation area corresponding to the bone data of the current calculation target in the coordinate calculation area 169). The difference data with the current coordinate data) is calculated, and from the calculated difference data and the bone weighting data corresponding to the bone display character corresponding to the current value of the bone model number counter, the bone to be calculated at present. Calculate the difference data of the coordinate data to be applied to the data. Then, the difference data is written in the coordinate data at the previous update timing in the bone data of the current calculation target (that is, the coordinate data written in the unit calculation area corresponding to the bone data of the current calculation target in the coordinate calculation area 169). ) To calculate new coordinate data. The calculated coordinate data is written in the unit calculation area corresponding to the bone data of the current calculation target in the coordinate calculation area 169.

ステップS2901にて肯定判定をした場合又はステップS2902の処理を実行した場合、ステップS2903にて、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタに対応するボーンアニメーションデータに、現状の演算対象のボーンデータについて差分データが設定されているか否かを判定する。差分データが設定されている場合(ステップS2903:YES)、ステップS2904にて、そのボーンアニメーションデータに設定されている差分データを、座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれている座標データに対して適用し、その適用後の座標データを当該単位演算用エリアに書き込む。 When an affirmative judgment is made in step S2901 or when the process of step S2902 is executed, the current calculation is performed on the bone animation data corresponding to the bone display character corresponding to the current value of the bone model number counter in step S2903. It is determined whether or not the difference data is set for the target bone data. When the difference data is set (step S2903: YES), the difference data set in the bone animation data in step S2904 is a unit corresponding to the bone data of the current calculation target in the coordinate calculation area 169. It is applied to the coordinate data written in the calculation area, and the applied coordinate data is written in the unit calculation area.

ボーンモデル表示演出用の演算処理(図58)の説明に戻り、ステップS2810にて座標演算処理を実行した後は、ステップS2811にて、ワークRAM132の単位ボーン数カウンタの値を1減算する。その1減算後の単位ボーン数カウンタの値が1以上である場合(ステップS2812:NO)、単位ボーン数カウンタの現状の値に対応したボーンデータについて座標演算処理(ステップS2810)を実行する。 Returning to the description of the calculation process for the bone model display effect (FIG. 58), after executing the coordinate calculation process in step S2810, the value of the unit bone number counter of the work RAM 132 is subtracted by 1 in step S2811. When the value of the unit bone number counter after 1 subtraction is 1 or more (step S2812: NO), the coordinate calculation process (step S2810) is executed for the bone data corresponding to the current value of the unit bone number counter.

単位ボーン数カウンタの値が「0」である場合(ステップS2812:YES)、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタについて全てのボーンデータの座標演算処理が完了したことを意味する。この場合、ステップS2813にて座標データの更新処理を実行する。座標データの更新処理では、座標演算用エリア169の単位演算用エリアに書き込まれている今回の更新タイミングに対応する座標データを、ワークRAM132において今回の演算対象となったボーン表示用キャラクタに対応させて確保されたエリアに書き込む。 When the value of the unit bone number counter is "0" (step S2812: YES), it means that the coordinate calculation processing of all the bone data has been completed for the bone display character corresponding to the current value of the bone model number counter. To do. In this case, the coordinate data update process is executed in step S2813. In the coordinate data update process, the coordinate data corresponding to the current update timing written in the unit calculation area of the coordinate calculation area 169 is made to correspond to the bone display character that is the target of the calculation in the work RAM 132. Write in the reserved area.

続くステップS2814では、皮膚データの座標演算処理を実行する。皮膚データの座標演算処理では、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタに対応する皮膚重み付けデータを参照しながら、当該ボーン表示用キャラクタの各ボーンデータの座標データに対応させて皮膚データの各頂点データの座標データを算出する。そして、それら座標データを、ワークRAM132において今回の演算対象となったボーン表示用キャラクタに対応させて確保されたエリアに書き込む。 In the following step S2814, the coordinate calculation process of the skin data is executed. In the coordinate calculation process of the skin data, the coordinate data of each bone data of the bone display character is referred to while referring to the skin weighting data corresponding to the bone display character corresponding to the current value of the bone model number counter. The coordinate data of each vertex data of the skin data is calculated. Then, the coordinate data is written in the area secured in the work RAM 132 corresponding to the bone display character that is the target of the calculation this time.

続くステップS2815では、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタについて、ボーンデータの座標データ及び皮膚データの座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132において今回の演算対象となったボーン表示用キャラクタに対応させて確保されたエリアに書き込む。 In the following step S2815, for the bone display character corresponding to the current value of the bone model number counter, parameter information other than the coordinate data of the bone data and the coordinate data of the skin data is calculated and derived, and the derived parameter information is derived. In the work RAM 132, the data is written in the area secured corresponding to the bone display character that is the target of the calculation this time.

その後、ステップS2816にて、ワークRAM132のボーンモデル数カウンタの値を1減算する。その1減算後のボーンモデル数カウンタの値が1以上である場合(ステップS2817:NO)、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタについてステップS2807〜ステップS2816の処理を実行する。ボーンモデル数カウンタの値が「0」である場合(ステップS2817:YES)、ステップS2818にて、ボーンモデル表示演出の実行期間であることをVDP135に認識させるためのボーンモデル表示演出の指定情報を表示CPU131のレジスタに記憶する。 After that, in step S2816, the value of the bone model number counter of the work RAM 132 is subtracted by 1. When the value of the bone model number counter after subtracting 1 is 1 or more (step S2817: NO), the processes of steps S2807 to S2816 are executed for the bone display character corresponding to the current value of the bone model number counter. .. When the value of the bone model number counter is "0" (step S2817: YES), in step S2818, the designation information of the bone model display effect for causing the VDP 135 to recognize that it is the execution period of the bone model display effect is provided. It is stored in the register of the display CPU 131.

上記のようにボーンモデル表示演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、表示対象となる複数のボーン表示用キャラクタに対応する骨格データ、皮膚データ及びテクスチャデータの使用指示の情報が設定される。また、当該描画リストには、各ボーン表示用キャラクタにおけるボーンデータの座標データ及び皮膚データの各頂点データの座標データを含めて、各画像データに適用するパラメータ情報が設定される。また、当該描画リストにはボーンモデル表示演出の指定情報が設定され、さらにボーンモデル表示演出の開始タイミングにおいてはボーンモデル表示演出の開始指定情報が設定される。 When the arithmetic processing for the bone model display effect is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output processing (step S609) includes a plurality of bone display characters to be displayed. Information on instructions for using the corresponding skeletal data, skin data, and texture data is set. Further, in the drawing list, parameter information to be applied to each image data is set, including coordinate data of bone data in each bone display character and coordinate data of each vertex data of skin data. Further, the designation information of the bone model display effect is set in the drawing list, and the start designation information of the bone model display effect is set at the start timing of the bone model display effect.

次に、VDP135にて実行されるボーンモデル表示演出用の設定処理を、図60のフローチャートを参照しながら説明する。ボーンモデル表示演出用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいてボーンモデル表示演出の指定情報が設定されている場合に、ボーンモデル表示演出用の設定処理が実行される。 Next, the setting process for the bone model display effect executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting process for the bone model display effect is executed as a part of the effect setting process executed in step S2303 of the drawing process (FIG. 44). Further, when the designated information of the bone model display effect is set in the drawing list, the setting process for the bone model display effect is executed.

今回の描画リストにボーンモデル表示演出の開始指定情報が設定されている場合(ステップS3001:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている複数のボーン表示用キャラクタに対応する骨格データ、皮膚データ及びテクスチャデータが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール133からこれら画像データをVRAM134の展開用バッファ141に読み出す(ステップS3002)。 When the start designation information of the bone model display effect is set in the drawing list this time (step S3001: YES), the information of the address set in the drawing list is used as the display target of this time in the memory module 133. The address of the area where the skeleton data, skin data, and texture data corresponding to the plurality of bone display characters are stored is grasped, and based on the grasped result, these image data are transferred from the memory module 133 to the expansion buffer 141 of the VRAM 134. Read (step S3002).

ステップS3001にて否定判定をした場合、又はステップS3002の処理を実行した場合、ステップS3003にて、今回の更新タイミングに対応した種類の画像データを把握する。また、ステップS3004にて、表示対象となっている各ボーン表示用キャラクタのそれぞれに対応する各ボーンデータのワールド座標系における座標データを今回の描画リストから把握し、ステップS3005にて、表示対象となっている各ボーン表示用キャラクタのそれぞれに対応する皮膚データの各頂点データのワールド座標系における座標データを今回の描画リストから把握し、さらにステップS3006にて、表示対象となっている各ボーン表示用キャラクタについての他のパラメータ情報を今回の描画リストから把握する。そして、ステップS3007にて、ステップS3003〜ステップS3006の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。 When a negative determination is made in step S3001 or when the process of step S3002 is executed, the type of image data corresponding to the current update timing is grasped in step S3003. Further, in step S3004, the coordinate data in the world coordinate system of each bone data corresponding to each of the bone display characters to be displayed is grasped from the current drawing list, and in step S3005, the display target is set. The coordinate data in the world coordinate system of each vertex data of the skin data corresponding to each of the bone display characters is grasped from the drawing list this time, and each bone display to be displayed is further performed in step S3006. Grasp other parameter information about the character from this drawing list. Then, in step S3007, the setting process for the world coordinate system is executed according to the contents corresponding to the grasped results of steps S3003 to S3006.

上記のようにボーンモデル表示演出用の設定処理が実行されることにより、ワールド座標系に今回の表示対象となっている複数のボーン表示用キャラクタのそれぞれに対応する骨格データ及び皮膚データが配置されるとともに、各ボーンデータ及び皮膚データの座標データとしてボーン重み付けデータ、皮膚重み付けデータ及びボーンアニメーションデータを利用して導出された座標データが適用される。これにより、表示面Pでは、複数のボーン表示用キャラクタが動作するように動画表示が行われる。 By executing the setting process for the bone model display effect as described above, the skeleton data and the skin data corresponding to each of the plurality of bone display characters to be displayed this time are arranged in the world coordinate system. At the same time, the coordinate data derived by using the bone weighting data, the skin weighting data and the bone animation data is applied as the coordinate data of each bone data and the skin data. As a result, on the display surface P, the moving image is displayed so that the plurality of bone display characters operate.

<集合単位キャラクタCHG1〜CHG5の説明>
ここで、ボーン表示用キャラクタの1種として、集合キャラクタ群CHGが設定されている。図61(a)及び図61(b)は当該集合キャラクタ群CHGを説明するための説明図である。
<Explanation of set unit characters CHG1 to CHG5>
Here, a set character group CHG is set as one type of bone display character. 61 (a) and 61 (b) are explanatory views for explaining the set character group CHG.

図61(a)に示すように、集合キャラクタ群CHGは、複数(具体的には5個)の集合単位キャラクタCHG1〜CHG5からなる。各集合単位キャラクタCHG1〜CHG5はいずれも、図61(b)に示すように、複数のボーンデータABD及び複数のジョイントデータAJDを有する集合用骨格データFRD2と、集合用皮膚データSKD2と、集合用テクスチャデータBTD2とを利用して表示される。各集合単位キャラクタCHG1〜CHG5について既に説明したボーンモデル表示演出用の演算処理(図58)及びボーンモデル表示演出用の設定処理(図60)が実行されることにより、所定の座標データに設定された集合用骨格データFRD2に対して集合用皮膚データSKD2が適用され、図61(b)に示すようにワールド座標系において各集合単位キャラクタCHG1〜CHG5の3D表示が行われる。そして、それに対して集合用テクスチャデータBTD2を適用しながら描画を行うことで図61(a)に示すように表示面Pにおいて各集合単位キャラクタCHG1〜CHG5の画像表示が行われる。なお、これら各データFRD2,SKD2,BTD2は図56に示すようにメモリモジュール133に予め記憶されている。 As shown in FIG. 61A, the set character group CHG is composed of a plurality of (specifically, five) set unit characters CHG1 to CHG5. As shown in FIG. 61B, each set unit character CHG1 to CHG5 has a set skeleton data FRD2 having a plurality of bone data ABD and a plurality of joint data AJD, a set skin data SKD2, and a set. It is displayed using the texture data BTD2. The set unit characters CHG1 to CHG5 are set to predetermined coordinate data by executing the calculation process for the bone model display effect (FIG. 58) and the setting process for the bone model display effect (FIG. 60) already described. The set skin data SKD2 is applied to the set set skeleton data FRD2, and as shown in FIG. 61 (b), the set unit characters CHG1 to CHG5 are displayed in 3D in the world coordinate system. Then, by drawing while applying the set texture data BTD2 to the set surface P, the images of the set unit characters CHG1 to CHG5 are displayed on the display surface P as shown in FIG. 61 (a). Each of these data FRD2, SKD2, and BTD2 is stored in advance in the memory module 133 as shown in FIG. 56.

各集合単位キャラクタCHG1〜CHG5はいずれも、図61(a)に示すように、同一の形状、模様及びサイズのキャラクタであると遊技者に認識される態様で表示される。これら集合単位キャラクタCHG1〜CHG5は例えばボーン表示用キャラクタCH10が所定の動作をするように表示面Pにて表示されている状況において、当該ボーン表示用キャラクタCH10の周囲で特定の動作をするように表示面Pにて表示される。この場合、ボーン表示用キャラクタCH10にて大当たり結果といった利益の付与期待度を示す動作表示が行われるのに対して、そのような付与期待度を示す動作表示が集合単位キャラクタCHG1〜CHG5においては行われない。そうすると、遊技者はボーンモデル表示演出が実行された場合、ボーン表示用キャラクタCH10に注目することとなる。このような事情において、ボーン表示用キャラクタCH10においては細かな動きが必要となるのに対して、各集合単位キャラクタCHG1〜CHG5においては細かな動きが必要とならない。そこで、各集合単位キャラクタCHG1〜CHG5のボーンデータABDの数はボーン表示用キャラクタCH10のボーンデータBODの数よりも少なく設定されており、さらに各集合単位キャラクタCHG1〜CHG5を表示するために必要なデータ量を少なくするための工夫及び各集合単位キャラクタCHG1〜CHG5を表示するための処理負荷を低減するための工夫が施されている。 As shown in FIG. 61 (a), each set unit character CHG1 to CHG5 is displayed in such a manner that the player recognizes that the characters have the same shape, pattern, and size. These set unit characters CHG1 to CHG5 are arranged to perform a specific operation around the bone display character CH10, for example, in a situation where the bone display character CH10 is displayed on the display surface P so as to perform a predetermined operation. It is displayed on the display surface P. In this case, the bone display character CH10 performs an operation display indicating the expected degree of giving a profit such as a jackpot result, whereas the operation display indicating such an expected degree of giving is a line in the set unit characters CHG1 to CHG5. I can't. Then, when the bone model display effect is executed, the player pays attention to the bone display character CH10. Under such circumstances, the bone display character CH10 requires fine movement, whereas the set unit characters CHG1 to CHG5 do not require fine movement. Therefore, the number of bone data ABDs of the set unit characters CHG1 to CHG5 is set to be smaller than the number of bone data BODs of the bone display character CH10, and is required to display the set unit characters CHG1 to CHG5. A device for reducing the amount of data and a device for reducing the processing load for displaying each set unit characters CHG1 to CHG5 are provided.

以下、各集合単位キャラクタCHG1〜CHG5を表示するためのデータ構成について詳細に説明する。図62は各集合単位キャラクタCHG1〜CHG5の骨格データFRD2を説明するための説明図であり、図63(a)〜図63(c)はボーン表示用キャラクタCH10と集合単位キャラクタCHG1〜CHG5との各データ量を比較するための説明図である。 Hereinafter, the data structure for displaying each set unit character CHG1 to CHG5 will be described in detail. FIG. 62 is an explanatory diagram for explaining the skeleton data FRD2 of each set unit character CHG1 to CHG5, and FIGS. 63 (a) to 63 (c) show a bone display character CH10 and a set unit character CHG1 to CHG5. It is explanatory drawing for comparing each data amount.

図62に示すように、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10の数、第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20の数、第3集合単位キャラクタCHG3のボーンデータABD21〜ABD30の数、第4集合単位キャラクタCHG4のボーンデータABD31〜ABD40の数、及び第5集合単位キャラクタCHG5のボーンデータABD41〜ABD50の数はいずれも10個となっており、全ての集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数は合計で50個となっている。そして、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50は一の集合用骨格データFRD2に集約させて設定されている。 As shown in FIG. 62, the number of bone data ABD1 to ABD10 of the first set unit character CHG1, the number of bone data ABD11 to ABD20 of the second set unit character CHG2, and the bone data ABD21 to ABD30 of the third set unit character CHG3. The number, the number of bone data ABD31 to ABD40 of the fourth set unit character CHG4, and the number of bone data ABD41 to ABD50 of the fifth set unit character CHG5 are all 10, and all the set unit characters CHG1 to CHG5 The number of bone data ABD1 to ABD50 is 50 in total. Then, the bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 are aggregated and set in one set skeleton data FRD2.

各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の合計数は、ボーン表示用キャラクタCH10のボーンデータBODの合計数と同一となっている。したがって、図63(a−1)及び図63(a−2)に示すように、骨格データFRD1によりボーン表示用キャラクタCH10という1キャラクタのみが表示され、集合用骨格データFRD2により第1〜第5集合単位キャラクタCHG1〜CHG5という5キャラクタの表示が可能であるにも関わらず、ボーン表示用キャラクタCH10を表示するための骨格データFRD1と各集合単位キャラクタCHG1〜CHG5を表示するための集合用骨格データFRD2とはデータ量が同一又は略同一となっている。この場合、各集合単位キャラクタCHG1〜CHG5のそれぞれに対応させてボーン表示用キャラクタCH10と同数のボーンデータを設定する構成に比べデータ容量を削減することが可能となる。また、各骨格データFRD1,FRD2にはVDP135にて参照されるヘッダデータが付随することとなるが、各集合単位キャラクタCHG1〜CHG5毎に骨格データを個別に設定するのではなく一の集合用骨格データFRD2として集約することにより、そのような付随するデータを削減することが可能となる。 The total number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is the same as the total number of bone data BODs of the bone display character CH10. Therefore, as shown in FIGS. 63 (a-1) and 63 (a-2), the skeleton data FRD1 displays only one character called the bone display character CH10, and the aggregate skeleton data FRD2 displays the first to fifth characters. Although it is possible to display five characters, the set unit characters CHG1 to CHG5, the skeleton data FRD1 for displaying the bone display character CH10 and the set skeleton data for displaying each set unit characters CHG1 to CHG5. The amount of data is the same as or substantially the same as that of FRD2. In this case, it is possible to reduce the data capacity as compared with the configuration in which the same number of bone data as the bone display character CH10 is set corresponding to each of the set unit characters CHG1 to CHG5. Further, although the header data referred to by VDP135 is attached to each skeleton data FRD1 and FRD2, the skeleton data is not set individually for each set unit character CHG1 to CHG5, but one set skeleton. By aggregating as data FRD2, it is possible to reduce such incidental data.

各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数が50個であり、これらボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約して設定されていることにより、ボーン表示演出用の演算処理(図58)では、各ボーンデータABD1〜ABD50の座標データの演算が一のボーン表示用キャラクタのボーンデータと同様にまとめて行われる。 The number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is 50, and these bone data ABD1 to ABD50 are collectively set in one set skeleton data FRD2 for bone display effect. In the calculation process (FIG. 58), the calculation of the coordinate data of each of the bone data ABD1 to ABD50 is performed collectively in the same manner as the bone data of one bone display character.

詳細には、ボーン表示演出用の演算処理(図58)では、既に説明したとおり、各ボーンデータの座標データが演算に導出されることとなるが、この演算に際しては一の骨格データに含まれるボーンデータがまとめて読み出されてまとめて処理される(ステップS2808〜ステップS2813)。そして、この演算処理に際しては、ワークRAM132に設けられた座標演算用エリア169を利用することとなるが、座標演算用エリア169において各ボーンデータの座標データを演算するためのデータを格納可能な単位演算用エリアの数は50個となっている。これに対して、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50は上記のとおり一の集合用骨格データFRD2に集約させて設定されているとともに、当該ボーンデータABD1〜ADB50の合計数は座標演算用エリア169における単位演算用エリアの合計数以下となっている。したがって、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の座標データを演算する場合にはそれらボーンデータABD1〜ABD50を一度に読み出して演算処理を実行することが可能となる。よって、集合単位キャラクタCHG1〜CHG5毎に個別にデータの読み出しを行い、一の集合単位キャラクタCHG1〜CHG5についてのボーンデータの座標データの演算が完了した後に次の一の集合単位キャラクタCHG1〜CHG5についてのボーンデータの座標データの演算を行う構成に比べて、処理負荷の低減が図られる。 In detail, in the calculation process for bone display effect (FIG. 58), the coordinate data of each bone data is derived to the calculation as described above, but this calculation is included in one skeleton data. The bone data are collectively read out and collectively processed (steps S2808 to S2813). Then, in this calculation process, the coordinate calculation area 169 provided in the work RAM 132 is used, and the unit capable of storing the data for calculating the coordinate data of each bone data in the coordinate calculation area 169. The number of calculation areas is 50. On the other hand, the bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 are aggregated and set in one set skeleton data FRD2 as described above, and the total number of the bone data ABD1 to ADB50 is the coordinates. It is less than or equal to the total number of unit calculation areas in the calculation area 169. Therefore, when calculating the coordinate data of the bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5, it is possible to read the bone data ABD1 to ABD50 at once and execute the calculation process. Therefore, data is read out individually for each set unit character CHG1 to CHG5, and after the calculation of the coordinate data of the bone data for one set unit character CHG1 to CHG5 is completed, the next set unit character CHG1 to CHG5 The processing load can be reduced as compared with the configuration in which the coordinate data of the bone data is calculated.

集合単位キャラクタCHG1〜CHG5の各ボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約させて設定されている構成において、各ボーンデータABD1〜ABD50の親対象と子対象との関係が異なるキャラクタ間で設定されている。具体的には、図62に示すように、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数は同一であり、さらに図61(b)に示すように、各集合単位キャラクタCHG1〜CHG5におけるボーンデータABD1〜ABD50の配列態様が相互に同一であることにより各集合単位キャラクタCHG1〜CHG5の骨格は同一形状及び同一サイズとなっている。この場合、図62において同一のグループG1〜G10に含まれる各ボーンデータABD1〜ABD50は、各集合単位キャラクタCHG1〜CHG5において同一の位置の骨格部分に対応している。例えば、第1グループG1に含まれる第1ボーンデータABD1、第11ボーンデータABD11、第21ボーンデータABD21、第31ボーンデータABD31及び第41ボーンデータABD41は、それぞれ対応する集合単位キャラクタCHG1〜CHG5において頭の骨格部分に対応しており、第10グループG10に含まれる第10ボーンデータABD10、第20ボーンデータABD20、第30ボーンデータABD30、第40ボーンデータABD40及び第50ボーンデータABD50は、それぞれ対応する集合単位キャラクタCHG1〜CHG5において右足の骨格部分に対応している。 In a configuration in which the bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 are aggregated in one set skeleton data FRD2, the relationship between the parent target and the child target of each bone data ABD1 to ABD50 is different. Is set between. Specifically, as shown in FIG. 62, the number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is the same, and further, as shown in FIG. 61B, each set unit character CHG1 to CHG5. Since the arrangement modes of the bone data ABD1 to ABD50 in the above are the same, the skeletons of the set unit characters CHG1 to CHG5 have the same shape and the same size. In this case, each bone data ABD1 to ABD50 included in the same group G1 to G10 in FIG. 62 corresponds to a skeleton portion at the same position in each set unit character CHG1 to CHG5. For example, the first bone data ABD1, the eleventh bone data ABD11, the 21st bone data ABD21, the 31st bone data ABD31, and the 41st bone data ABD41 included in the first group G1 are in the corresponding set unit characters CHG1 to CHG5, respectively. It corresponds to the skeleton part of the head, and the 10th bone data ABD10, the 20th bone data ABD20, the 30th bone data ABD30, the 40th bone data ABD40, and the 50th bone data ABD50 included in the 10th group G10 correspond to each other. The set unit characters CHG1 to CHG5 correspond to the skeleton portion of the right foot.

各グループG1〜G10のそれぞれにおいて第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10が、第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対して親対象の関係に設定されている。例えば、第1グループG1においては第1集合単位キャラクタCHG1の第1ボーンデータABD1が第2〜第5集合単位キャラクタCHG2〜CHG5の第11ボーンデータABD11、第21ボーンデータABD21、第31ボーンデータABD31及び第41ボーンデータABD41のそれぞれに対して親対象の関係に設定されている。 In each of the groups G1 to G10, the bone data ABD1 to ABD10 of the first set unit character CHG1 are set in a parental relationship with the bone data ABD11 to ABD50 of the second and fifth set unit characters CHG2 to CHG5. There is. For example, in the first group G1, the first bone data ABD1 of the first set unit character CHG1 is the eleventh bone data ABD11, the 21st bone data ABD21, and the 31st bone data ABD31 of the second to fifth set unit characters CHG2 to CHG5. And the relationship of the parent target is set for each of the 41st bone data ABD41.

その一方、それ以外については、同一の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50間及び異なる集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50間のいずれにおいても親対象と子対象との関係は設定されていない。例えば、第1集合単位キャラクタCHG1の第1〜第10ボーンデータABD1〜ABD10間において親対象と子対象との関係は設定されていない。また、例えば第1グループG1における第2〜第5集合単位キャラクタCHG2〜CHG5の第11ボーンデータABD11、第21ボーンデータABD21、第31ボーンデータABD31及び第41ボーンデータABD41間において親対象と子対象との関係は設定されていない。 On the other hand, other than that, the relationship between the parent target and the child target in both the bone data ABD1 to ABD50 of the same set unit characters CHG1 to CHG5 and the bone data ABD1 to ABD50 of different set unit characters CHG1 to CHG5. Is not set. For example, the relationship between the parent target and the child target is not set between the first to tenth bone data ABD1 to ABD10 of the first set unit character CHG1. Further, for example, between the 11th bone data ABD11, the 21st bone data ABD21, the 31st bone data ABD31, and the 41st bone data ABD41 of the 2nd to 5th set unit characters CHG2 to CHG5 in the 1st group G1, a parent target and a child target. The relationship with is not set.

上記のように親対象と子対象との関係が設定されている構成において、メモリモジュール133に記憶された集合用ボーン重み付けデータBWD2(図56参照)は、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10のいずれかに対して座標データの差分データが適用される場合には、その差分データの適用対象となるボーンデータABD1〜ABD10と同一グループG1〜G10に含まれる他の集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対してそのまま適用されるように設定されている。したがって、第2〜第5集合単位キャラクタCHG2〜CHG5は第1集合単位キャラクタCHG1が移動する場合にはそれに追従することとなる。 In the configuration in which the relationship between the parent target and the child target is set as described above, the set bone weighted data BWD2 (see FIG. 56) stored in the memory module 133 is the bone data ABD1 of the first set unit character CHG1. When the difference data of the coordinate data is applied to any of ~ ABD10, the other set unit characters CHG2 to be included in the same group G1 to G10 as the bone data ABD1 to ABD10 to which the difference data is applied. It is set to be applied as it is to the bone data ABD11 to ABD50 of CHG5. Therefore, the second to fifth set unit characters CHG2 to CHG5 follow the movement of the first set unit character CHG1.

その一方、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10間においては親対象と子対象との関係が設定されていないため、第1集合単位キャラクタCHG1の一のボーンデータABD1〜ABD10が移動したとしても他のボーンデータABD1〜ABD10がそれに追従して移動することはない。これは第2〜第5集合単位キャラクタCHG2〜CHG5においても同様である。また、第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50間においては親対象と子対象との関係が設定されていないため、例えば第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20が移動したとしても、第3〜第5集合単位キャラクタCHG3〜CHG5のボーンデータABD31〜ABD50がそれに追従して移動することはない。なお、当然のことながら、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10は第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20に対して親対象の関係にあるため、第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20が移動したとしても、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10がそれに追従して移動することはない。 On the other hand, since the relationship between the parent target and the child target is not set between the bone data ABD1 to ABD10 of the first set unit character CHG1, the bone data ABD1 to ABD10 of one of the first set unit character CHG1 has moved. Even so, the other bone data ABD1 to ABD10 do not move following it. This also applies to the second to fifth set unit characters CHG2 to CHG5. Further, since the relationship between the parent target and the child target is not set between the bone data ABD11 to ABD50 of the second to fifth set unit characters CHG2 to CHG5, for example, the bone data ABD11 to ABD20 of the second set unit character CHG2. Even if is moved, the bone data ABD31 to ABD50 of the third to fifth set unit characters CHG3 to CHG5 do not move following it. As a matter of course, since the bone data ABD1 to ABD10 of the first set unit character CHG1 have a parental relationship with the bone data ABD11 to ABD20 of the second set unit character CHG2, the second set unit character CHG2 Even if the bone data ABD11 to ABD20 move, the bone data ABD1 to ABD10 of the first set unit character CHG1 do not move following it.

各集合単位キャラクタCHG1〜CHG5を動作させるための集合用ボーンアニメーションデータBAD2及び当該集合用ボーンアニメーションデータBAD2を利用した場合における各集合単位キャラクタCHG1〜CHG5の動作内容について、図64及び図65を参照しながら説明する。図64は集合用ボーンアニメーションデータBAD2を説明するための説明図であり、図65は各集合単位キャラクタCHG1〜CHG5の動作内容を説明するための説明図である。 See FIGS. 64 and 65 for the operation contents of the set unit characters CHG1 to CHG5 when the set bone animation data BAD2 for operating the set unit characters CHG1 to CHG5 and the set bone animation data BAD2 are used. I will explain while. FIG. 64 is an explanatory diagram for explaining the set bone animation data BAD2, and FIG. 65 is an explanatory diagram for explaining the operation contents of the set unit characters CHG1 to CHG5.

図64に示すように、集合用ボーンアニメーションデータBAD2には画像の一の更新タイミングに対応したポインタ情報が設定されているとともに、各ポインタ情報に対応させて差分データが設定されている。「0」〜「m」のポインタ情報に対しては、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対してのみ差分データが設定されている。当該差分データは第1集合単位キャラクタCHG1の形状を維持したまま一方向に移動させるデータに対応している。 As shown in FIG. 64, pointer information corresponding to one update timing of an image is set in the set bone animation data BAD2, and difference data is set corresponding to each pointer information. For the pointer information of "0" to "m", the difference data is set only for the bone data ABD1 to ABD10 of the first set unit character CHG1. The difference data corresponds to data that is moved in one direction while maintaining the shape of the first set unit character CHG1.

かかる差分データが設定された期間においては、図65(a)に示すように各集合単位キャラクタCHG1〜CHG5が動画表示されることとなる。具体的には、各集合単位キャラクタCHG1〜CHG5の初期表示位置においては、図65(a−1)に示すように、各集合単位キャラクタCHG1〜CHG5が相互に同一の形状となった状態で所定方向に等間隔で並んでいる。この場合に、「0」〜「m」のポインタ情報に設定されている差分データが第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に適用された場合には、当該差分データがそのまま第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に適用されるため、図65(a−2)に示すように、各集合単位キャラクタCHG1〜CHG5が形状及び間隔を維持したまま一方向に移動する。 During the period in which the difference data is set, each set unit character CHG1 to CHG5 is displayed as a moving image as shown in FIG. 65A. Specifically, at the initial display positions of the set unit characters CHG1 to CHG5, as shown in FIG. 65 (a-1), the set unit characters CHG1 to CHG5 are predetermined in the same shape as each other. They are evenly spaced in the direction. In this case, when the difference data set in the pointer information of "0" to "m" is applied to the bone data ABD1 to ABD10 of the first set unit character CHG1, the difference data is used as it is in the second to second. Since it is applied to the bone data ABD11 to ABD50 of the fifth set unit characters CHG2 to CHG5, as shown in FIG. 65 (a-2), each set unit characters CHG1 to CHG5 are unidirectionally maintained in shape and spacing. Moving.

図64に示す集合用ボーンアニメーションデータBAD2の説明に戻り、「m+1」〜「n」のポインタ情報に対しては、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対してだけでなく、第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対しても差分データが設定されている。これら差分データは第1集合単位キャラクタCHG1についてはその形状を維持したまま一方向に移動させるデータに対応しており、第2集合単位キャラクタCHG2及び第4集合単位キャラクタCHG4についてはその形状を維持したまま上記一方向とは逆方向に移動させるデータに対応しており、第3集合単位キャラクタCHG3及び第5集合単位キャラクタCHG5についてはその形状を変更させるデータに対応している。 Returning to the description of the set bone animation data BAD2 shown in FIG. 64, the pointer information of “m + 1” to “n” is not only for the bone data ABD1 to ABD10 of the first set unit character CHG1, but also for the first set. Difference data is also set for the bone data ABD11 to ABD50 of the 2nd to 5th set unit characters CHG2 to CHG5. These difference data correspond to the data of moving in one direction while maintaining the shape of the first set unit character CHG1, and maintaining the shape of the second set unit character CHG2 and the fourth set unit character CHG4. It corresponds to the data to be moved in the direction opposite to the one direction as it is, and the third set unit character CHG3 and the fifth set unit character CHG5 correspond to the data to change the shape.

かかる差分データが設定された期間においては、図65(b)に示すように各集合単位キャラクタCHG1〜CHG5が動画表示されることとなる。具体的には、各集合単位キャラクタCHG1〜CHG5が図65(b−1)に示すように表示されている状態から、図65(b−2)に示すように第1〜第5集合単位キャラクタCHG1〜CHG5の全体として一方向に移動しながら、第2集合単位キャラクタCHG2と第3集合単位キャラクタCHG3との間の距離及び第4集合単位キャラクタCHG4と第5集合単位キャラクタCHG5との間の距離が短くなるとともに、第3集合単位キャラクタCHG3及び第5集合単位キャラクタCHG5の形状が変更される。 During the period in which the difference data is set, each set unit character CHG1 to CHG5 is displayed as a moving image as shown in FIG. 65B. Specifically, from the state in which each set unit character CHG1 to CHG5 is displayed as shown in FIG. 65 (b-1), the first to fifth set unit characters are displayed as shown in FIG. 65 (b-2). The distance between the second set unit character CHG2 and the third set unit character CHG3 and the distance between the fourth set unit character CHG4 and the fifth set unit character CHG5 while moving in one direction as a whole of CHG1 to CHG5. Is shortened, and the shapes of the third set unit character CHG3 and the fifth set unit character CHG5 are changed.

次に、集合用皮膚データSKD2及び集合用テクスチャデータBTD2のデータ量について説明する。 Next, the amount of data of the set skin data SKD2 and the set texture data BTD2 will be described.

各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に対しては共通の集合用皮膚データSKD2が設定されているとともに、共通の集合用テクスチャデータBTD2が設定されている。つまり、集合用皮膚データSKD2は1個の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に適用されるデータとして設定されている。さらに言うと、集合用皮膚データSKD2は10個のボーンデータに適用されるデータとして設定されている。そして、第1〜第5集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に集合用皮膚データSKD2が適用される場合には、メモリモジュール133から読み出された一の集合用皮膚データSKD2が第1〜第5集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50のそれぞれに対して適用される。 A common set skin data SKD2 is set for the bone data ABD1 to ABD50 of each set unit characters CHG1 to CHG5, and a common set texture data BTD2 is set. That is, the set skin data SKD2 is set as data applied to the bone data ABD1 to ABD50 of one set unit character CHG1 to CHG5. Furthermore, the aggregate skin data SKD2 is set as data applied to 10 bone data. When the set skin data SKD2 is applied to the bone data ABD1 to ABD50 of the first to fifth set unit characters CHG1 to CHG5, the one set skin data SKD2 read from the memory module 133 is the first. It is applied to each of the bone data ABD1 to ABD50 of the 1st to 5th set unit characters CHG1 to CHG5.

当該適用を行うための集合用皮膚データSKD2の各頂点データATDの座標データは、メモリモジュール133に記憶された集合用皮膚重み付けデータSWD2を参照することにより決定される。集合用皮膚重み付けデータSWD2においては、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10と集合用皮膚データSKD2との対応関係、第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20と集合用皮膚データSKD2との対応関係、第3集合単位キャラクタCHG3のボーンデータABD21〜ABD30と集合用皮膚データSKD2との対応関係、第4集合単位キャラクタCHG4のボーンデータABD31〜ABD40と集合用皮膚データSKD2との対応関係、及び第5集合単位キャラクタCHG5のボーンデータABD41〜ABD50と集合用皮膚データSKD2との対応関係が設定されている。 The coordinate data of each vertex data ATD of the set skin data SKD2 for performing the application is determined by referring to the set skin weighting data SWD2 stored in the memory module 133. In the set skin weighting data SWD2, the correspondence between the bone data ABD1 to ABD10 of the first set unit character CHG1 and the set skin data SKD2, the bone data ABD11 to ABD20 of the second set unit character CHG2 and the set skin data SKD2 Correspondence with, Bone data ABD21 to ABD30 of the third set unit character CHG3 and skin data for gathering SKD2, Correspondence between bone data ABD31 to ABD40 of the fourth set unit character CHG4 and skin data for set SKD2 , And the correspondence between the bone data ABD41 to ABD50 of the fifth set unit character CHG5 and the set skin data SKD2 is set.

第1集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約させて設定された構成において、集合用皮膚データSKD2が1個の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に適用されるデータとして設定されていることにより、図63(b−1)及び図63(b−2)に示すように、ボーン表示用キャラクタCH10を表示するための皮膚データSKD1に対して、集合用皮膚データSKD2は1/5のデータ量となっている。 In a configuration in which the bone data ABD1 to ABD50 of the first set unit characters CHG1 to CHG5 are aggregated into one set skeleton data FRD2, the set skin data SKD2 is the bone data of one set unit characters CHG1 to CHG5. By being set as the data applied to ABD1 to ABD50, as shown in FIGS. 63 (b-1) and 63 (b-2), the skin data SKD1 for displaying the bone display character CH10 can be used. On the other hand, the aggregate skin data SKD2 has a data amount of 1/5.

集合用テクスチャデータBTD2についても同様に、集合用テクスチャデータBTD2は1個の集合単位キャラクタCHG1〜CHG5に適用されるデータとして設定されている。そして、集合単位キャラクタCHG1〜CHG5を表示するために集合用テクスチャデータBTD2が適用される場合には、メモリモジュール133から読み出された一の集合用テクスチャデータBTD2が第1〜第5集合単位キャラクタCHG1〜CHG5のそれぞれに対して適用される。これにより、図63(c−1)及び図63(c−2)に示すように、ボーン表示用キャラクタCH10を表示するためのテクスチャデータBTD1に対して、集合用テクスチャデータBTD2は1/5のデータ量となっている。 Similarly, for the set texture data BTD2, the set texture data BTD2 is set as data applied to one set unit characters CHG1 to CHG5. Then, when the set texture data BTD2 is applied to display the set unit characters CHG1 to CHG5, the one set texture data BTD2 read from the memory module 133 is the first to fifth set unit characters. It is applied to each of CHG1 to CHG5. As a result, as shown in FIGS. 63 (c-1) and 63 (c-2), the set texture data BTD2 is 1/5 of the texture data BTD1 for displaying the bone display character CH10. It is the amount of data.

ボーンモデル表示演出用の演算処理(図58)では、複数のボーン表示用キャラクタのボーンデータの座標データを演算する場合、一の骨格データに含まれるボーンデータに対応するデータをワークRAM132の座標演算用エリア169にまとめて読み出し、これらボーンデータに対して座標データの演算が完了した後に、次の骨格データについてボーンデータの座標データの演算を行う。これにより、座標データの演算が一の骨格データの単位で行われることとなり、一の骨格データに含まれるボーンデータの座標データを演算するための各種設定が複数回に分けて実行される構成に比べて、ステップS2808及びステップS2809の処理の実行回数を抑えられる点で処理負荷を低減することが可能となる。 In the calculation process for the bone model display effect (FIG. 58), when the coordinate data of the bone data of a plurality of bone display characters is calculated, the data corresponding to the bone data included in one skeleton data is the coordinate calculation of the work RAM 132. After reading all together in the use area 169 and completing the calculation of the coordinate data for these bone data, the calculation of the coordinate data of the bone data is performed for the next skeleton data. As a result, the operation of the coordinate data is performed in units of one skeleton data, and various settings for calculating the coordinate data of the bone data included in the one skeleton data are executed in multiple times. In comparison, the processing load can be reduced in that the number of times the processing of step S2808 and step S2809 is executed can be suppressed.

細かな動きの制御を必要としない複数の集合単位キャラクタCHG1〜CHG5については各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数が少なく抑えられているとともにそれらボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約して設定されている。これにより、複数の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の座標データを演算する場合に、それらボーンデータABD1〜ABD50の座標演算をまとめて行うことが可能となり、集合単位キャラクタCHG1〜CHG5毎に座標データを演算するための各種設定が行われる構成に比べて処理負荷を低減することが可能となる。 For a plurality of set unit characters CHG1 to CHG5 that do not require fine movement control, the number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is suppressed to a small number, and the bone data ABD1 to ABD50 are one. It is aggregated and set in the aggregate skeleton data FRD2. As a result, when calculating the coordinate data of the bone data ABD1 to ABD50 of a plurality of set unit characters CHG1 to CHG5, it is possible to collectively perform the coordinate calculation of the bone data ABD1 to ABD50, and the set unit characters CHG1 to CHG5 It is possible to reduce the processing load as compared with the configuration in which various settings for calculating the coordinate data are performed for each time.

集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約して設定されている構成において、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10が第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対して親対象の関係に設定されている。これにより、集合用ボーンアニメーションデータBAD2において第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対する座標データの設定を行うだけで、第1〜第5集合単位キャラクタCHG1〜CHG5の全てを一体的に移動させることが可能となる。よって、集合用ボーンアニメーションデータBAD2のデータ量を少なく抑えながら、第1〜第5集合単位キャラクタCHG1〜CHG5を一体的に移動させることが可能となる。その一方、親対象のボーンデータABD1〜ABD10の座標データに影響を与えないようにしながら、各子対象のボーンデータABD11〜ABD50の座標データを調整することが可能である。これにより、上記のように第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対する座標データの設定を行うだけで第1〜第5集合単位キャラクタCHG1〜CHG5の全てを一体的に移動させることを可能としながら、第2〜第5集合単位キャラクタCHG2〜CHG5の表示位置を個別に変化させることが可能となる。 In a configuration in which the bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 are aggregated and set in one set skeleton data FRD2, the bone data ABD1 to ABD10 of the first set unit character CHG1 are the second to fifth sets. The bone data ABD11 to ABD50 of the unit characters CHG2 to CHG5 are set to have a parental relationship. As a result, all of the first to fifth set unit characters CHG1 to CHG5 can be integrally moved by simply setting the coordinate data for the bone data ABD1 to ABD10 of the first set unit character CHG1 in the set bone animation data BAD2. It becomes possible to make it. Therefore, it is possible to integrally move the first to fifth set unit characters CHG1 to CHG5 while suppressing the amount of data of the set bone animation data BAD2 to be small. On the other hand, it is possible to adjust the coordinate data of the bone data ABD11 to ABD50 of each child target while not affecting the coordinate data of the bone data ABD1 to ABD10 of the parent target. As a result, it is possible to move all of the first to fifth set unit characters CHG1 to CHG5 integrally by simply setting the coordinate data for the bone data ABD1 to ABD10 of the first set unit character CHG1 as described above. However, it is possible to individually change the display positions of the second to fifth set unit characters CHG2 to CHG5.

集合用皮膚データSKD2は1個の集合単位キャラクタCHG1〜CHG5に適用されるデータとして設定されており、各集合単位キャラクタCHG1〜CHG5に対しては同一の集合用皮膚データSKD2が適用される。これにより、皮膚データを予め記憶するために必要なデータ容量を抑えることが可能となる。同様に、集合用テクスチャデータBTD2は1個の集合単位キャラクタCHG1〜CHG5に適用されるデータとして設定されており、各集合単位キャラクタCHG1〜CHG5に対しては同一の集合用テクスチャデータBTD2が適用される。これにより、テクスチャデータを予め記憶するために必要なデータ容量を抑えることが可能となる。 The set skin data SKD2 is set as data applied to one set unit characters CHG1 to CHG5, and the same set skin data SKD2 is applied to each set unit characters CHG1 to CHG5. This makes it possible to reduce the amount of data required to store skin data in advance. Similarly, the set texture data BTD2 is set as data applied to one set unit characters CHG1 to CHG5, and the same set texture data BTD2 is applied to each set unit characters CHG1 to CHG5. To. This makes it possible to reduce the amount of data required to store the texture data in advance.

<ボーンモデル表示演出に係る構成の別形態>
・集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の合計数が、ボーン表示用キャラクタCH10のボーンデータBODの合計数よりも少ない構成としてもよく、多い構成としてもよい。また、集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の合計数が、座標演算用エリア169の単位演算用エリアの数よりも少ない構成としてもよい。
<Another form of configuration related to bone model display production>
The total number of bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 may be smaller than the total number of bone data BODs of the bone display character CH10, or may be large. Further, the total number of bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 may be smaller than the number of unit calculation areas of the coordinate calculation area 169.

・一の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50間においては親対象と子対象との関係が設定されている構成としてもよい。この場合、各集合単位キャラクタCHG1〜CHG5の動作をよりリアルに表現することが可能となる。 -The relationship between the parent target and the child target may be set between the bone data ABD1 to ABD50 of one set unit character CHG1 to CHG5. In this case, the operation of each set unit character CHG1 to CHG5 can be expressed more realistically.

・第1の骨格データに含まれるボーンデータと第2の骨格データに含まれるボーンデータとの間で親対象と子対象との関係が設定されている構成としてもよい。この場合、第1の骨格データにより表示されるキャラクタ、及び第2の骨格データにより表示されるキャラクタのうち一方を移動させた場合にはそれに追従させて他方のキャラクタを移動させることが可能となる。 -The relationship between the parent target and the child target may be set between the bone data included in the first skeleton data and the bone data included in the second skeleton data. In this case, if one of the character displayed by the first skeleton data and the character displayed by the second skeleton data is moved, the other character can be moved following the movement. ..

・各集合単位キャラクタCHG1〜CHG5のそれぞれにおいてボーンデータABD1〜ABD50の数及び配列態様が同一である構成に限定されることはなく、ボーンデータABD1〜ABD50の数及び配列態様の少なくとも一方が相違するものの、数及び配列態様が略同一である構成としてもよい。 The number and arrangement of bone data ABD1 to ABD50 are not limited to the same in each of the set unit characters CHG1 to CHG5, and at least one of the number and arrangement of bone data ABD1 to ABD50 is different. However, the configuration may be such that the numbers and arrangement modes are substantially the same.

・表示CPU131におけるボーンモデル表示演出用の演算処理(図58)においてステップS2808及びステップS2809による導出前状態への設定の後において複数の個別画像についてまとめて算出されるパラメータ情報は骨格データの座標データに限定されることはなく、回転角度、スケール、ライトの情報、及びカメラの情報といった他のパラメータ情報であってもよい。 The parameter information calculated collectively for a plurality of individual images after the setting to the pre-derivation state in step S2808 and step S2809 in the arithmetic processing (FIG. 58) for the bone model display effect in the display CPU 131 is the coordinate data of the skeleton data. It is not limited to, and may be other parameter information such as rotation angle, scale, light information, and camera information.

<平面影表示を行うための構成>
次に、平面影表示を行うための構成について説明する。図66(a)及び図66(b)は平面影表示の内容を説明するための説明図である。図67は平面影表示を行うために必要なメモリモジュール133のデータ構成を説明するための説明図である。
<Structure for displaying plane shadows>
Next, a configuration for performing a plane shadow display will be described. 66 (a) and 66 (b) are explanatory views for explaining the contents of the plane shadow display. FIG. 67 is an explanatory diagram for explaining the data configuration of the memory module 133 necessary for performing the plane shadow display.

平面影表示とは、図66(a)及び図66(b)に示すように、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識される演出用キャラクタCH11が歩いて移動している動画表示が行われている状況において、地面を表す地面画像BGに対して演出用キャラクタCH11の影画像CH12を表示する表示内容である。影画像CH12の表示内容は演出用キャラクタCH11の動きに合わせて変化する。具体的には、図66(a)に示すように演出用キャラクタCH11が左腕を前に出し右腕を後に出している表示内容においてはそれに対応した形状の影画像CH12が表示され、図66(b)に示すように演出用キャラクタCH11が右腕を前に出し左腕を後に出している表示内容においてはそれに対応した形状の影画像CH12が表示される。 In the plane shadow display, as shown in FIGS. 66 (a) and 66 (b), the effect character CH11 recognized by the player as representing a person having a face, a torso, both hands, and both feet walks. This is a display content for displaying the shadow image CH12 of the effect character CH11 with respect to the ground image BG representing the ground in the situation where the moving moving image is displayed. The display content of the shadow image CH 12 changes according to the movement of the effect character CH 11. Specifically, as shown in FIG. 66A, in the display content in which the effect character CH11 has the left arm forward and the right arm rearward, the shadow image CH12 having a corresponding shape is displayed, and FIG. 66B ), The shadow image CH12 having the corresponding shape is displayed in the display content in which the effect character CH11 has the right arm forward and the left arm rearward.

演出用キャラクタCH11を表示するための画像データとして、図67に示すように、メモリモジュール133にはキャラクタ用オブジェクトデータCODとキャラクタ用テクスチャデータCTDとが予め記憶されている。また、地面画像BGを表示するための画像データとして、メモリモジュール133には地面用オブジェクトデータBGDと地面用テクスチャデータBGTDとが予め記憶されている。また、影画像CH12を表示するための画像データとして、メモリモジュール133には平面影用板状オブジェクトデータBSDと平面影用テクスチャデータBST1,BST2とが予め記憶されている。 As shown in FIG. 67, as the image data for displaying the effect character CH11, the character object data COD and the character texture data CTD are stored in advance in the memory module 133. Further, as image data for displaying the ground image BG, the ground object data BGD and the ground texture data BGTD are stored in advance in the memory module 133. Further, as image data for displaying the shadow image CH12, the plane shadow plate-shaped object data BSD and the plane shadow texture data BST1 and BST2 are stored in advance in the memory module 133.

影画像CH12の表示に際しては、ワールド座標系において平面影用板状オブジェクトデータBSDが演出用キャラクタCH11を表示するためのキャラクタ用オブジェクトデータCODと地面画像BGを表示するための地面用オブジェクトデータBGDとの間に配置される。平面影用板状オブジェクトデータBSDは、肉厚のない平面状に構成され、人などのキャラクタを表示するための肉厚を有する通常オブジェクトに比べて単位表示面当たりのポリゴン数が少ないオブジェクトデータである。そして、平面影用板状オブジェクトデータBSDに対して影画像CH12を表示するための平面影用テクスチャデータBST1,BST2が適用されることにより、影画像CH12が表示される。 When displaying the shadow image CH12, in the world coordinate system, the plane shadow plate-shaped object data BSD includes the character object data COD for displaying the effect character CH11 and the ground object data BGD for displaying the ground image BG. Placed between. The plate-shaped object data BSD for plane shadows is object data that is configured in a flat shape with no wall thickness and has a smaller number of polygons per unit display surface than a normal object having a wall thickness for displaying characters such as people. is there. Then, the shadow image CH12 is displayed by applying the plane shadow texture data BST1 and BST2 for displaying the shadow image CH12 to the plane shadow plate-shaped object data BSD.

平面影用板状オブジェクトデータBSDは、ワールド座標系において地面用オブジェクトデータBGDよりも距離X分(具体的には1ピクセル分)、上方に離間させた位置に配置され、当該平面影用板状オブジェクトデータBSDの上方にキャラクタ用オブジェクトデータCODが配置される。このように地面用オブジェクトデータBGDに対して上方に離間させた位置に平面影用板状オブジェクトデータBSDを配置することにより、地面画像BGの上方に影画像CH12が確実に表示される。平面影用テクスチャデータBST1,BST2は複数種類設定されており、具体的には図66(a)に示す形状の影画像CH12を表示させるための第1平面影用テクスチャデータBST1と、図66(b)に示す形状の影画像CH12を表示させるための第2平面影用テクスチャデータBST2とが設定されている。 The plane shadow plate-shaped object data BSD is arranged at a position separated above the ground object data BGD by a distance of X minutes (specifically, one pixel) in the world coordinate system, and is arranged in a position separated above the plane shadow plate-shaped object data BGD. The object data COD for the character is arranged above the object data BSD. By arranging the flat shadow plate-shaped object data BSD at a position separated upward from the ground object data BGD in this way, the shadow image CH12 is reliably displayed above the ground image BG. A plurality of types of plane shadow texture data BST1 and BST2 are set. Specifically, the first plane shadow texture data BST1 for displaying the shadow image CH12 having the shape shown in FIG. 66A and FIG. 66 ( The second plane shadow texture data BST2 for displaying the shadow image CH12 having the shape shown in b) is set.

以下、平面影表示を実行するための具体的な処理構成を説明する。図68は、表示CPU131にて実行される平面影表示用の演算処理を示すフローチャートである。平面影表示用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該平面影表示用の演算処理は、現状設定されている実行対象テーブルにおいて平面影表示についての情報が設定されている場合に起動される。 Hereinafter, a specific processing configuration for executing the plane shadow display will be described. FIG. 68 is a flowchart showing an arithmetic process for displaying a plane shadow executed by the display CPU 131. The arithmetic processing for displaying the plane shadow is executed in the effect arithmetic processing of step S2209 in the task processing (FIG. 42). The arithmetic processing for the plane shadow display is started when the information about the plane shadow display is set in the currently set execution target table.

平面影表示の開始タイミングである場合(ステップS3101:YES)、平面影表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3102)。当該画像データには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD、平面影用板状オブジェクトデータBSD、第1平面影用テクスチャデータBST1及び第2平面影用テクスチャデータBST2が含まれる。その後、ステップS3103にて、平面影表示を開始すべきことをVDP135に認識させるための平面影表示の開始指定情報を表示CPU131のレジスタに記憶する。 When it is the start timing of the plane shadow display (step S3101: YES), each address in the memory module 133 of the image data for performing the plane shadow display is grasped (step S3102). The image data includes character object data COD, character texture data CTD, ground object data BGD, ground texture data BGTD, plane shadow plate-shaped object data BSD, first plane shadow texture data BST1 and second. Texture data BST2 for plane shadows is included. After that, in step S3103, the start designation information of the plane shadow display for causing the VDP 135 to recognize that the plane shadow display should be started is stored in the register of the display CPU 131.

ステップS3101にて否定判定をした場合又はステップS3103の処理を実行した場合、ステップS3104にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDを把握する。そして、これら地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBGD,BGTDに対応させて確保されたエリアに書き込む(ステップS3105)。この場合、地面画像BGを所定範囲に亘って表示させることが可能なように、地面用オブジェクトデータBGDの各ピクセルのワールド座標系における座標データが更新される。 When a negative determination is made in step S3101 or the process of step S3103 is executed, the ground object data BGD and the ground object data BGD and the ground data are used as the data to be used this time based on the execution target table currently set in step S3104. Grasp the texture data BGTD. Then, the parameter information is calculated and derived for the ground object data BGD and the ground texture data BGTD, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to the image data BGD and BGTD. (Step S3105). In this case, the coordinate data in the world coordinate system of each pixel of the ground object data BGD is updated so that the ground image BG can be displayed over a predetermined range.

また、ステップS3106にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとしてキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDを把握する。そして、これらキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データCOD,CTDに対応させて確保されたエリアに書き込む(ステップS3107)。この場合、演出用キャラクタCH11が図66(a)に示す第1表示態様及び図66(b)に示す第2表示態様を交互に繰り返しながら移動しているかのように表示されるように、キャラクタ用オブジェクトデータCODの各ピクセルのワールド座標系における座標データが更新される。 Further, in step S3106, the character object data COD and the character texture data CTD are grasped as the data to be used this time based on the currently set execution target table. Then, the parameter information is calculated and derived for the character object data COD and the character texture data CTD, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to the image data COD and CTD. (Step S3107). In this case, the character CH11 is displayed as if it is moving while alternately repeating the first display mode shown in FIG. 66 (a) and the second display mode shown in FIG. 66 (b). Object data The coordinate data in the world coordinate system of each pixel of COD is updated.

その後、ステップS3108にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして平面影用板状オブジェクトデータBSDを把握する。続くステップS3109では、今回の更新タイミングが第1影表示期間であるか否かを判定する。第1影表示期間は影画像CH12を表示するためのテクスチャデータとして第1平面影用テクスチャデータBST1が使用される期間であり、第2影表示期間は影画像CH12を表示するためのテクスチャデータとして第2平面影用テクスチャデータBST2が使用される期間である。第1影表示期間である場合(ステップS3109:YES)、ステップS3110にて第1平面影用テクスチャデータBST1を把握し、第2影表示期間である場合(ステップS3109:NO)、ステップS3111にて第2平面影用テクスチャデータBST2を把握する。 After that, in step S3108, the plate-shaped object data BSD for plane shadow is grasped as the data to be used this time based on the execution target table currently set. In the following step S3109, it is determined whether or not the current update timing is the first shadow display period. The first shadow display period is the period in which the first plane shadow texture data BST1 is used as the texture data for displaying the shadow image CH12, and the second shadow display period is the period in which the texture data for displaying the shadow image CH12 is used. This is the period during which the texture data BST2 for the second plane shadow is used. In the case of the first shadow display period (step S3109: YES), the texture data BST1 for the first plane shadow is grasped in step S3110, and in the case of the second shadow display period (step S3109: NO), in step S3111. Grasp the texture data BST2 for the second plane shadow.

これら第1影表示期間及び第2影表示期間は、演出用キャラクタCH11が図66(a)に示すように第1表示態様となっている場合に影画像CH12を表示するための画像データとして当該第1表示態様に対応する第1平面影用テクスチャデータBST1が使用され、演出用キャラクタCH11が図66(b)に示すように第2表示態様となっている場合に影画像CH12を表示するための画像データとして当該第2表示態様に対応する第2平面影用テクスチャデータBST2が使用されるように設定されている。つまり、演出用キャラクタCH11が移動するように表示される場合において第1表示態様と第2表示態様との間で交互に表示態様が切り換えられる場合に、その表示態様の切り換わりに合わせて使用対象となる平面影用テクスチャデータBST1,BST2が切り換えられる構成となっている。 The first shadow display period and the second shadow display period are the image data for displaying the shadow image CH 12 when the effect character CH 11 is in the first display mode as shown in FIG. 66 (a). To display the shadow image CH12 when the first plane shadow texture data BST1 corresponding to the first display mode is used and the effect character CH 11 is in the second display mode as shown in FIG. 66 (b). The second plane shadow texture data BST2 corresponding to the second display mode is set to be used as the image data of. That is, when the effect character CH11 is displayed so as to move and the display mode is alternately switched between the first display mode and the second display mode, it is used according to the switching of the display mode. The texture data BST1 and BST2 for plane shadows are switched.

ステップS3110の処理を実行した場合又はステップS3111の処理を実行した場合、ステップS3112にて、平面影用板状オブジェクトデータBSD及び今回の使用対象の平面影用テクスチャデータBST1,BST2について、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBSD,BST1,BST2に対応させて確保されたエリアに書き込む。その後、ステップS3113にて、平面影表示の実行期間であることをVDP135に認識させるための平面影表示指定情報を表示CPU131のレジスタに記憶する。 When the process of step S3110 is executed or the process of step S3111 is executed, in step S3112, parameter information is provided for the flat shadow plate-shaped object data BSD and the flat shadow texture data BST1 and BST2 to be used this time. It is calculated and derived, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to these image data BSD, BST1 and BST2. After that, in step S3113, the plane shadow display designation information for causing the VDP 135 to recognize that it is the execution period of the plane shadow display is stored in the register of the display CPU 131.

この場合、平面影用板状オブジェクトデータBSDのワールド座標系における座標データとして、図66(a)及び図66(b)に示すように演出用キャラクタCH11の下方に影画像CH12を表示させることが可能なように、ステップS3107にて把握したキャラクタ用オブジェクトデータCODの座標データに対応する座標データを把握する。また、この場合に把握される座標データは、地面画像BGから離れる側に1ピクセル分、離れた位置に平面影用板状オブジェクトデータBSDが配置されるように、ステップS3105にて把握した地面用オブジェクトデータBGDの座標データに対応する座標データとなる。 In this case, the shadow image CH12 can be displayed below the effect character CH11 as shown in FIGS. 66 (a) and 66 (b) as the coordinate data in the world coordinate system of the flat shadow plate-shaped object data BSD. As possible, the coordinate data corresponding to the coordinate data of the character object data COD grasped in step S3107 is grasped. Further, the coordinate data grasped in this case is for the ground grasped in step S3105 so that the plate-shaped object data BDS for plane shadows is arranged at a position away from the ground image BG by one pixel. The coordinate data corresponds to the coordinate data of the object data BGD.

ここで、平面影用板状オブジェクトデータBSDには既に説明したとおり、平面影用テクスチャデータBST1,BST2が適用されることとなるが、その適用位置はUV座標データを利用して決定される。詳細には、平面影用板状オブジェクトデータBSDにはベースUV座標データが設定されており、平面影用テクスチャデータBST1,BST2にはUV座標データが設定されている。そして、平面影用テクスチャデータBST1,BST2のUV座標データが平面影用板状オブジェクトデータBSDのベースUV座標データと対応するように、平面影用テクスチャデータBST1,BST2の色情報が適用される。この場合に、UV座標データは平面影用テクスチャデータBST1,BST2において固定のデータとして設定されているため表示CPU131においてUV座標データを変更することはできない。一方、平面影用板状オブジェクトデータBSDのベースUV座標データは表示CPU131において変更可能であるが、当該ベースUV座標データは平面影表示の実行期間において変更されない。例えば第1影表示期間及び第2影表示期間のいずれであってもベースUV座標データ及びUV座標データは一定である。これにより、演出用キャラクタCH11が移動するように表示されそれに合わせて平面影用板状オブジェクトデータBSDの座標データが変更されるとしても、当該平面影用板状オブジェクトデータBSDの各ピクセルにおける平面影用テクスチャデータBST1,BST2の適用対象は変更されない。 Here, as described above, the plane shadow texture data BST1 and BST2 are applied to the plane shadow plate-shaped object data BSD, and the application position is determined by using the UV coordinate data. Specifically, the base UV coordinate data is set in the plate-shaped object data BSD for the plane shadow, and the UV coordinate data is set in the texture data BST1 and BST2 for the plane shadow. Then, the color information of the plane shadow texture data BST1 and BST2 is applied so that the UV coordinate data of the plane shadow texture data BST1 and BST2 correspond to the base UV coordinate data of the plane shadow plate-shaped object data BSD. In this case, since the UV coordinate data is set as fixed data in the plane shadow texture data BST1 and BST2, the UV coordinate data cannot be changed in the display CPU 131. On the other hand, the base UV coordinate data of the plate-shaped object data BD for plane shadow can be changed by the display CPU 131, but the base UV coordinate data is not changed during the execution period of the plane shadow display. For example, the base UV coordinate data and the UV coordinate data are constant in both the first shadow display period and the second shadow display period. As a result, even if the effect character CH11 is displayed to move and the coordinate data of the plane shadow plate-shaped object data BSD is changed accordingly, the plane shadow in each pixel of the plane shadow plate-shaped object data BSD The application target of the texture data BST1 and BST2 is not changed.

上記のように平面影表示用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD及び平面影用板状オブジェクトデータBSDの使用指示の情報が設定されるとともに、第1影表示期間であれば第1平面影用テクスチャデータBST1の使用指示の情報が設定され、第2影表示期間であれば第2平面影用テクスチャデータBST2の使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには平面影表示指定情報が設定され、さらに平面影表示の開始タイミングにおいては平面影表示の開始指定情報が設定される。 When the arithmetic processing for displaying the plane shadow is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output processing (step S609) includes the character object data COD, the character texture data CTD, and the drawing list. Information on usage instructions for ground object data BGD, ground texture data BGTD, and plane shadow plate-shaped object data BSD is set, and during the first shadow display period, usage instructions for the first plane shadow texture data BST1 are set. Information is set, and if it is the second shadow display period, the information of the usage instruction of the texture data BST2 for the second plane shadow is set. In addition, parameter information applied to each of these image data is set in the drawing list. Further, the plane shadow display designation information is set in the drawing list, and the plane shadow display start designation information is set at the start timing of the plane shadow display.

次に、VDP135にて実行される平面影表示用の設定処理を、図69のフローチャートを参照しながら説明する。平面影表示用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて平面影表示指定情報が設定されている場合に、平面影表示用の設定処理が実行される。 Next, the setting process for displaying the plane shadow executed by the VDP 135 will be described with reference to the flowchart of FIG. 69. The setting process for displaying the plane shadow is executed as a part of the setting process for the effect executed in step S2303 of the drawing process (FIG. 44). Further, when the plane shadow display designation information is set in the drawing list, the setting process for plane shadow display is executed.

今回の描画リストに平面影表示の開始指定情報が設定されている場合(ステップS3201:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS3202)。当該画像データには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD、平面影用板状オブジェクトデータBSD、第1平面影用テクスチャデータBST1及び第2平面影用テクスチャデータBST2が含まれる。 When the plane shadow display start designation information is set in the drawing list this time (step S3201: YES), the memory module 133 is the display target of this time from the information of the address set in the drawing list. The address where various image data is stored is grasped, and based on the grasped result, various image data are read from the memory module 133 into the expansion buffer 141 of the VRAM 134 (step S3202). The image data includes character object data COD, character texture data CTD, ground object data BGD, ground texture data BGTD, plane shadow plate-shaped object data BSD, first plane shadow texture data BST1 and second. Texture data BST2 for plane shadows is included.

ステップS3201にて否定判定をした場合、又はステップS3202の処理を実行した場合、ステップS3203にて、今回の描画リストに基づき地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDを表示対象のデータとして把握する。また、ステップS3204にて、それら地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDのパラメータ情報を今回の描画リストに基づき把握する。この場合、地面用オブジェクトデータBGDの各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。 When a negative determination is made in step S3201 or when the process of step S3202 is executed, in step S3203, the ground object data BGD and the ground texture data BGTD are grasped as the data to be displayed based on the current drawing list. .. Further, in step S3204, the parameter information of the ground object data BGD and the ground texture data BGTD is grasped based on the current drawing list. In this case, various parameter information including the coordinate data in the world coordinate system of each pixel of the ground object data BGD is grasped.

その後、ステップS3205にて、今回の描画リストに基づきキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDを表示対象のデータとして把握する。また、ステップS3206にて、それらキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDのパラメータ情報を今回の描画リストに基づき把握する。この場合、演出用キャラクタCH11が図66(a)に示す第1表示態様及び図66(b)に示す第2表示態様を交互に繰り返しながら移動しているかのように表示されるようにするためのキャラクタ用オブジェクトデータCODの各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。 After that, in step S3205, the character object data COD and the character texture data CTD are grasped as data to be displayed based on the current drawing list. Further, in step S3206, the parameter information of the character object data COD and the character texture data CTD is grasped based on the current drawing list. In this case, in order to display the effect character CH 11 as if it is moving while alternately repeating the first display mode shown in FIG. 66 (a) and the second display mode shown in FIG. 66 (b). Character object data Grasp various parameter information including coordinate data in the world coordinate system of each pixel of COD.

その後、ステップS3207にて、今回の描画リストに基づき平面影用板状オブジェクトデータBSDを表示対象のデータとして把握する。また、ステップS3208にて、当該平面影用板状オブジェクトデータBSDの座標データを今回の描画リストに基づき把握する。この場合、図66(a)及び図66(b)に示すように演出用キャラクタCH11の下方に影画像CH12を表示させるための平面影用板状オブジェクトデータBSDの各ピクセルのワールド座標系における座標データを把握する。また、この場合に把握される座標データは、地面画像BGから離れる側に1ピクセル分、離れた位置に平面影用板状オブジェクトデータBSDが配置されるように、ステップS3204にて把握した地面用オブジェクトデータBGDの座標データに対応する座標データとなる。また、ステップS3209にて、平面影用板状オブジェクトデータBSDについて、座標データ以外のパラメータ情報を今回の描画リストに基づき把握する。この場合、平面影用板状オブジェクトデータBSDに適用される固定のベースUV座標データを描画リストに基づき把握する。 After that, in step S3207, the plate-shaped object data BD for plane shadow is grasped as the data to be displayed based on the current drawing list. Further, in step S3208, the coordinate data of the plate-shaped object data BD for the plane shadow is grasped based on the current drawing list. In this case, as shown in FIGS. 66A and 66B, the coordinates of each pixel of the plane shadow plate-shaped object data BSD for displaying the shadow image CH12 below the effect character CH11 in the world coordinate system. Grasp the data. Further, the coordinate data grasped in this case is for the ground grasped in step S3204 so that the plate-shaped object data BDS for plane shadows is arranged at a position away from the ground image BG by one pixel. The coordinate data corresponds to the coordinate data of the object data BGD. Further, in step S3209, with respect to the plate-shaped object data BD for plane shadow, parameter information other than the coordinate data is grasped based on the current drawing list. In this case, the fixed base UV coordinate data applied to the flat shadow plate-shaped object data BSD is grasped based on the drawing list.

その後、ステップS3210にて、今回の描画リストに基づき今回の影表示期間に対応する平面影用テクスチャデータBST1,BST2を表示対象のデータとして把握する。また、ステップS3211にて、平面影用テクスチャデータBST1,BST2に適用される固定のUV座標データを当該テクスチャデータBST1,BST2から把握する。また、ステップS3212にて、平面影用テクスチャデータBST1,BST2に適用されるUV座標データ以外のパラメータ情報を今回の描画リストに基づき把握する。 After that, in step S3210, the texture data for plane shadows BST1 and BST2 corresponding to the current shadow display period are grasped as the data to be displayed based on the current drawing list. Further, in step S3211, the fixed UV coordinate data applied to the plane shadow texture data BST1 and BST2 is grasped from the texture data BST1 and BST2. Further, in step S3212, parameter information other than the UV coordinate data applied to the plane shadow texture data BST1 and BST2 is grasped based on the current drawing list.

その後、ステップS3213にて、ステップS3203〜ステップS3212の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。 After that, in step S3213, the setting process for the world coordinate system is executed according to the contents corresponding to the grasped results of steps S3203 to S3212.

上記のように平面影表示用の設定処理が実行されることにより、ワールド座標系に地面用オブジェクトデータBGD、キャラクタ用オブジェクトデータCOD及び平面影用板状オブジェクトデータBSDが配置されるとともに、表示CPU131において演算により導出された座標データを含めて各種パラメータ情報が各オブジェクトデータBGD,COD,BSDに適用される。また、各オブジェクトデータBGD,COD,BSDには対応するテクスチャデータBGTD,CTD,BST1,BST2が適用される。これにより、表示面Pでは、図66(a)及び図66(b)に示すように、地面画像BG上を演出用キャラクタCH11が歩いて移動しているような動画表示が行われるとともに演出用キャラクタCH11の移動に合わせて影画像CH12が変形しながら追従するような動画表示が行われる。 By executing the setting process for displaying the plane shadow as described above, the object data BGD for the ground, the object data COD for the character, and the plate-shaped object data BSD for the plane shadow are arranged in the world coordinate system, and the display CPU 131. Various parameter information including the coordinate data derived by the calculation is applied to each object data BGD, COD, and BSD. Further, the corresponding texture data BGTD, CTD, BST1 and BST2 are applied to each object data BGD, COD and BSD. As a result, as shown in FIGS. 66A and 66B, the display surface P displays a moving image as if the effect character CH11 is walking and moving on the ground image BG, and is used for effect. A moving image is displayed so that the shadow image CH 12 follows while being deformed according to the movement of the character CH 11.

以上のように演出用キャラクタCH11に追従するようにして影画像CH12を表示する場合に、キャラクタ用オブジェクトデータCODの下方に平面影用板状オブジェクトデータBSDを配置するとともに当該平面影用板状オブジェクトデータBSDに平面影用テクスチャデータBST1,BST2を適用する構成である。これにより、光源データとの関係で影画像の表示を演算により行う構成に比べて処理負荷の低減が図られる。また、地面用オブジェクトデータBGDに対して平面影用テクスチャデータBST1,BST2を直接適用する構成も想定されるが、地面用オブジェクトデータBGDには地面用テクスチャデータBGTDが適用されるため、影画像CH12を演出用キャラクタCH11に追従させて移動させようとするとベースUV座標データとUV座標データとの関係が複雑化してしまう。これに対して、キャラクタ用オブジェクトデータCODの位置を変化させることに対応させて平面影用板状オブジェクトデータBSDの位置を変化させるとともに、その平面影用板状オブジェクトデータBSDに平面影用テクスチャデータBST1,BST2を適用する構成とすることにより、そのような不都合を生じさせることなく影画像CH12を表示することが可能となる。 When the shadow image CH12 is displayed so as to follow the effect character CH11 as described above, the plane shadow plate-shaped object data BSD is arranged below the character object data COD, and the plane shadow plate-shaped object is displayed. This is a configuration in which the plane shadow texture data BST1 and BST2 are applied to the data BSD. As a result, the processing load can be reduced as compared with the configuration in which the shadow image is displayed by calculation in relation to the light source data. Further, it is assumed that the plane shadow texture data BST1 and BST2 are directly applied to the ground object data BGD, but since the ground texture data BGTD is applied to the ground object data BGD, the shadow image CH12 If an attempt is made to move the image according to the effect character CH11, the relationship between the base UV coordinate data and the UV coordinate data becomes complicated. On the other hand, the position of the plate-shaped object data BD for plane shadow is changed in correspondence with the change of the position of the object data COD for character, and the texture data for plane shadow is added to the plate-shaped object data BSD for plane shadow. By applying BST1 and BST2, it is possible to display the shadow image CH12 without causing such an inconvenience.

影画像CH12を表示するために地面用オブジェクトデータBGDとは別にオブジェクトデータを設ける構成において、当該平面影用板状オブジェクトデータBSDは肉厚のない平面状に構成された平面影用板状オブジェクトデータBSDである。これにより、メモリモジュール133において画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。 In a configuration in which object data is provided separately from the ground object data BGD in order to display the shadow image CH12, the plane shadow plate-shaped object data BSD is a plane shadow plate-shaped object data configured in a flat shape without wall thickness. It is BSD. As a result, it is possible to suppress the data capacity required for storing the image data in advance in the memory module 133.

平面影用板状オブジェクトデータBSDは地面用オブジェクトデータBGDに対して1ピクセル分上方に離間させた位置に配置される。これにより、地面画像BGに埋没してしまわないようにしながら影画像CH12を表示することが可能となる。 The plate-shaped object data BSD for the plane shadow is arranged at a position separated from the object data BGD for the ground by one pixel. This makes it possible to display the shadow image CH12 while preventing it from being buried in the ground image BG.

演出用キャラクタCH11の表示態様の変更に合わせて影画像CH12の形状を変更させる構成において、平面影用テクスチャデータBST1,BST2が複数設けられており、演出用キャラクタCH11の表示態様に対応させて使用対象とする平面影用テクスチャデータBST1,BST2が変更される。これにより、処理負荷の低減を図りながら影画像CH12の形状を変更させることが可能となる。 In a configuration in which the shape of the shadow image CH12 is changed according to the change in the display mode of the effect character CH11, a plurality of plane shadow texture data BST1 and BST2 are provided and used in correspondence with the display mode of the effect character CH11. The target plane shadow texture data BST1 and BST2 are changed. This makes it possible to change the shape of the shadow image CH 12 while reducing the processing load.

<平面影表示に係る構成の別形態>
上記実施形態では平面影用板状オブジェクトデータBSDに適用する平面影用テクスチャデータBST1,BST2の種類を変更することにより、演出用キャラクタCH11の表示態様の変更に合わせて影画像CH12の形状を変更する構成としたが、本別形態では、図70(a)及び図70(b)に示すように、平面影用板状オブジェクトデータBSDに適用する平面影用テクスチャデータBST3の種類を変更することなく平面影用板状オブジェクトデータBSDの形状を変更することによって影画像CH12の形状を変更する構成となっている。
<Another form of configuration related to plane shadow display>
In the above embodiment, by changing the types of the plane shadow texture data BST1 and BST2 applied to the plane shadow plate-shaped object data BSD, the shape of the shadow image CH12 is changed according to the change in the display mode of the effect character CH11. However, in this different form, as shown in FIGS. 70 (a) and 70 (b), the type of the plane shadow texture data BST3 applied to the plane shadow plate-shaped object data BSD is changed. The shape of the shadow image CH12 is changed by changing the shape of the flat shadow plate-shaped object data BDSD.

以下、平面影用板状オブジェクトデータBSDの形状を変更することで影画像CH12の形状を変更するための処理構成について説明する。図71は、本別形態における表示CPU131にて実行される平面影表示用の演算処理を示すフローチャートである。 Hereinafter, a processing configuration for changing the shape of the shadow image CH12 by changing the shape of the flat shadow plate-shaped object data BSD will be described. FIG. 71 is a flowchart showing an arithmetic process for displaying a plane shadow executed by the display CPU 131 in the present alternative mode.

平面影表示の開始タイミングである場合(ステップS3301:YES)、平面影表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3302)。当該画像データには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD、平面影用板状オブジェクトデータBSD、及び平面影用テクスチャデータBST3が含まれる。その後、ステップS3303にて、平面影表示を開始すべきことをVDP135に認識させるための平面影表示の開始指定情報を表示CPU131のレジスタに記憶する。 When it is the start timing of the plane shadow display (step S3301: YES), each address in the memory module 133 of the image data for performing the plane shadow display is grasped (step S3302). The image data includes character object data COD, character texture data CTD, ground object data BGD, ground texture data BGTD, plane shadow plate-shaped object data BSD, and plane shadow texture data BST3. After that, in step S3303, the start designation information of the plane shadow display for causing the VDP 135 to recognize that the plane shadow display should be started is stored in the register of the display CPU 131.

ステップS3301にて否定判定をした場合又はステップS3303の処理を実行した場合、ステップS3304にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDを把握する。そして、これら地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBGD,BGTDに対応させて確保されたエリアに書き込む(ステップS3305)。この場合、地面画像BGを所定範囲に亘って表示させることが可能なように、地面用オブジェクトデータBGDの各ピクセルのワールド座標系における座標データが更新される。 When a negative determination is made in step S3301 or the process of step S3303 is executed, the ground object data BGD and the ground object data BGD and the ground data are used as the data to be used this time based on the execution target table currently set in step S3304. Grasp the texture data BGTD. Then, the parameter information is calculated and derived for the ground object data BGD and the ground texture data BGTD, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to the image data BGD and BGTD. (Step S3305). In this case, the coordinate data in the world coordinate system of each pixel of the ground object data BGD is updated so that the ground image BG can be displayed over a predetermined range.

また、ステップS3306にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとしてキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDを把握する。そして、これらキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データCOD,CTDに対応させて確保されたエリアに書き込む(ステップS3307)。この場合、演出用キャラクタCH11が図70(a)に示す第1表示態様及び図70(b)に示す第2表示態様を交互に繰り返しながら移動しているかのように表示されるように、キャラクタ用オブジェクトデータCODの各ピクセルのワールド座標系における座標データが更新される。 Further, in step S3306, the character object data COD and the character texture data CTD are grasped as the data to be used this time based on the currently set execution target table. Then, the parameter information is calculated and derived for the character object data COD and the character texture data CTD, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to the image data COD and CTD. (Step S3307). In this case, the character CH11 is displayed as if it is moving while alternately repeating the first display mode shown in FIG. 70 (a) and the second display mode shown in FIG. 70 (b). Object data The coordinate data in the world coordinate system of each pixel of COD is updated.

その後、ステップS3308にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして平面影用板状オブジェクトデータBSDを把握する。続くステップS3309では、今回の更新タイミングが第1影表示期間であるか否かを判定する。第1影表示期間は図70(a)に示すように影画像CH12の形状が演出用キャラクタCH11の第1表示態様に対応する第1形状態様となるように平面影用板状オブジェクトデータBSDに適用する形状データとして第1形状データを使用する期間であり、第2影表示期間は図70(b)に示すように影画像CH12の形状が演出用キャラクタCH11の第2表示態様に対応する第2形状態様となるように平面影用板状オブジェクトデータBSDに適用する形状データとして第2形状データを使用する期間である。第1影表示期間である場合(ステップS3309:YES)、ステップS3310にて第1形状データを把握し、第2影表示期間である場合(ステップS3309:NO)、ステップS3311にて第2形状データを把握する。ステップS3310又はステップS3311にて把握した形状データは、ワークRAM132において平面影用板状オブジェクトデータBSD及び平面影用テクスチャデータBST3に対応させて確保されたエリアに書き込む。 After that, in step S3308, the plate-shaped object data BSD for plane shadow is grasped as the data to be used this time based on the currently set execution target table. In the following step S3309, it is determined whether or not the current update timing is the first shadow display period. During the first shadow display period, as shown in FIG. 70A, the flat shadow plate-shaped object data BDD is provided so that the shape of the shadow image CH12 becomes the first shape mode corresponding to the first display mode of the effect character CH11. It is a period in which the first shape data is used as the shape data to be applied, and in the second shadow display period, as shown in FIG. 70 (b), the shape of the shadow image CH 12 corresponds to the second display mode of the effect character CH 11. It is a period during which the second shape data is used as the shape data applied to the plate-shaped object data BD for the plane shadow so as to have the two shape modes. In the case of the first shadow display period (step S3309: YES), the first shape data is grasped in step S3310, and in the case of the second shadow display period (step S3309: NO), the second shape data in step S3311. To grasp. The shape data grasped in step S3310 or step S3311 is written in the area secured in the work RAM 132 in correspondence with the plane shadow plate-shaped object data BSD and the plane shadow texture data BST3.

ステップS3310の処理を実行した場合又はステップS3311の処理を実行した場合、ステップS3312にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして平面影用テクスチャデータBST3を把握する。その後、ステップS3313にて、平面影用板状オブジェクトデータBSD及び平面影用テクスチャデータBST3について、平面影用板状オブジェクトデータBSDの形状データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBSD,BST3に対応させて確保されたエリアに書き込む。その後、ステップS3314にて、平面影表示の実行期間であることをVDP135に認識させるための平面表示指定情報を表示CPU131のレジスタに記憶する。 When the process of step S3310 is executed or the process of step S3311 is executed, the texture data BST3 for plane shadow is grasped as the data to be used this time based on the execution target table currently set in step S3312. .. After that, in step S3313, parameter information other than the shape data of the flat shadow plate-shaped object data BSD is calculated and derived for the flat shadow plate-shaped object data BSD and the flat shadow texture data BST3, and the derived parameter information is derived. Is written in the area secured in the work RAM 132 corresponding to these image data BSD and BST3. After that, in step S3314, the plane display designation information for causing the VDP 135 to recognize that it is the execution period of the plane shadow display is stored in the register of the display CPU 131.

上記別形態によれば、平面影用テクスチャデータBST3の種類を変更するのではなく、平面影用板状オブジェクトデータBSDの形状を変更することで影画像CH12の形状を変更する構成であるため、平面影用テクスチャデータBST3を予め記憶しておくのに必要なデータ容量を抑えながら演出用キャラクタCH11の表示態様に合わせて影画像CH12の形状を変更することが可能となる。 According to the above alternative form, the shape of the shadow image CH12 is changed by changing the shape of the plate-shaped object data BSD for the plane shadow, instead of changing the type of the texture data BST3 for the plane shadow. It is possible to change the shape of the shadow image CH12 according to the display mode of the effect character CH11 while suppressing the data capacity required for storing the plane shadow texture data BST3 in advance.

<平面影表示に係る構成のさらなる別形態>
・演出用キャラクタCH11の各表示態様に対応させて平面影用テクスチャデータBST1,BST2が設けられている構成において、演出用キャラクタCH11が移動するように表示される場合の表示態様として第1表示態様及び第2表示態様以外にもこれら表示態様の間の動作経路に対応する表示態様が存在している構成としてもよい。この場合、各表示態様に1対1で対応させて平面影用テクスチャデータBST1,BST2が設定されている構成としてもよく、かかる構成によれば影画像CH12の表示態様を演出用キャラクタCH11の表示態様に対して詳細に対応付けることが可能となる。一方、所定の第1動作期間に対応する第1表示態様グループに含まれる各表示態様(第1表示態様を含む)に対して第1平面影用テクスチャデータBST1を使用対象とし、所定の第2動作期間に対応する第2表示態様グループに含まれる各表示態様(第2表示態様を含む)に対して第2平面影用テクスチャデータBST2を使用対象とする構成としてもよい。この場合、平面影用テクスチャデータBST1,BST2を予め記憶するためのデータ容量を抑えながら、影画像CH12の表示態様を演出用キャラクタCH11の表示態様にある程度対応させることが可能となる。
<Further alternative form of configuration related to plane shadow display>
In a configuration in which texture data BST1 and BST2 for plane shadows are provided corresponding to each display mode of the effect character CH11, the first display mode is a display mode when the effect character CH11 is displayed so as to move. In addition to the second display mode, there may be a display mode corresponding to the operation path between these display modes. In this case, the texture data BST1 and BST2 for plane shadows may be set in a one-to-one correspondence with each display mode, and according to such a configuration, the display mode of the shadow image CH12 is displayed by the effect character CH11. It is possible to associate the aspects in detail. On the other hand, the texture data BST1 for the first plane shadow is used for each display mode (including the first display mode) included in the first display mode group corresponding to the predetermined first operation period, and the predetermined second display mode is used. The texture data BST2 for the second plane shadow may be used for each display mode (including the second display mode) included in the second display mode group corresponding to the operation period. In this case, it is possible to make the display mode of the shadow image CH 12 correspond to the display mode of the effect character CH 11 to some extent while suppressing the data capacity for storing the plane shadow texture data BST1 and BST2 in advance.

・演出用キャラクタCH11の各表示態様に対応させて平面影用板状オブジェクトデータBSDの形状データが設けられている構成において、演出用キャラクタCH11が移動するように表示される場合の表示態様として第1表示態様及び第2表示態様以外にもこれら表示態様の間の動作経路に対応する表示態様が存在している構成としてもよい。この場合、各表示態様に1対1で対応させて平面影用板状オブジェクトデータBSDの形状データが設定されている構成としてもよく、これにより影画像CH12の表示態様を演出用キャラクタCH11の表示態様に対して詳細に対応付けることが可能となる。一方、所定の第1動作期間に対応する第1表示態様グループに含まれる各表示態様(第1表示態様を含む)に対して第1形状データを使用対象とし、所定の第2動作期間に対応する第2表示態様グループに含まれる各表示態様(第2表示態様を含む)に対して第2形状データを使用対象とする構成としてもよい。この場合、形状データを予め記憶するためのデータ容量を抑えながら、影画像CH12の表示態様を演出用キャラクタCH11の表示態様にある程度対応させることが可能となる。 In a configuration in which the shape data of the plate-shaped object data BD for the plane shadow is provided corresponding to each display mode of the effect character CH 11, the display mode is the case where the effect character CH 11 is displayed so as to move. In addition to the first display mode and the second display mode, there may be a display mode corresponding to the operation path between these display modes. In this case, the shape data of the plate-shaped object data BD for plane shadow may be set in a one-to-one correspondence with each display mode, whereby the display mode of the shadow image CH12 may be displayed by the effect character CH11. It is possible to associate the modes in detail. On the other hand, the first shape data is used for each display mode (including the first display mode) included in the first display mode group corresponding to the predetermined first operation period, and corresponds to the predetermined second operation period. The second shape data may be used for each display mode (including the second display mode) included in the second display mode group. In this case, it is possible to make the display mode of the shadow image CH 12 correspond to the display mode of the effect character CH 11 to some extent while suppressing the data capacity for storing the shape data in advance.

・影画像CH12を表示するために地面用オブジェクトデータBGDとは別に設けるオブジェクトデータは板状オブジェクトデータに限定されることはなく、キャラクタ用オブジェクトデータCODなどと同様に肉厚のある立体状に構成されたオブジェクトデータとしてもよい。 -The object data provided separately from the ground object data BGD for displaying the shadow image CH12 is not limited to the plate-shaped object data, and is configured in a thick three-dimensional shape like the character object data COD. It may be the object data that has been created.

・地面用オブジェクトデータBGDとは別に設けられたオブジェクトデータを利用して演出用キャラクタCH11の影画像CH12を表示する構成を、演出用キャラクタCH11が水面に反射している様子を示す反射画像を表示するために利用してもよい。 -A configuration for displaying the shadow image CH12 of the effect character CH11 using object data provided separately from the ground object data BGD, and displaying a reflection image showing how the effect character CH11 is reflected on the water surface. You may use it to do so.

<段差影表示を行うための構成>
次に、段差影表示を行うための構成について説明する。図72(a)は段差影表示の内容を説明するための説明図であり、図72(b)は段差影表示を行うために必要なメモリモジュール133のデータ構成を説明するための説明図である。
<Structure for displaying step shadows>
Next, a configuration for displaying a step shadow will be described. FIG. 72 (a) is an explanatory diagram for explaining the content of the step shadow display, and FIG. 72 (b) is an explanatory diagram for explaining the data configuration of the memory module 133 required for performing the step shadow display. is there.

段差影表示とは、図72(a)に示すように、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識される演出用キャラクタCH13が階段を使って移動する動画表示が行われている状況において、階段を表す階段画像SGに対して演出用キャラクタCH13の影画像CH14を表示する表示内容である。この場合、影画像CH14は階段形状に沿うようにして表示されている。具体的には、一の踏面からその直下の踏面に亘って影画像CH14が表示されているとともに、それら踏面の間に蹴上による段差が生じていることに対応させて影画像CH14は段差状に表示されている。 As shown in FIG. 72A, the step shadow display is a moving image of the production character CH13, which is recognized by the player as representing a person having a face, a torso, both hands, and both feet, using the stairs. This is a display content for displaying the shadow image CH14 of the effect character CH13 with respect to the staircase image SG representing the stairs in the situation where the display is performed. In this case, the shadow image CH14 is displayed so as to follow the shape of the stairs. Specifically, the shadow image CH14 is displayed from one tread to the tread immediately below it, and the shadow image CH14 has a stepped shape in correspondence with the step caused by kicking between the treads. It is displayed in.

影画像CH14の表示内容は演出用キャラクタCH13の動きに合わせて変化する。具体的には、演出用キャラクタCH13が階段を上るのに合わせて一の踏面において影画像CH14が表示されている範囲が変化するとともに影画像CH14の表示対象となる踏面の種類も変化する。例えば、連続する2個の踏面とその間を繋ぐ蹴上に亘って影画像CH14が段差状に表示されている状況において演出用キャラクタCH13が階段を上るように移動するのに合わせて、下側の踏面において影画像CH14が表示されている範囲が徐々に小さくなるとともに上側の踏面において影画像CH14が表示されている範囲が徐々に大きくなる。そして、上側の踏面と当該踏面に連続する蹴上とに亘って影画像CH14が表示される状態を経由して、さらに上側の踏面に影画像CH14の一部が表示される状態となる。 The display content of the shadow image CH14 changes according to the movement of the effect character CH13. Specifically, as the effect character CH13 climbs the stairs, the range in which the shadow image CH14 is displayed on one tread changes, and the type of tread to be displayed on the shadow image CH14 also changes. For example, in a situation where the shadow image CH14 is displayed in a stepped shape over two consecutive treads and a rise connecting between them, the effect character CH13 moves up the stairs, and the lower side of the shadow image CH14 is displayed. The range in which the shadow image CH14 is displayed on the tread gradually decreases, and the range in which the shadow image CH14 is displayed on the upper tread gradually increases. Then, a part of the shadow image CH14 is displayed on the upper tread via the state where the shadow image CH14 is displayed over the upper tread and the rise continuous to the tread.

演出用キャラクタCH13を表示するための画像データとして、図72(b)に示すように、メモリモジュール133にはキャラクタ用オブジェクトデータCOD1とキャラクタ用テクスチャデータCTD1とが予め記憶されている。また、階段画像SGを表示するための画像データとして、メモリモジュール133には階段用オブジェクトデータSGDと階段用テクスチャデータSGTDとが予め記憶されている。また、影画像CH14を表示するための画像データとして、メモリモジュール133には段差影用板状オブジェクトデータSSDと段差影用テクスチャデータSSTとが予め記憶されている。 As image data for displaying the effect character CH13, as shown in FIG. 72B, the character object data COD1 and the character texture data CTD1 are stored in advance in the memory module 133. Further, as image data for displaying the staircase image SG, the staircase object data SGD and the staircase texture data SGTD are stored in advance in the memory module 133. Further, as image data for displaying the shadow image CH14, the step shadow plate-shaped object data SSD and the step shadow texture data SST are stored in advance in the memory module 133.

影画像CH14の表示に際しては、ワールド座標系において段差影用板状オブジェクトデータSSDが演出用キャラクタCH13を表示するためのキャラクタ用オブジェクトデータCOD1と階段画像SGを表示するための階段用オブジェクトデータSGDとの間に配置される。段差影用板状オブジェクトデータSSDは、肉厚のない平面状のオブジェクトを階段の形状に合わせて段差状とされたオブジェクトであり、人などのキャラクタを表示するための肉厚を有する通常オブジェクトに比べて単位表示面当たりのポリゴン数が少ないオブジェクトデータである。段差影用板状オブジェクトデータSSDは、階段用オブジェクトデータSGDよりも小さいサイズに設定されており、階段画像SGにより表示される階段部分のうち影画像CH14が表示され得る一部の範囲に対応させて設定されている。そして、段差影用板状オブジェクトデータSSDに対して段差影用テクスチャデータSSTが適用されることにより、影画像CH14が表示される。 When displaying the shadow image CH14, in the world coordinate system, the step shadow plate-shaped object data SSD includes the character object data COD1 for displaying the effect character CH13 and the staircase object data SGD for displaying the staircase image SG. Placed between. The plate-shaped object data SSD for step shadow is an object in which a flat object having no wall thickness is made into a step shape according to the shape of the stairs, and is a normal object having a wall thickness for displaying a character such as a person. This is object data in which the number of polygons per unit display surface is smaller than that of the object data. The plate-shaped object data SSD for step shadows is set to a size smaller than the object data SGD for stairs, and corresponds to a part of the stairs portion displayed by the stairs image SG where the shadow image CH14 can be displayed. Is set. Then, the shadow image CH14 is displayed by applying the step shadow texture data SST to the step shadow plate-shaped object data SSD.

段差影用板状オブジェクトデータSSDは、ワールド座標系において階段用オブジェクトデータSGDよりも所定距離分(具体的には1ピクセル分)、上方に離間させた位置に配置され、当該段差影用板状オブジェクトデータSSDの上方にキャラクタ用オブジェクトデータCOD1が配置される。このように階段用オブジェクトデータSGDに対して上方に離間させた位置に段差影用板状オブジェクトデータSSDを配置することにより、階段画像SGの上方に影画像CH14が確実に表示される。 The step shadow plate-shaped object data SSD is arranged at a position separated above the staircase object data SGD by a predetermined distance (specifically, one pixel) in the world coordinate system, and the step shadow plate shape The character object data COD1 is arranged above the object data SSD. By arranging the step shadow plate-shaped object data SSD at a position separated upward from the staircase object data SGD in this way, the shadow image CH14 is reliably displayed above the staircase image SG.

段差影用テクスチャデータSSTは1種類のみ設定されている。演出用キャラクタCH13の移動に合わせて影画像CH14を移動させる場合には、段差影用板状オブジェクトデータSSDに対して段差影用テクスチャデータSSTを適用する位置を演出用キャラクタCH13の移動に合わせて変化させる。具体的には、段差影用テクスチャデータSSTの所定の色情報を段差影用板状オブジェクトデータSSDに適用する場合、当該色情報に設定されているUV座標データに対応するベースUV座標データが設定されている段差影用板状オブジェクトデータSSDのピクセルに当該色情報を適用する構成において、段差影用板状オブジェクトデータSSDのベースUV座標データを演出用キャラクタCH13の移動に合わせて変化させることにより、段差影用板状オブジェクトデータSSDにおいて段差影用テクスチャデータSSTが適用される位置が変化することとなる。例えば、ベースUV座標データが(1,1)に設定されている段差影用板状オブジェクトデータSSDのピクセルに対して、UV座標データが(1,1)に設定されている段差影用テクスチャデータSSTの色情報が適用される構成において、ベースUV座標データが(1,1)に設定されることとなるピクセルを変化させることにより、段差影用板状オブジェクトデータSSDに対して段差影用テクスチャデータSSTが適用される位置が変化することとなる。なお、段差影用板状オブジェクトデータSSDのベースUV座標データは表示CPU131において変更可能であるが、UV座標データは段差影用テクスチャデータSSTにおいて固定のデータとして設定されているため表示CPU131において変更することができない。 Only one type of texture data SST for step shadow is set. When the shadow image CH14 is moved according to the movement of the effect character CH13, the position where the step shadow texture data SST is applied to the step shadow plate-shaped object data SSD is set according to the movement of the effect character CH13. Change. Specifically, when applying the predetermined color information of the step shadow texture data SST to the step shadow plate-shaped object data SSD, the base UV coordinate data corresponding to the UV coordinate data set in the color information is set. In the configuration in which the color information is applied to the pixels of the step shadow plate-shaped object data SSD, the base UV coordinate data of the step shadow plate-shaped object data SSD is changed according to the movement of the effect character CH13. , The position where the step shadow texture data SST is applied changes in the step shadow plate-shaped object data SSD. For example, for the pixels of the plate-shaped object data SSD for step shadows whose base UV coordinate data is set to (1,1), the texture data for step shadows whose UV coordinate data is set to (1,1). In the configuration to which the color information of SST is applied, by changing the pixel at which the base UV coordinate data is set to (1,1), the texture for step shadow is obtained with respect to the plate-shaped object data SSD for step shadow. The position where the data SST is applied will change. The base UV coordinate data of the plate-shaped object data SSD for step shadow can be changed in the display CPU 131, but the UV coordinate data is changed in the display CPU 131 because it is set as fixed data in the texture data SST for step shadow. Can't.

段差影用板状オブジェクトデータSSDのベースUV座標データを画像の各更新タイミングにおいて変更させるためのデータとして、図72(b)に示すようにメモリモジュール133にはUV座標用アニメーションデータUADが予め記憶されている。UV座標用アニメーションデータUADには、演出用キャラクタCH13が階段上を移動するように動画表示される期間の各更新タイミングに1対1で対応させて段差影用板状オブジェクトデータSSDのベースUV座標データを変化させるためのデータが設定されている。当該変化させるためのデータとは、段差影用板状オブジェクトデータSSDの各ピクセルに設定されている各ベースUV座標データが一定の方向に同じ量だけずれるようにこれら各ベースUV座標データに対して加算する値のデータである。UV座標用アニメーションデータUADを利用することにより、段差影用板状オブジェクトデータSSDの各ピクセルのベースUV座標データが各更新タイミングにおいて一定の方向に同じ量だけずれることとなる。そして、各更新タイミングにおいて一定のUV座標データを利用して段差影用テクスチャデータSSTを適用することにより、影画像CH14が各更新タイミングにおいて一定の方向に同じ量だけずれながら移動表示されることとなる。 As shown in FIG. 72B, animation data UAD for UV coordinates is stored in advance in the memory module 133 as data for changing the base UV coordinate data of the plate-shaped object data SSD for step shadows at each update timing of the image. Has been done. The animation data UAD for UV coordinates has a one-to-one correspondence with each update timing during the period in which the effect character CH13 is displayed as a moving image on the stairs, and the base UV coordinates of the plate-shaped object data SSD for step shadows. The data for changing the data is set. The data to be changed is the data for each base UV coordinate data set in each pixel of the plate-shaped object data SSD for step shadow so that the base UV coordinate data is shifted by the same amount in a certain direction. It is the data of the value to be added. By using the animation data UAD for UV coordinates, the base UV coordinate data of each pixel of the plate-shaped object data SSD for step shadows is shifted by the same amount in a certain direction at each update timing. Then, by applying the texture data SST for step shadow using a constant UV coordinate data at each update timing, the shadow image CH14 is moved and displayed in a constant direction by the same amount at each update timing. Become.

以下、段差影表示を行うための具体的な処理構成を説明する。図73は、表示CPU131にて実行される段差影表示用の演算処理を示すフローチャートである。段差影表示用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該段差影表示用の演算処理は、現状設定されている実行対象テーブルにおいて段差影表示についての情報が設定されている場合に起動される。 Hereinafter, a specific processing configuration for displaying the step shadow will be described. FIG. 73 is a flowchart showing an arithmetic process for displaying a step shadow executed by the display CPU 131. The calculation process for displaying the step shadow is executed in the effect calculation process of step S2209 in the task process (FIG. 42). The arithmetic processing for the step shadow display is started when the information about the step shadow display is set in the currently set execution target table.

段差影表示の開始タイミングである場合(ステップS3401:YES)、UV座標用アニメーションデータUADをメモリモジュール133からワークRAM132に読み出す(ステップS3402)。また、段差影表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3403)。当該画像データには、キャラクタ用オブジェクトデータCOD1、キャラクタ用テクスチャデータCTD1、階段用オブジェクトデータSGD、階段用テクスチャデータSGTD、段差影用板状オブジェクトデータSSD及び段差影用テクスチャデータSSTが含まれる。その後、ステップS3404にて、段差影表示を開始すべきことをVDP135に認識させるための段差影表示の開始指定情報を表示CPU131のレジスタに記憶する。 When it is the start timing of the step shadow display (step S3401: YES), the animation data UAD for UV coordinates is read from the memory module 133 to the work RAM 132 (step S3402). In addition, each address in the memory module 133 of the image data for displaying the step shadow is grasped (step S3403). The image data includes character object data COD1, character texture data CTD1, staircase object data SGD, staircase texture data SGTD, step shadow plate-shaped object data SSD, and step shadow texture data SSD. After that, in step S3404, the step shadow display start designation information for causing the VDP 135 to recognize that the step shadow display should be started is stored in the register of the display CPU 131.

ステップS3401にて否定判定をした場合又はステップS3404の処理を実行した場合、ステップS3405にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして階段用オブジェクトデータSGD及び階段用テクスチャデータSGTDを把握する。そして、これら階段用オブジェクトデータSGD及び階段用テクスチャデータSGTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データSGD,SGTDに対応させて確保されたエリアに書き込む(ステップS3406)。この場合、階段画像SGを所定範囲に亘って表示させることが可能なように、階段用オブジェクトデータSGDの各ピクセルのワールド座標系における座標データが更新される。 When a negative determination is made in step S3401 or the process of step S3404 is executed, the object data SGD for stairs and the data for stairs are used as the data to be used this time based on the execution target table currently set in step S3405. Grasp the texture data SGTD. Then, the parameter information is calculated and derived from the staircase object data SGD and the staircase texture data SGTD, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to the image data SGD and SGTD. (Step S3406). In this case, the coordinate data in the world coordinate system of each pixel of the staircase object data SGD is updated so that the staircase image SG can be displayed over a predetermined range.

また、ステップS3407にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとしてキャラクタ用オブジェクトデータCOD1及びキャラクタ用テクスチャデータCTD1を把握する。そして、これらキャラクタ用オブジェクトデータCOD1及びキャラクタ用テクスチャデータCTD1について、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データCOD1,CTD1に対応させて確保されたエリアに書き込む(ステップS3408)。この場合、演出用キャラクタCH13が階段を上る様子が動画表示されるように(図72(a)参照)、キャラクタ用オブジェクトデータCOD1の各ピクセルのワールド座標系における座標データが更新される。 Further, in step S3407, the character object data COD1 and the character texture data CTD1 are grasped as the data to be used this time based on the execution target table currently set. Then, the parameter information is calculated and derived for the character object data COD1 and the character texture data CTD1, and the derived parameter information is written in the area secured corresponding to the image data COD1 and CTD1 in the work RAM 132. (Step S3408). In this case, the coordinate data in the world coordinate system of each pixel of the character object data COD1 is updated so that the appearance of the effect character CH13 climbing the stairs is displayed as a moving image (see FIG. 72A).

その後、ステップS3409にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして段差影用板状オブジェクトデータSSDを把握する。続くステップS3410では、ワークRAM132に既に読み出しているUV座標用アニメーションデータUADから今回の更新タイミングに対応したベースUV座標データの増加分のデータを読み出し、その読み出したデータを現状のベースUV座標データに加算することで今回の更新タイミングに対応したベースUV座標データを導出する。そして、その導出したベースUV座標データをワークRAM132において段差影用板状オブジェクトデータSSDに対応させて確保されたエリアに書き込む。 After that, in step S3409, the plate-shaped object data SSD for step shadow is grasped as the data to be used this time based on the currently set execution target table. In the following step S3410, the data of the increase in the base UV coordinate data corresponding to the current update timing is read from the UV coordinate animation data UAD already read in the work RAM 132, and the read data is used as the current base UV coordinate data. By adding, the base UV coordinate data corresponding to this update timing is derived. Then, the derived base UV coordinate data is written in the work RAM 132 in the area secured corresponding to the step shadow plate-shaped object data SSD.

その後、ステップS3411にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして段差影用テクスチャデータSSTを把握する。続くステップS3412では、段差影用板状オブジェクトデータSSDにおけるベースUV座標データ以外のパラメータ情報及び段差影用テクスチャデータSSTのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データSSD,SSTに対応させて確保されたエリアに書き込む。その後、ステップS3413にて、段差影表示の実行期間であることをVDP135に認識させるための段差影表示指定情報を表示CPU131のレジスタに記憶する。 After that, in step S3411, the texture data SST for step shadow is grasped as the data to be used this time based on the currently set execution target table. In the following step S3412, parameter information other than the base UV coordinate data in the plate-shaped object data SSD for step shadow and parameter information of texture data SST for step shadow are calculated and derived, and the derived parameter information is obtained in these images in the work RAM 132. Data Write in the area secured corresponding to SSD and SST. After that, in step S3413, the step shadow display designation information for causing the VDP 135 to recognize that it is the execution period of the step shadow display is stored in the register of the display CPU 131.

この場合、段差影用板状オブジェクトデータSSDのワールド座標系における座標データとして、演出用キャラクタCH11の下方に影画像CH12を表示させることが可能なように、ステップS3408にて把握したキャラクタ用オブジェクトデータCOD1の座標データに対応する座標データを把握する。また、この場合に把握される座標データは、階段画像SGから離れる側に1ピクセル分、離れた位置に段差影用板状オブジェクトデータSSDが配置されるように、ステップS3406にて把握した階段用オブジェクトデータSGDの座標データに対応する座標データとなる。 In this case, the character object data grasped in step S3408 so that the shadow image CH12 can be displayed below the effect character CH11 as the coordinate data in the world coordinate system of the step shadow plate-shaped object data SSD. Grasp the coordinate data corresponding to the coordinate data of COD1. Further, the coordinate data grasped in this case is for the stairs grasped in step S3406 so that the plate-shaped object data SSD for step shadow is arranged at a position away from the staircase image SG by one pixel. Object data Coordinate data corresponding to the coordinate data of SGD.

上記のように段差影表示用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、キャラクタ用オブジェクトデータCOD1、キャラクタ用テクスチャデータCTD1、階段用オブジェクトデータSGD、階段用テクスチャデータSGTD、段差影用板状オブジェクトデータSSD及び段差影用テクスチャデータSSTの使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには段差影表示指定情報が設定され、さらに段差影表示の開始タイミングにおいては段差影表示の開始指定情報が設定される。 When the arithmetic processing for displaying the step shadow is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output processing (step S609) includes the character object data COD1 and the character texture data CTD1. Information on usage instructions of the staircase object data SGD, the staircase texture data SGTD, the step shadow plate-shaped object data SSD, and the step shadow texture data SST is set. In addition, parameter information applied to each of these image data is set in the drawing list. Further, step shadow display designation information is set in the drawing list, and step shadow display start designation information is set at the step shadow display start timing.

次に、VDP135にて実行される段差影表示用の設定処理を、図74のフローチャートを参照しながら説明する。段差影表示用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて段差影表示指定情報が設定されている場合に、段差影表示用の設定処理が実行される。 Next, the setting process for displaying the step shadow executed by the VDP 135 will be described with reference to the flowchart of FIG. 74. The setting process for displaying the step shadow is executed as a part of the setting process for the effect executed in step S2303 of the drawing process (FIG. 44). Further, when the step shadow display designation information is set in the drawing list, the setting process for step shadow display is executed.

今回の描画リストに段差影表示の開始指定情報が設定されている場合(ステップS3501:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS3502)。当該画像データには、キャラクタ用オブジェクトデータCOD1、キャラクタ用テクスチャデータCTD1、階段用オブジェクトデータSGD、階段用テクスチャデータSGTD、段差影用板状オブジェクトデータSSD及び段差影用テクスチャデータSSTが含まれる。 When the step shadow display start designation information is set in the drawing list this time (step S3501: YES), the memory module 133 is the display target of this time from the information of the address set in the drawing list. The address of the area where various image data is stored is grasped, and based on the grasped result, various image data are read out from the memory module 133 to the expansion buffer 141 of the VRAM 134 (step S3502). The image data includes character object data COD1, character texture data CTD1, staircase object data SGD, staircase texture data SGTD, step shadow plate-shaped object data SSD, and step shadow texture data SSD.

ステップS3501にて否定判定をした場合、又はステップS3502の処理を実行した場合、ステップS3503にて、今回の描画リストに基づき階段用オブジェクトデータSGD及び階段用テクスチャデータSGTDを表示対象のデータとして把握する。また、ステップS3504にて、それらデータSGD,SGTDのパラメータ情報を今回の描画リストに基づき把握する。この場合、階段用オブジェクトデータSGDの各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。 When a negative determination is made in step S3501 or when the process of step S3502 is executed, the object data SGD for stairs and the texture data SGTD for stairs are grasped as data to be displayed in step S3503 based on the current drawing list. .. Further, in step S3504, the parameter information of the data SGD and SGTD is grasped based on the current drawing list. In this case, various parameter information including the coordinate data in the world coordinate system of each pixel of the staircase object data SGD is grasped.

その後、ステップS3505にて、今回の描画リストに基づきキャラクタ用オブジェクトデータCOD1及びキャラクタ用テクスチャデータCTD1を表示対象のデータとして把握する。また、ステップS3506にて、それらデータCOD1,CTD1のパラメータ情報を今回の描画リストに基づき把握する。この場合、演出用キャラクタCH13が階段を上る様子が動画表示されるように(図72(a)参照)、キャラクタ用オブジェクトデータCOD1の各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。 After that, in step S3505, the character object data COD1 and the character texture data CTD1 are grasped as the data to be displayed based on the current drawing list. Further, in step S3506, the parameter information of the data COD1 and CTD1 is grasped based on the current drawing list. In this case, various parameter information including the coordinate data in the world coordinate system of each pixel of the character object data COD1 is displayed so that the appearance of the effect character CH13 climbing the stairs is displayed as a moving image (see FIG. 72 (a)). Grasp.

その後、ステップS3507にて、今回の描画リストに基づき段差影用板状オブジェクトデータSSDを表示対象のデータとして把握する。また、ステップS3508にて、段差影用板状オブジェクトデータSSDのベースUV座標データを今回の描画リストに基づき把握するとともに、ステップS3509にて、当該データSSDに適用する他のパラメータ情報を把握する。この場合、演出用キャラクタCH13の下方に影画像CH14を表示させるための段差影用板状オブジェクトデータSSDの各ピクセルのワールド座標系における座標データを把握する。また、この場合に把握される座標データは、階段画像SGから離れる側に1ピクセル分、離れた位置に段差影用板状オブジェクトデータSSDが配置されるように、ステップS3504にて把握した階段用オブジェクトデータSGDの座標データに対応する座標データとなる。 After that, in step S3507, the plate-shaped object data SSD for step shadow is grasped as the data to be displayed based on the current drawing list. Further, in step S3508, the base UV coordinate data of the plate-shaped object data SSD for step shadow is grasped based on the drawing list of this time, and in step S3509, other parameter information applied to the data SSD is grasped. In this case, the coordinate data in the world coordinate system of each pixel of the step shadow plate-shaped object data SSD for displaying the shadow image CH14 below the effect character CH13 is grasped. Further, the coordinate data grasped in this case is for the stairs grasped in step S3504 so that the plate-shaped object data SSD for step shadow is arranged at a position away from the staircase image SG by one pixel. Object data Coordinate data corresponding to the coordinate data of SGD.

その後、ステップS3510にて、今回の描画リストに基づき段差影用テクスチャデータSSTを表示対象のデータとして把握する。また、ステップS3511にて、段差影用テクスチャデータSSTの固定のUV座標データを当該テクスチャデータSSTから把握するとともに、ステップS3512にて、当該テクスチャデータSSTに適用する他のパラメータ情報を今回の描画リストに基づき把握する。 After that, in step S3510, the texture data SST for step shadow is grasped as the data to be displayed based on the current drawing list. Further, in step S3511, the fixed UV coordinate data of the texture data SST for step shadow is grasped from the texture data SST, and in step S3512, other parameter information applied to the texture data SST is obtained in this drawing list. Grasp based on.

その後、ステップS3513にて、ステップS3503〜ステップS3512の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。 After that, in step S3513, the setting process for the world coordinate system is executed according to the contents corresponding to the grasped results of steps S3503 to S3512.

上記のように段差影表示用の設定処理が実行されることにより、ワールド座標系に階段用オブジェクトデータSGD、キャラクタ用オブジェクトデータCOD1及び段差影用板状オブジェクトデータSSDが配置されるとともに、表示CPU131において演算により導出された座標データを含めて各種パラメータ情報が各オブジェクトデータSGD,COD1,SSDに適用される。また、各オブジェクトデータSGD,COD1,SSDには対応するテクスチャデータSGTD,CTD1,SSTが適用される。これにより、表示面Pでは、図72(a)に示すように、階段画像SGの階段上を演出用キャラクタCH13が移動しているような動画表示が行われるとともに演出用キャラクタCH13の移動に合わせて影画像CH14が階段の形状に沿って変形しながら追従するような動画表示が行われる。 By executing the setting process for displaying the step shadow as described above, the object data SGD for the stairs, the object data COD1 for the character, and the plate-shaped object data SSD for the step shadow are arranged in the world coordinate system, and the display CPU 131. Various parameter information including the coordinate data derived by the calculation is applied to each object data SGD, COD1, SSD. Further, the corresponding texture data SGTD, CTD1, SST is applied to each object data SGD, COD1, SSD. As a result, as shown in FIG. 72A, on the display surface P, a moving image is displayed as if the effect character CH13 is moving on the stairs of the staircase image SG, and the effect character CH13 is moved in accordance with the movement of the effect character CH13. The moving image is displayed so that the shadow image CH14 follows while deforming along the shape of the stairs.

以上のように階段上を移動するように演出用キャラクタCH13が表示される構成において、階段の形状に合わせて形成された段差影用板状オブジェクトデータSSDに段差影用テクスチャデータSSTを適用することで影画像CH14を表示する構成である。これにより、階段の形状に沿うようにして影画像CH14を表示することが可能となる。 In the configuration in which the effect character CH13 is displayed so as to move on the stairs as described above, the step shadow texture data SSD is applied to the step shadow plate-shaped object data SSD formed according to the shape of the stairs. The shadow image CH14 is displayed in. This makes it possible to display the shadow image CH14 along the shape of the stairs.

段差影用板状オブジェクトデータSSDを階段において影画像CH14が表示され得る全体の範囲に対応させて設定し、段差影用板状オブジェクトデータSSDのベースUV座標データを変更することで影画像CH14の表示位置を変更する構成とすることにより、影画像CH14の各表示位置に対応する段差影用板状オブジェクトデータを複数種類用意する構成に比べて、画像データを記憶するために必要なデータ容量を削減することが可能となる。 The plate-shaped object data SSD for step shadows is set corresponding to the entire range in which the shadow image CH14 can be displayed on the stairs, and the base UV coordinate data of the plate-shaped object data SSD for step shadows is changed to change the shadow image CH14. By changing the display position, the data capacity required for storing the image data can be increased as compared with the configuration in which a plurality of types of plate-shaped object data for step shadows corresponding to each display position of the shadow image CH14 are prepared. It is possible to reduce it.

階段用オブジェクトデータSGDに対して段差影用テクスチャデータSSTを適用するのではなく、段差影用板状オブジェクトデータSSDを別に設定して段差影用テクスチャデータSSTを適用することにより、ベースUV座標データを変更することで影画像CH14の表示位置を変更する場合において階段用テクスチャデータSGTDの表示位置に影響を与えないようにすることが可能となる。 Instead of applying the step shadow texture data SST to the staircase object data SGD, by setting the step shadow plate-shaped object data SSD separately and applying the step shadow texture data SST, the base UV coordinate data By changing the above, it is possible to prevent the display position of the shadow image CH14 from being affected when the display position of the shadow image CH14 is changed.

<段差影表示に係る構成の別形態>
・テクスチャのUV座標データを変更することなくオブジェクトデータのベースUV座標データを変更することで画像の表示位置を変更する構成を、既に説明した平面状の影画像CH12を表示するために利用してもよい。この場合、平面影用板状オブジェクトデータBSDのサイズを地面用オブジェクトデータBGDの全体分に対応させるのではなく、地面用オブジェクトデータBGDにおいて影画像CH12が表示され得る一部の範囲に対応させることにより、平面影用板状オブジェクトデータBSDのデータ容量を小さくすることが可能となる。
<Another form of configuration related to step shadow display>
-Using the configuration that changes the display position of the image by changing the base UV coordinate data of the object data without changing the UV coordinate data of the texture, to display the planar shadow image CH12 already described. May be good. In this case, the size of the flat shadow plate-shaped object data BSD does not correspond to the entire ground object data BGD, but corresponds to a part of the range in which the shadow image CH12 can be displayed in the ground object data BGD. This makes it possible to reduce the data capacity of the flat shadow plate-shaped object data BSD.

・テクスチャのUV座標データを表示CPU131において変更可能な構成とした場合には、段差影用板状オブジェクトデータSSDを利用することなく、段差影用テクスチャデータSSTを階段用オブジェクトデータSGDに適用する構成としてもよい。この場合、階段用オブジェクトデータSGDに階段用テクスチャデータSGTDを適用した後に、表示CPU131において設定されたUV座標データに対応する位置に対して、段差影用テクスチャデータSSTを上書きするように適用する。本構成によれば、段差影用板状オブジェクトデータSSDが不要となる点でデータ容量の削減を図ることができるとともに、オブジェクトデータのベースUV座標データを変更しなくてもUV座標データとの関係で影画像CH14の階段形状に沿った移動表示を行うことが可能となる。 -When the UV coordinate data of the texture is changed in the display CPU 131, the texture data SST for the step shadow is applied to the object data SGD for the stairs without using the plate-shaped object data SSD for the step shadow. May be. In this case, after applying the staircase texture data SGTD to the staircase object data SGD, the step shadow texture data SST is applied so as to overwrite the position corresponding to the UV coordinate data set in the display CPU 131. According to this configuration, it is possible to reduce the data capacity in that the plate-shaped object data SSD for step shadows is not required, and the relationship with the UV coordinate data without changing the base UV coordinate data of the object data. It is possible to display the movement along the staircase shape of the shadow image CH14.

・影画像CH14を表示するために階段用オブジェクトデータSGDとは別に設けるオブジェクトデータは板状オブジェクトデータに限定されることはなく、キャラクタ用オブジェクトデータCOD1などと同様に肉厚のある立体状に構成されたオブジェクトデータとしてもよい。 -The object data provided separately from the staircase object data SGD for displaying the shadow image CH14 is not limited to the plate-shaped object data, and is configured in a thick three-dimensional shape like the character object data COD1. It may be the object data that has been created.

・階段用オブジェクトデータSGDとは別に設けられたオブジェクトデータを利用して演出用キャラクタCH13の影画像CH14を表示する構成を、演出用キャラクタCH13が水面に反射している様子を示す反射画像を表示するために利用してもよい。 -The structure for displaying the shadow image CH14 of the effect character CH13 using the object data provided separately from the staircase object data SGD, and displaying the reflection image showing how the effect character CH13 is reflected on the water surface. You may use it to do so.

<変動表示演出を行うための構成>
次に、変動表示演出を行うための構成について説明する。図75(a)は変動表示演出の内容を説明するための説明図であり、図75(b)はVRAM134の展開用バッファ141において変動表示演出の実行に際して利用されるエリアの構成を説明するための説明図である。
<Structure for performing variable display effect>
Next, a configuration for performing a variable display effect will be described. FIG. 75 (a) is an explanatory diagram for explaining the content of the variable display effect, and FIG. 75 (b) is for explaining the configuration of an area used when executing the variable display effect in the expansion buffer 141 of the VRAM 134. It is explanatory drawing of.

変動表示演出とは、図75(a)に示すように、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識される演出用キャラクタCH15が移動表示されている手前にて複数の図柄表示部CH16〜CH18が変動表示される演出である。なお、変動表示演出では、第1図柄表示部CH16、第2図柄表示部CH17及び第3図柄表示部CH18の3種類が変動表示されるが、図柄表示部の数は1個でもよく、他の複数であってもよい。各図柄表示部CH16〜CH18はそれぞれ同一の外観形状をしており、周回方向に並ぶ各面のそれぞれに演出図柄が付されている。一の図柄表示部CH16〜CH18において周回方向に並ぶ演出図柄の種類は全て相違している一方、各図柄表示部CH16〜CH18に設定されている演出図柄の種類は同一となっている。 As shown in FIG. 75A, the variable display effect is before the effect character CH15, which is recognized by the player as representing a person having a face, a torso, both hands, and both feet, is moved and displayed. This is an effect in which a plurality of symbol display units CH16 to CH18 are displayed in a variable manner. In the variable display effect, three types of the first symbol display unit CH16, the second symbol display unit CH17, and the third symbol display unit CH18 are displayed in a variable manner, but the number of symbol display units may be one and other. There may be more than one. Each of the symbol display units CH16 to CH18 has the same appearance shape, and an effect symbol is attached to each of the surfaces arranged in the circumferential direction. While the types of effect symbols arranged in the circumferential direction in one symbol display unit CH16 to CH18 are all different, the types of effect symbols set in each symbol display unit CH16 to CH18 are the same.

変動表示演出は、開閉実行モードにおける昇格演出として実行される。昇格演出は、通常大当たり結果の場合及び15R高確大当たり結果の場合のいずれにおいても発生し得る演出である。具体的には、遊技回用の演出の終了に際しては図柄表示装置41にて通常大当たり結果に対応した偶数図柄の組合せを最終停止表示させながら、今回の開閉実行モードの契機となった大当たり結果が15R高確大当たり結果であった場合には開閉実行モード中に高確対応演出が行われ、今回の開閉実行モードの契機となった大当たり結果が通常大当たり結果であった場合には開閉実行モード中に低確対応演出が行われる演出である。変動表示演出は、開閉実行モード中に開始され、15R高確大当たり結果を契機とした開閉実行モードであれば、複数の図柄表示部CH16〜CH18の変動表示が停止される場合に同一の演出図柄の組合せが停止表示され、通常大当たり結果を契機とした開閉実行モードであれば、複数の図柄表示部CH16〜CH18の変動表示が停止される場合に同一の演出図柄の組合せが停止表示されない。 The variable display effect is executed as a promotion effect in the open / close execution mode. The promotion effect is an effect that can occur in both the case of the normal jackpot result and the case of the 15R high accuracy jackpot result. Specifically, at the end of the effect for the game round, the symbol display device 41 displays the final stop display of the combination of even-numbered symbols corresponding to the normal jackpot result, and the jackpot result that triggered the opening / closing execution mode this time is displayed. If it is a 15R high-accuracy jackpot result, a high-accuracy response effect is performed during the open / close execution mode, and if the jackpot result that triggered this open / close execution mode is a normal jackpot result, it is in the open / close execution mode. It is a production in which a low-accuracy response production is performed. The variable display effect is started during the open / close execution mode, and in the open / close execution mode triggered by the 15R high accuracy jackpot result, the same effect symbol is used when the variable display of the plurality of symbol display units CH16 to CH18 is stopped. In the open / close execution mode triggered by the normal jackpot result, the combination of the same effect symbols is not stopped and displayed when the variable display of the plurality of symbol display units CH16 to CH18 is stopped.

変動表示演出が実行される場合、少なくとも所定期間に亘って各図柄表示部CH16〜CH18が半透明で表示される。この場合に、各図柄表示部CH16〜CH18はメモリモジュール133に予め記憶されたオブジェクトデータとテクスチャデータとを利用して3次元画像として表示されるが、オブジェクトデータに対してそのまま半透明化処理を施すと、立体データとして設定されたオブジェクトデータの裏側の画像などがそのまま透過して見えてしまうおそれがある。これに対して、各図柄表示部CH16〜CH18を表示するためのオブジェクトデータに半透明化処理を施すのではなく、演出用キャラクタCH15とは別に作成した各図柄表示部CH16〜CH18の2次元描画データに対して半透明化処理を施し、それを演出用キャラクタCH15を表示するための2次元描画データに重ね合わせることで、図75(a)に示すように、演出用キャラクタCH15の手前にて半透明の各図柄表示部CH16〜CH18が変動表示されるようにしている。 When the variable display effect is executed, each symbol display unit CH16 to CH18 is displayed semi-transparently for at least a predetermined period. In this case, each symbol display unit CH16 to CH18 is displayed as a three-dimensional image using the object data and texture data stored in advance in the memory module 133, but the object data is semi-transparent as it is. If this is applied, the image on the back side of the object data set as the three-dimensional data may be seen as it is. On the other hand, instead of performing semi-transparency processing on the object data for displaying each symbol display unit CH16 to CH18, two-dimensional drawing of each symbol display unit CH16 to CH18 created separately from the effect character CH15 is performed. By applying semi-transparency processing to the data and superimposing it on the two-dimensional drawing data for displaying the effect character CH15, as shown in FIG. 75A, in front of the effect character CH15. The semi-transparent symbol display units CH16 to CH18 are displayed in a variable manner.

当該表示制御を行うためにVRAM134の展開用バッファ141には、図75(b)に示すように描画用バッファBF1と、第1保存用バッファBF2と、第2保存用バッファBF3と、第3保存用バッファBF4と、第4保存用バッファBF5とが設けられている。これら各バッファBF1〜BF5はいずれもフレームバッファ142の各フレーム領域142a,142bと同一数の単位エリアが設定されており、各単位エリアにはRGB各色に1バイトが割り当てられている。したがって、各バッファBF1〜BF5にはフレーム領域142a,142bに描画される描画データと同様の描画データを描画することが可能となる。また、各単位エリアにはRBG各色のエリア以外にもα値を設定するための1バイトのエリアが設定されている。 In order to perform the display control, the expansion buffer 141 of the VRAM 134 has a drawing buffer BF1, a first storage buffer BF2, a second storage buffer BF3, and a third storage as shown in FIG. 75 (b). A buffer BF4 for storage and a buffer BF5 for fourth storage are provided. Each of these buffers BF1 to BF5 has the same number of unit areas as the frame areas 142a and 142b of the frame buffer 142, and 1 byte is allocated to each RGB color in each unit area. Therefore, it is possible to draw drawing data similar to the drawing data drawn in the frame areas 142a and 142b in the buffers BF1 to BF5. Further, in each unit area, a 1-byte area for setting an α value is set in addition to the area of each RBG color.

描画用バッファBF1は、演出用キャラクタCH15を表示するための2次元描画データ、各図柄表示部CH16〜CH18を表示するための2次元描画データを描画する場合に利用される。第1保存用バッファBF2は、描画用バッファBF1を利用して作成された演出用キャラクタCH15の2次元描画データを一時的に記憶しておくために利用される。第2保存用バッファBF3は、描画用バッファBF1を利用して作成された第1図柄表示部CH16の2次元描画データを一時的に記憶しておくために利用される。第3保存用バッファBF4は、描画用バッファBF1を利用して作成された第2図柄表示部CH17の2次元描画データを一時的に記憶しておくために利用される。第4保存用バッファBF5は、描画用バッファBF1を利用して作成された第3図柄表示部CH18の2次元描画データを一時的に記憶しておくために利用される。 The drawing buffer BF1 is used when drawing two-dimensional drawing data for displaying the effect character CH15 and two-dimensional drawing data for displaying the symbol display units CH16 to CH18. The first storage buffer BF2 is used to temporarily store the two-dimensional drawing data of the effect character CH15 created by using the drawing buffer BF1. The second storage buffer BF3 is used to temporarily store the two-dimensional drawing data of the first symbol display unit CH16 created by using the drawing buffer BF1. The third storage buffer BF4 is used to temporarily store the two-dimensional drawing data of the second symbol display unit CH17 created by using the drawing buffer BF1. The fourth storage buffer BF5 is used to temporarily store the two-dimensional drawing data of the third symbol display unit CH18 created by using the drawing buffer BF1.

以下、変動表示演出を実行するための具体的な処理構成を説明する。図76は、表示CPU131にて実行される変動表示演出用の演算処理を示すフローチャートである。変動表示演出用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該変動表示演出用の演算処理は、現状設定されている実行対象テーブルにおいて変動表示演出についての情報が設定されている場合に起動される。 Hereinafter, a specific processing configuration for executing the variable display effect will be described. FIG. 76 is a flowchart showing an arithmetic process for a variable display effect executed by the display CPU 131. The calculation process for the variable display effect is executed in the effect calculation process in step S2209 in the task process (FIG. 42). The arithmetic processing for the variable display effect is started when the information about the variable display effect is set in the currently set execution target table.

変動表示演出の開始タイミングである場合(ステップS3601:YES)、変動表示演出を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3602)。当該画像データには、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータと、第1図柄表示部CH16を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第2図柄表示部CH17を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第3図柄表示部CH18を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、が含まれる。その後、ステップS3603にて、変動表示演出を開始すべきことをVDP135に認識させるための変動表示演出の開始指定情報を表示CPU131のレジスタに記憶する。 When it is the start timing of the variable display effect (step S3601: YES), each address in the memory module 133 of the image data for performing the variable display effect is grasped (step S3602). The image data includes character object data and character texture data for displaying the effect character CH15, symbol object data and symbol texture data for displaying the first symbol display unit CH16, and a second symbol data. A symbol object data and a symbol texture data for displaying the symbol display unit CH17, and a symbol object data and a symbol texture data for displaying the third symbol display unit CH18 are included. After that, in step S3603, the start designation information of the variable display effect for causing the VDP 135 to recognize that the variable display effect should be started is stored in the register of the display CPU 131.

ステップS3601にて否定判定をした場合又はステップS3603の処理を実行した場合、ステップS3604にて、現状設定されている実行対象テーブルに基づき今回の使用対象のデータとして、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータを把握する。そして、これらキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データに対応させて確保されたエリアに書き込む(ステップS3605)。この場合、演出用キャラクタCH15が表示面P手前側に向かって走っていると認識される表示内容となるように、キャラクタ用オブジェクトデータの各ピクセルのワールド座標系における座標データが更新される。 When a negative determination is made in step S3601 or the process of step S3603 is executed, in step S3604, the effect character CH15 is displayed as the data to be used this time based on the currently set execution target table. Grasp the character object data and character texture data. Then, the parameter information is calculated and derived for the character object data and the character texture data, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to the image data (step S3605). In this case, the coordinate data in the world coordinate system of each pixel of the character object data is updated so that the display content is recognized as running toward the display surface P front side of the effect character CH15.

また、ステップS3606にて、現状設定されている実行対象テーブルに基づき今回の使用対象のデータとして、各図柄表示部CH16〜CH18を表示するための各図柄用オブジェクトデータ及び各図柄用テクスチャデータを把握する。そして、これら各図柄用オブジェクトデータ及び各図柄用テクスチャデータについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データに対応させて確保されたエリアに書き込む(ステップS3607)。この場合、各図柄表示部CH16〜CH18が演出用キャラクタCH15の手前にて所定方向に周回していると認識される表示内容となるように、各図柄用オブジェクトデータの各ピクセルのワールド座標系における座標データが更新される。また、変動表示演出の全期間において各図柄用オブジェクトデータに適用するα値は表示面Pの奥側にて重なることとなる画像を透過させない不透明の情報に設定される。 Further, in step S3606, the object data for each symbol and the texture data for each symbol for displaying each symbol display unit CH16 to CH18 are grasped as the data to be used this time based on the execution target table currently set. To do. Then, the parameter information is calculated and derived for each of the symbol object data and the symbol texture data, and the derived parameter information is written in the work RAM 132 in the area secured corresponding to the image data (step S3607). ). In this case, in the world coordinate system of each pixel of each symbol object data so that the display contents are recognized as the symbols CH16 to CH18 orbiting in a predetermined direction in front of the effect character CH15. The coordinate data is updated. Further, the α value applied to the object data for each symbol during the entire period of the variable display effect is set to opaque information that does not allow the image that overlaps on the back side of the display surface P to be transmitted.

その後、ステップS3608にて、現状設定されている実行対象テーブルに基づき、各図柄表示部CH16〜CH18を半透明状態で表示する半透明期間であるか否かを判定する。半透明期間である場合(ステップS3608:YES)、ステップS3609にて、現状設定されている実行対象テーブルに基づき半透明値データを把握する。また、ステップS3610にて、半透明期間であることをVDP135に認識させるための半透明指定情報を表示CPU131のレジスタに記憶する。 After that, in step S3608, it is determined whether or not each symbol display unit CH16 to CH18 is displayed in a semi-transparent state based on the currently set execution target table. In the case of the semi-transparent period (step S3608: YES), in step S3609, the semi-transparent value data is grasped based on the currently set execution target table. Further, in step S3610, the semi-transparent designation information for causing the VDP 135 to recognize that it is the semi-transparent period is stored in the register of the display CPU 131.

ステップS3608にて否定判定をした場合、又はステップS3610の処理を実行した場合、ステップS3611にて、変動表示演出の実行期間であることをVDP135に認識させるための変動表示演出指定情報を表示CPU131のレジスタに記憶する。 When a negative determination is made in step S3608, or when the process of step S3610 is executed, in step S3611, the variable display effect designation information for causing the VDP 135 to recognize that it is the execution period of the variable display effect is displayed on the display CPU 131. Store in the register.

上記のように変動表示演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータと、第1図柄表示部CH16を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第2図柄表示部CH17を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第3図柄表示部CH18を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータとの使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには変動表示演出指定情報が設定され、さらに変動表示演出の開始タイミングにおいては変動表示演出の開始指定情報が設定されるとともに、半透明期間においては半透明指定情報が設定される。さらにまた、半透明指定情報が設定される場合には、描画リストに半透明値データが設定される。 When the arithmetic processing for the variable display effect is executed as described above, the character object for displaying the effect character CH15 is included in the drawing list transmitted to the VDP135 in the subsequent drawing list output process (step S609). Data and texture data for characters, object data for symbols and texture data for displaying the first symbol display unit CH16, object data for symbols and texture data for symbols for displaying the second symbol display unit CH17. And the information of the instruction to use the symbol object data and the symbol texture data for displaying the third symbol display unit CH18 is set. In addition, parameter information applied to each of these image data is set in the drawing list. In addition, variable display effect designation information is set in the drawing list, and variable display effect start designation information is set at the start timing of the variable display effect, and semi-transparent designation information is set during the semi-transparent period. To. Furthermore, when the semi-transparent designation information is set, the semi-transparent value data is set in the drawing list.

次に、VDP135にて実行される変動表示演出用の設定処理を、図77のフローチャートを参照しながら説明する。変動表示演出用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて変動表示演出指定情報が設定されている場合に、変動表示演出用の設定処理が実行される。 Next, the setting process for the variable display effect executed by the VDP 135 will be described with reference to the flowchart of FIG. 77. The setting process for the variable display effect is executed as a part of the setting process for the effect executed in step S2303 of the drawing process (FIG. 44). Further, when the variable display effect designation information is set in the drawing list, the setting process for the variable display effect is executed.

今回の描画リストに変動表示演出の開始指定情報が設定されている場合(ステップS3701:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS3702)。当該画像データには、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータと、第1図柄表示部CH16を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第2図柄表示部CH17を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第3図柄表示部CH18を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、が含まれる。 When the start designation information of the variable display effect is set in the drawing list this time (step S3701: YES), the memory module 133 is the display target of this time from the information of the address set in the drawing list. The address where various image data is stored is grasped, and based on the grasped result, various image data are read out from the memory module 133 to the expansion buffer 141 of the VRAM 134 (step S3702). The image data includes character object data and character texture data for displaying the effect character CH15, symbol object data and symbol texture data for displaying the first symbol display unit CH16, and a second symbol data. A symbol object data and a symbol texture data for displaying the symbol display unit CH17, and a symbol object data and a symbol texture data for displaying the third symbol display unit CH18 are included.

ステップS3701にて否定判定をした場合、又はステップS3702の処理を実行した場合、ステップS3703にて、今回の描画リストに基づき演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータを表示対象のデータとして把握する。また、ステップS3704にて、それら画像データのパラメータ情報を今回の描画リストに基づき把握する。この場合、演出用キャラクタCH15が表示面P手前側に向かって走っていると認識される表示内容とするための座標データを含めて各種パラメータ情報を把握する。 When a negative determination is made in step S3701 or when the process of step S3702 is executed, in step S3703, character object data and character texture data for displaying the effect character CH15 based on the current drawing list are obtained. Grasp as the data to be displayed. Further, in step S3704, the parameter information of the image data is grasped based on the current drawing list. In this case, various parameter information is grasped including the coordinate data for making the display content recognized that the effect character CH15 is running toward the front side of the display surface P.

その後、ステップS3705にて、今回の描画リストに基づき各図柄表示部CH16〜CH18を表示するための各図柄用オブジェクトデータ及び各図柄用テクスチャデータを把握する。また、ステップS3706にて、それら画像データのパラメータ情報を今回の描画リストに基づき把握する。この場合、各図柄表示部CH16〜CH18が演出用キャラクタCH15の手前にて所定方向に周回していると認識される表示内容とするための座標データを含めて各種パラメータ情報を把握する。また、各図柄用オブジェクトデータに適用するα値として、表示面Pの奥側にて重なることとなる画像を透過させない不透明の情報を把握する。 After that, in step S3705, each symbol object data and each symbol texture data for displaying each symbol display unit CH16 to CH18 are grasped based on the current drawing list. Further, in step S3706, the parameter information of the image data is grasped based on the current drawing list. In this case, various parameter information is grasped including the coordinate data for displaying the display contents in which each symbol display unit CH16 to CH18 is recognized as rotating in a predetermined direction in front of the effect character CH15. Further, as the α value applied to each symbol object data, opaque information that does not allow the image that overlaps on the back side of the display surface P to be transmitted is grasped.

その後、ステップS3707にて、ステップS3703〜ステップS3706の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。これにより、ワールド座標系においては、図75(a)に示すような変動表示演出用の画像に対応した描画データの作成を可能とする位置関係で、演出用キャラクタCH15のオブジェクトデータ、第1図柄表示部CH16のオブジェクトデータ、第2図柄表示部CH17のオブジェクトデータ及び第3図柄表示部CH18のオブジェクトデータが設定される。つまり、演出用キャラクタCH15のオブジェクトデータの手前に各図柄表示部CH16〜CH18のオブジェクトデータが配置されるとともに、左に第1図柄表示部CH16のオブジェクトデータが配置され、中央に第2図柄表示部CH17のオブジェクトデータが配置され、右に第3図柄表示部CH18のオブジェクトデータが配置される。 After that, in step S3707, the setting process for the world coordinate system is executed according to the contents corresponding to the grasped results of steps S3703 to S3706. As a result, in the world coordinate system, the object data of the effect character CH15 and the first symbol have a positional relationship that enables the creation of drawing data corresponding to the image for the variable display effect as shown in FIG. 75 (a). The object data of the display unit CH16, the object data of the second symbol display unit CH17, and the object data of the third symbol display unit CH18 are set. That is, the object data of each symbol display unit CH16 to CH18 is arranged in front of the object data of the effect character CH15, the object data of the first symbol display unit CH16 is arranged on the left, and the second symbol display unit is arranged in the center. The object data of CH17 is arranged, and the object data of the third symbol display unit CH18 is arranged on the right side.

次に、VDP135にて実行される変動表示演出用の描画データ作成処理を、図78のフローチャートを参照しながら説明する。変動表示演出用の描画データ作成処理は、描画リストにおいて変動表示演出指定情報が設定されている場合に、描画処理(図44)のステップS2311にて実行される演出及び図柄用の描画データ作成処理の一部の処理として実行される。 Next, the drawing data creation process for the variable display effect executed by the VDP 135 will be described with reference to the flowchart of FIG. 78. The drawing data creation process for the variable display effect is the drawing data creation process for the effect and the design executed in step S2311 of the drawing process (FIG. 44) when the variable display effect designation information is set in the drawing list. It is executed as a part of the processing of.

なお、以下の説明では図79(a)〜図79(c)及び図80(a)〜図80(e)の説明図を適宜参照する。図79(a)は第2保存用バッファBF3に保存された第1図柄表示部CH16の描画データを説明するための説明図であり、図79(b)は第3保存用バッファBF4に保存された第2図柄表示部CH17の描画データを説明するための説明図であり、図79(c)は第4保存用バッファBF5に保存された第3図柄表示部CH18の描画データを説明するための説明図である。また、図80(a)〜図80(e)は各保存用バッファBF2〜BF5に保存された描画データを利用して変動表示演出用画像の描画データが作成される様子を説明するための説明図である。 In the following description, the explanatory views of FIGS. 79 (a) to 79 (c) and 80 (a) to 80 (e) will be referred to as appropriate. FIG. 79 (a) is an explanatory diagram for explaining the drawing data of the first symbol display unit CH16 stored in the second storage buffer BF3, and FIG. 79 (b) is stored in the third storage buffer BF4. FIG. 79 (c) is an explanatory diagram for explaining the drawing data of the second symbol display unit CH17, and FIG. 79 (c) is for explaining the drawing data of the third symbol display unit CH18 stored in the fourth storage buffer BF5. It is explanatory drawing. Further, FIGS. 80 (a) to 80 (e) are described for explaining how the drawing data of the variable display effect image is created by using the drawing data stored in the storage buffers BF2 to BF5. It is a figure.

まずステップS3801にて展開用バッファ141の描画用バッファBF1の初期化処理を実行する。初期化処理に際しては、描画用バッファBF1の各単位エリアを初期化する。これにより、各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。 First, in step S3801, the initialization process of the drawing buffer BF1 of the expansion buffer 141 is executed. In the initialization process, each unit area of the drawing buffer BF1 is initialized. As a result, the 1-byte data corresponding to each RGB color is cleared to "0" in each unit area, and the 1-byte data corresponding to the α value in each unit area is cleared to "0" so as to be completely transparent. Will be done.

続くステップS3802では、演出用キャラクタの描画処理を実行する。当該描画処理では、ワールド座標系において演出用キャラクタCH15に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、演出用キャラクタCH15を表示するための表示対象データが、最終的な演出用キャラクタCH15の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3803にて、第1保存用バッファBF2への保存処理を実行する。この場合、ステップS3802の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第1保存用バッファBF2に保存される。 In the following step S3802, the drawing process of the effect character is executed. In the drawing process, only the object data is projected onto the screen area PC 12 by masking the object data other than the object data corresponding to the effect character CH15 in the world coordinate system. Then, the drawing data after projection is written to the drawing buffer BF1. In this case, the display target data for displaying the effect character CH15 is written in the unit area of the drawing buffer BF1 corresponding to the final display position of the effect character CH15. The α value of each unit area in which the display target data is drawn is set to the data corresponding to opacity, and the α value of each unit area in which the display target data is not drawn is maintained in the data corresponding to complete transparency. After that, in step S3803, the storage process in the first storage buffer BF2 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the processing of step S3802 is stored as it is in the first storage buffer BF2.

続くステップS3804では、ステップS3801と同様に描画用バッファBF1の初期化処理を実行する。これにより、描画用バッファBF1の各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。 In the following step S3804, the initialization process of the drawing buffer BF1 is executed in the same manner as in step S3801. As a result, the 1-byte data corresponding to each RGB color is cleared to "0" in each unit area of the drawing buffer BF1, and the 1-byte data corresponding to the α value corresponds to complete transparency in each unit area. "0" is cleared.

その後、ステップS3805にて、第1図柄表示部の描画処理を実行する。当該描画処理では、ワールド座標系において第1図柄表示部CH16に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、図79(a−1)に示すように第1図柄表示部CH16を表示するための表示対象データが、最終的な第1図柄表示部CH16の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は、図79(a−2)に示すように不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3806にて、第2保存用バッファBF3への保存処理を実行する。この場合、ステップS3805の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第2保存用バッファBF3に保存される。 After that, in step S3805, the drawing process of the first symbol display unit is executed. In the drawing process, only the object data is projected onto the screen area PC 12 by masking the object data other than the object data corresponding to the first symbol display unit CH16 in the world coordinate system. Then, the drawing data after projection is written to the drawing buffer BF1. In this case, as shown in FIG. 79 (a-1), the display target data for displaying the first symbol display unit CH16 is the drawing buffer BF1 corresponding to the final display position of the first symbol display unit CH16. Written in the unit area. As shown in FIG. 79 (a-2), the α value of each unit area in which the display target data is drawn is set to the data corresponding to opacity, and the α value of each unit area in which the display target data is not drawn is set. It is maintained in the data corresponding to full transparency. After that, in step S3806, the storage process in the second storage buffer BF3 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the processing of step S3805 is stored as it is in the second storage buffer BF3.

続くステップS3807では、ステップS3801と同様に描画用バッファBF1の初期化処理を実行する。これにより、描画用バッファBF1の各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。 In the following step S3807, the initialization process of the drawing buffer BF1 is executed in the same manner as in step S3801. As a result, the 1-byte data corresponding to each RGB color is cleared to "0" in each unit area of the drawing buffer BF1, and the 1-byte data corresponding to the α value corresponds to complete transparency in each unit area. "0" is cleared.

その後、ステップS3808にて、第2図柄表示部の描画処理を実行する。当該描画処理では、ワールド座標系において第2図柄表示部CH17に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、図79(b−1)に示すように第2図柄表示部CH17を表示するための表示対象データが、最終的な第2図柄表示部CH17の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は、図79(b−2)に示すように不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3809にて、第3保存用バッファBF4への保存処理を実行する。この場合、ステップS3808の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第3保存用バッファBF4に保存される。 After that, in step S3808, the drawing process of the second symbol display unit is executed. In the drawing process, only the object data is projected onto the screen area PC 12 by masking the object data other than the object data corresponding to the second symbol display unit CH17 in the world coordinate system. Then, the drawing data after projection is written to the drawing buffer BF1. In this case, as shown in FIG. 79 (b-1), the display target data for displaying the second symbol display unit CH17 is the drawing buffer BF1 corresponding to the final display position of the second symbol display unit CH17. Written in the unit area. As shown in FIG. 79 (b-2), the α value of each unit area in which the display target data is drawn is set to the data corresponding to opacity, and the α value of each unit area in which the display target data is not drawn is set. It is maintained in the data corresponding to full transparency. After that, in step S3809, the storage process in the third storage buffer BF4 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the processing of step S3808 is stored as it is in the third storage buffer BF4.

続くステップS3810では、ステップS3801と同様に描画用バッファBF1の初期化処理を実行する。これにより、描画用バッファBF1の各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。 In the following step S3810, the initialization process of the drawing buffer BF1 is executed in the same manner as in step S3801. As a result, the 1-byte data corresponding to each RGB color is cleared to "0" in each unit area of the drawing buffer BF1, and the 1-byte data corresponding to the α value corresponds to complete transparency in each unit area. "0" is cleared.

その後、ステップS3811にて、第3図柄表示部の描画処理を実行する。当該描画処理では、ワールド座標系において第3図柄表示部CH18に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、図79(c−1)に示すように第3図柄表示部CH18を表示するための表示対象データが、最終的な第3図柄表示部CH18の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は、図79(c−2)に示すように不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3812にて、第4保存用バッファBF5への保存処理を実行する。この場合、ステップS3811の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第4保存用バッファBF5に保存される。 After that, in step S3811, the drawing process of the third symbol display unit is executed. In the drawing process, only the object data is projected onto the screen area PC 12 by masking the object data other than the object data corresponding to the third symbol display unit CH18 in the world coordinate system. Then, the drawing data after projection is written to the drawing buffer BF1. In this case, as shown in FIG. 79 (c-1), the display target data for displaying the third symbol display unit CH18 is the drawing buffer BF1 corresponding to the final display position of the third symbol display unit CH18. Written in the unit area. As shown in FIG. 79 (c-2), the α value of each unit area in which the display target data is drawn is set to the data corresponding to opacity, and the α value of each unit area in which the display target data is not drawn is set. It is maintained in the data corresponding to full transparency. After that, in step S3812, the storage process in the fourth storage buffer BF5 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the processing of step S3811 is stored as it is in the fourth storage buffer BF5.

続くステップS3813では、第1保存用バッファBF2に保存されている描画データをスクリーン用バッファ144における演出及び図柄用のバッファに書き込む。この場合、演出用キャラクタCH15を表示するための表示対象データが、最終的な演出用キャラクタCH15の表示位置に対応する演出及び図柄用のバッファの単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。 In the following step S3813, the drawing data stored in the first storage buffer BF2 is written in the effect and design buffer in the screen buffer 144. In this case, the display target data for displaying the effect character CH15 is written in the unit area of the effect and symbol buffer corresponding to the final display position of the effect character CH15. The α value of each unit area in which the display target data is drawn is set to the data corresponding to opacity, and the α value of each unit area in which the display target data is not drawn is maintained in the data corresponding to complete transparency.

その後、ステップS3814にて今回の描画リストに半透明指定情報が設定されているか判定をする。半透明指定情報が設定されている場合には、ステップS3815にて今回の描画リストから半透明値データを読み出す。 After that, in step S3814, it is determined whether or not the semi-transparent designation information is set in the drawing list this time. When the semi-transparent designation information is set, the semi-transparent value data is read from the current drawing list in step S3815.

ステップS3814にて否定判定をした場合又はステップS3815の処理を実行した場合、ステップS3816にて、第2〜第4保存用バッファBF3〜BF5に保存されている各描画データをスクリーン用バッファ144における演出及び図柄用のバッファに書き込む。この場合、各描画データのそれぞれに対応した図柄表示部CH16〜CH18を表示するための表示対象データが、最終的な各図柄表示部CH16〜CH18の各表示位置に対応する演出及び図柄用のバッファの単位エリアに書き込まれる。 When a negative determination is made in step S3814 or when the process of step S3815 is executed, in step S3816, each drawing data stored in the second to fourth storage buffers BF3 to BF5 is produced in the screen buffer 144. And write to the buffer for the design. In this case, the display target data for displaying the symbol display units CH16 to CH18 corresponding to each drawing data is a buffer for the effect and the symbol corresponding to each display position of each final symbol display unit CH16 to CH18. Written in the unit area of.

ここで、ステップS3815の処理が実行されていない場合には、書き込み対象の各描画データにおいて対応する表示対象データには不透明のα値が設定されているとともに、対応する表示対象データ以外には完全透明のα値が設定されている。したがって、既に書き込まれている演出用キャラクタCH15を表示するための表示対象データのうち各図柄表示部CH16〜CH18の表示対象データと重なる部分については各図柄表示部CH16〜CH18の表示対象データが演出用キャラクタCH15の表示対象データに対して上書きされ、各図柄表示部CH16〜CH18の表示対象データと重ならない部分については演出用キャラクタCH15を表示するための表示対象データがそのまま維持される。また、各図柄表示部CH16〜CH18の表示対象データにおいて演出用キャラクタCH15の表示対象データと重ならない部分については、各図柄表示部CH16〜CH18の表示対象データが不透明のα値が付加された状態で設定される。なお、演出及び図柄用のバッファの各単位エリアにおいて演出用キャラクタCH15の表示対象データ及び図柄表示部CH16〜CH18の表示対象データのいずれもが書き込まれない単位エリアは完全透過のα値が設定された状態となる。 Here, when the process of step S3815 is not executed, an opaque α value is set for the corresponding display target data in each drawing data to be written, and the data other than the corresponding display target data are completely set. A transparent α value is set. Therefore, among the display target data for displaying the already written effect character CH15, the display target data of the symbol display units CH16 to CH18 is produced for the portion that overlaps with the display target data of the symbol display units CH16 to CH18. The display target data for displaying the effect character CH15 is maintained as it is for the portion that is overwritten with the display target data of the character CH15 and does not overlap with the display target data of each symbol display unit CH16 to CH18. Further, in the display target data of the symbol display units CH16 to CH18, the display target data of the symbol display units CH16 to CH18 is added with an opaque α value for the portion that does not overlap with the display target data of the effect character CH15. Set in. In each unit area of the effect and symbol buffer, a completely transparent α value is set in the unit area where neither the display target data of the effect character CH15 nor the display target data of the symbol display units CH16 to CH18 is written. It becomes a state.

一方、ステップS3815の処理が実行されている場合には、書き込み対象の各描画データにおいて対応する表示対象データには半透明のα値(例えば「0.5」)が設定されているとともに、対応する表示対象データ以外には完全透明のα値が設定されている。したがって、既に書き込まれている演出用キャラクタCH15を表示するための表示対象データのうち各図柄表示部CH16〜CH18の表示対象データと重なる部分については前者の表示対象データと後者の表示対象データとで上記半透明のα値によるブレンド処理が実行される。例えば、所定の単位エリアにおける前者の表示対象データの色情報を「r10,g10,b10」とし、後者の表示対象データの色情報を「r20,g20,b20」とし、さらに半透明のα値を「α20」とした場合、
R:r10×(1−α20)+r20×α20
G:g10×(1−α20)+g20×α20
B:b10×(1−α20)+b20×α20
となる。
On the other hand, when the process of step S3815 is executed, a semi-transparent α value (for example, “0.5”) is set for the corresponding display target data in each drawing data to be written, and the corresponding display target data is set. A completely transparent α value is set in addition to the data to be displayed. Therefore, of the display target data for displaying the effect character CH15 that has already been written, the portion that overlaps with the display target data of each symbol display unit CH16 to CH18 is the former display target data and the latter display target data. The blending process using the translucent α value is executed. For example, the color information of the former display target data in a predetermined unit area is set to "r10, g10, b10", the color information of the latter display target data is set to "r20, g20, b20", and the translucent α value is set. When set to "α20"
R: r10 × (1-α20) + r20 × α20
G: g10 × (1-α20) + g20 × α20
B: b10 × (1-α20) + b20 × α20
Will be.

また、既に書き込まれている演出用キャラクタCH15を表示するための表示対象データのうち各図柄表示部CH16〜CH18の表示対象データと重ならない部分については演出用キャラクタCH15を表示するための表示対象データがそのまま維持される。また、各図柄表示部CH16〜CH18の表示対象データにおいて演出用キャラクタCH15の表示対象データと重ならない部分については、各図柄表示部CH16〜CH18の表示対象データが上記半透明のα値が付加された状態で設定される。なお、演出及び図柄用のバッファの各単位エリアにおいて演出用キャラクタCH15の表示対象データ及び図柄表示部CH16〜CH18の表示対象データのいずれもが書き込まれない単位エリアは完全透明のα値が設定された状態となる。 In addition, among the display target data for displaying the effect character CH15 that has already been written, the portion that does not overlap with the display target data of each symbol display unit CH16 to CH18 is the display target data for displaying the effect character CH15. Is maintained as it is. Further, the semi-transparent α value is added to the display target data of each symbol display unit CH16 to CH18 for the portion of the display target data of each symbol display unit CH16 to CH18 that does not overlap with the display target data of the effect character CH15. It is set in the state of. A completely transparent α value is set in the unit area in which neither the display target data of the effect character CH15 nor the display target data of the symbol display units CH16 to CH18 is written in each unit area of the effect and the symbol buffer. It becomes a state.

上記描画データ作成処理が実行されることにより、図80(a)〜図80(d)に示すように第1〜第4保存用バッファBF2〜BF5に保存された各描画データが合成されて図80(e)に示すように変動表示演出用の画像が表示されることとなる。この場合、図80(b)〜図80(d)に示すように不透明のα値が設定されたオブジェクトデータから各図柄表示部CH16〜CH18を表示するための表示対象データを作成し、その表示対象データに対して半透明のα値を設定して演出用キャラクタCH15の表示対象データへの重ね合わせを行う構成である。これにより、オブジェクトデータの本来表示すべきではない裏側の画像などがそのまま透過して見えてしまうといった事象の発生を防止しながら、半透明の状態で図柄表示部CH16〜CH18を表示することが可能となる。 By executing the drawing data creation process, the drawing data stored in the first to fourth storage buffers BF2 to BF5 are combined as shown in FIGS. 80 (a) to 80 (d). As shown in 80 (e), the image for the variable display effect is displayed. In this case, as shown in FIGS. 80 (b) to 80 (d), display target data for displaying each symbol display unit CH16 to CH18 is created from the object data in which the opaque α value is set, and the display thereof is displayed. A semi-transparent α value is set for the target data, and the effect character CH15 is superimposed on the display target data. As a result, it is possible to display the symbol display units CH16 to CH18 in a semi-transparent state while preventing the occurrence of an event that the image on the back side, which should not be displayed originally, appears as it is. It becomes.

演出用キャラクタCH15及び各図柄表示部CH16〜CH18の描画データを個別に作成するためのバッファとして描画用バッファBF1を兼用することにより、描画データの作成に際して作成先の描画用バッファBF1を変更する必要がないため、処理設計の容易化が図られる。 By using the drawing buffer BF1 as a buffer for individually creating the drawing data of the effect character CH15 and the symbol display units CH16 to CH18, it is necessary to change the drawing buffer BF1 of the creation destination when creating the drawing data. Since there is no such thing, the processing design can be facilitated.

演出用キャラクタCH15及び各図柄表示部CH16〜CH18の描画データを描画用バッファBF1に作成する前に、当該描画用バッファBF1の各単位エリアのα値を完全透明に対応する「0」とする構成であることにより、描画用バッファBF1への作成後の描画データにおいて演出用キャラクタCH15及び各図柄表示部CH16〜CH18を表示するための単位エリア以外の単位エリアについては後処理を要することなくα値を完全透明に対応する「0」とすることが可能となる。 Before creating the drawing data of the effect character CH15 and the symbol display units CH16 to CH18 in the drawing buffer BF1, the α value of each unit area of the drawing buffer BF1 is set to “0” corresponding to complete transparency. Therefore, in the drawing data created in the drawing buffer BF1, the α value of the unit area other than the effect character CH15 and the unit area for displaying each symbol display unit CH16 to CH18 does not require post-processing. Can be set to "0" corresponding to complete transparency.

<変動表示演出に係る構成の別形態>
・描画用バッファBF1に対する各図柄表示部CH16〜CH18の表示対象データの作成を個別に行い、それぞれに対応した表示対象データを異なる保存用バッファBF3〜BF5に保存する構成としたが、これに限定されることはなく、描画用バッファBF1に各図柄表示部CH16〜CH18の表示対象データをまとめて作成し、そのまとめて作成した表示対象データを一の保存用バッファに保存する構成としてもよい。これにより、描画用バッファの初期化処理、表示対象データの作成処理及び表示対象データの保存処理を実行する回数を少なくすることが可能となり、処理負荷を低減することが可能となる。
<Another form of configuration related to variable display effect>
-The display target data of each symbol display unit CH16 to CH18 is individually created for the drawing buffer BF1, and the display target data corresponding to each is stored in different storage buffers BF3 to BF5, but the configuration is limited to this. The display target data of each symbol display unit CH16 to CH18 may be collectively created in the drawing buffer BF1 and the collectively created display target data may be stored in one storage buffer. This makes it possible to reduce the number of times the drawing buffer initialization process, the display target data creation process, and the display target data storage process are executed, and the processing load can be reduced.

・第2保存用バッファBF3、第3保存用バッファBF4及び第4保存用バッファBF5のそれぞれに別保存した描画データに対して同一の半透明値データを設定する構成に限定されることはなく、設定する半透明値データを描画データ毎に異ならせてもよい。 -The configuration is not limited to the configuration in which the same translucent value data is set for the drawing data separately saved in each of the second storage buffer BF3, the third storage buffer BF4, and the fourth storage buffer BF5. The semi-transparent value data to be set may be different for each drawing data.

<歪み背景表示を行うための構成>
次に、歪み背景表示を行うための構成について説明する。図81(a)及び図81(b)は歪み背景表示の内容を説明するための説明図である。図82(a)〜図82(c)は歪み背景表示を行うための画像データを説明するための説明図である。
<Configuration for displaying a distorted background>
Next, a configuration for displaying a distorted background will be described. 81 (a) and 81 (b) are explanatory views for explaining the content of the distorted background display. 82 (a) to 82 (c) are explanatory views for explaining image data for displaying a distorted background.

歪み背景表示とは、図81(a−1)に示すように歪みが生じていないと遊技者に認識されるように表示されている背景画像BGGを、図81(a−2)に示すように歪みが生じていると遊技者に認識されるように表示することである。この場合、X軸、Y軸及びZ軸のうちの2軸(具体的にはX軸及びY軸)において歪みが生じていると遊技者に認識されるように、歪み背景表示が行われる。 The distorted background display is a background image BGG displayed so that the player can recognize that no distortion has occurred as shown in FIG. 81 (a-1). It is displayed so that the player can recognize that the image is distorted. In this case, the distortion background display is performed so that the player recognizes that the distortion occurs in two of the X-axis, the Y-axis, and the Z-axis (specifically, the X-axis and the Y-axis).

背景画像BGGは、図82(a)に示すようにメモリモジュール133に予め記憶された背景用板状オブジェクトデータGSDと背景用テクスチャデータGTD1とが利用される。背景用板状オブジェクトデータGSDは、肉厚のない平面状に構成され、人などのキャラクタを表示するための肉厚を有する通常オブジェクトに比べて単位表示面当たりのポリゴン数が少ないオブジェクトデータである。そして、ワールド座標系に設定された背景用板状オブジェクトデータGSDに対して背景用テクスチャデータGTD1が適用されて背景用の描画データが作成されることにより、背景画像BGGを表示することが可能となる。 As the background image BGG, as shown in FIG. 82A, the background plate-shaped object data GSD and the background texture data GTD1 stored in advance in the memory module 133 are used. The background plate-shaped object data GSD is object data that is configured in a flat shape with no wall thickness and has a smaller number of polygons per unit display surface than a normal object having a wall thickness for displaying a character such as a person. .. Then, the background image BGG can be displayed by applying the background texture data GTD1 to the background plate-shaped object data GSD set in the world coordinate system and creating the drawing data for the background. Become.

歪み背景表示は、背景用板状オブジェクトデータGSDをワールド座標系において図81(a−2)に示すように歪ませることで行われるのではなく、背景用テクスチャデータGTD1のデータを調整することで行われる。具体的には、背景用テクスチャデータGTD1が図81(b−1)に示すような色情報として設定されていると仮定した場合に、図81(b−2)に示すように所定の縦列の色情報の横幅が広くなるように色情報を調整することで、図81(a−2)に示すように歪みが生じていると遊技球に認識されるように背景画像BGGを表示する。このように3次元データである背景用板状オブジェクトデータGSDを歪ませるのではなく、2次元データである背景用テクスチャデータGTD1の色情報を調整することによって歪み背景表示を行う構成とすることにより、当該歪み背景表示を行う場合に調整すべきデータを2次元データに留めることが可能となり、処理負荷を低減することが可能となる。 The distorted background display is not performed by distorting the background plate-shaped object data GSD as shown in FIG. 81 (a-2) in the world coordinate system, but by adjusting the data of the background texture data GTD1. Will be done. Specifically, assuming that the background texture data GTD1 is set as the color information as shown in FIG. 81 (b-1), the predetermined columns are arranged as shown in FIG. 81 (b-2). By adjusting the color information so that the width of the color information becomes wider, the background image BGG is displayed so that the game ball recognizes that distortion has occurred as shown in FIG. 81 (a-2). Instead of distorting the background plate-shaped object data GSD, which is three-dimensional data, the distorted background is displayed by adjusting the color information of the background texture data GTD1 which is two-dimensional data. , The data to be adjusted when the distorted background display is performed can be limited to the two-dimensional data, and the processing load can be reduced.

歪み背景表示を行うための背景用テクスチャデータGTD1の色情報の調整態様は、当該背景用テクスチャデータGTD1とは別に設けられたテクスチャデータに設定されている。当該テクスチャデータとして、図82(a)に示すようにメモリモジュール133に第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3が予め記憶されている。 The adjustment mode of the color information of the background texture data GTD1 for displaying the distorted background is set to the texture data provided separately from the background texture data GTD1. As the texture data, as shown in FIG. 82A, the first refraction texture data GTD2 and the second refraction texture data GTD3 are stored in advance in the memory module 133.

これら第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3はピクセル数が、背景用テクスチャデータGTD1のピクセル数と同一であり、各屈折用テクスチャデータGTD2,GTD3の各ピクセルと背景用テクスチャデータGTD1の各ピクセルとは1対1で対応している。背景用テクスチャデータGTD1の各ピクセルには、図82(b)に示すようにRGB各色に1対1で対応する1バイトのエリアが設定されており、屈折用テクスチャデータGTD2,GTD3にも、図82(c)に示すようにRGB各色に1対1で対応する1バイトのエリアが設定されている。つまり、各ピクセルに設定されている内容は各テクスチャデータGTD1〜GTD3で個々に相違するものの、基本的なデータ構成は背景用テクスチャデータGTD1と各屈折用テクスチャデータGTD2,GTD3とで同一となっている。 The number of pixels of the first refraction texture data GTD2 and the second refraction texture data GTD3 is the same as the number of pixels of the background texture data GTD1, and each pixel of each refraction texture data GTD2 and GTD3 and the background texture data. There is a one-to-one correspondence with each pixel of GTD1. As shown in FIG. 82 (b), each pixel of the background texture data GTD1 is set with a 1-byte area corresponding to each RGB color on a one-to-one basis, and the refraction texture data GTD2 and GTD3 also have a figure As shown in 82 (c), a 1-byte area corresponding to each RGB color on a one-to-one basis is set. That is, although the content set for each pixel is individually different for each texture data GTD1 to GTD3, the basic data structure is the same for the background texture data GTD1 and the refraction texture data GTD2 and GTD3. There is.

各屈折用テクスチャデータGTD2,GTD3の各ピクセルに設定されているRGB各色に対応したデータ(以下、R値、G値、B値ともいう)は、色情報として利用されるのではなく、歪ませる度合の情報として利用される。具体的には、R値はX軸に歪ませる度合の情報として利用され、G値はY軸に歪ませる度合の情報として利用され、B値はZ軸に歪ませる度合の情報として利用される。但し、背景画像BGGの歪みをX軸、Y軸及びZ軸の全てに対して生じさせるのではなく、既に説明したとおりX軸及びY軸の2軸に対してのみ生じさせる。したがって、各屈折用テクスチャデータGTD2,GTD3の各ピクセルにおいてR値及びG値には歪み用のデータが設定されているが、B値は全ビットが「0」となるように一定のデータが設定されている。 Texture data for refraction Data corresponding to each RGB color set for each pixel of GTD2 and GTD3 (hereinafter, also referred to as R value, G value, and B value) is not used as color information but is distorted. It is used as information on the degree. Specifically, the R value is used as information on the degree of distortion on the X-axis, the G value is used as information on the degree of distortion on the Y-axis, and the B value is used as information on the degree of distortion on the Z-axis. .. However, the distortion of the background image BGG is not generated for all of the X-axis, the Y-axis, and the Z-axis, but is generated only for the two axes of the X-axis and the Y-axis as described above. Therefore, although distortion data is set for the R value and G value in each pixel of the refraction texture data GTD2 and GTD3, constant data is set for the B value so that all the bits are "0". Has been done.

第1屈折用テクスチャデータGTD2と第2屈折用テクスチャデータGTD3とは、背景用テクスチャデータGTD1の色情報の調整態様が相違するように各ピクセルのR値及びG値が設定されている。具体的には、第1屈折用テクスチャデータGTD2は、図81(a−2)に示すように背景画像BGGにおいて横方向の中央側が後方に凹むとともにその左右両側が前方に膨らんでいると遊技者に認識されるようにするための色情報の調整態様が設定されているのに対して、第2屈折用テクスチャデータGTD3は背景画像BGGにおいて横方向の中央側が前方に膨らむとともにその左右両側が後方に凹んでいると遊技者に認識されるようにするための色情報の調整態様が設定されている。当該構成であることにより、背景用テクスチャデータGTD1への適用対象の屈折用テクスチャデータとして第1屈折用テクスチャデータGTD2と第2屈折用テクスチャデータGTD3とを交互に切り換えることにより、背景画像BGGが一定のパターンで前後に波打っていると遊技者に認識させるような表示を行うことが可能となる。 The R value and G value of each pixel are set so that the first refraction texture data GTD2 and the second refraction texture data GTD3 differ in the adjustment mode of the color information of the background texture data GTD1. Specifically, as shown in FIG. 81 (a-2), the first refraction texture data GTD2 is such that the central side in the lateral direction is recessed rearward and both the left and right sides are bulged forward in the background image BGG. In the background image BGG, the center side in the horizontal direction bulges forward and the left and right sides of the second refraction texture data GTD3 bulge forward while the adjustment mode of the color information is set so that the color information can be recognized. The adjustment mode of the color information is set so that the player can recognize that the image is dented. With this configuration, the background image BGG is constant by alternately switching between the first refraction texture data GTD2 and the second refraction texture data GTD3 as the refraction texture data to be applied to the background texture data GTD1. It is possible to make a display that makes the player recognize that the pattern is wavy back and forth.

以下、歪み背景表示を行うための具体的な処理構成を説明する。図83は、表示CPU131にて実行される歪み背景表示用の演算処理を示すフローチャートである。歪み背景表示用の演算処理は、タスク処理(図42)におけるステップS2206の背景用演算処理にて実行される。当該歪み背景表示用の演算処理は、現状設定されている実行対象テーブルにおいて歪み背景表示についての情報が設定されている場合に起動される。 Hereinafter, a specific processing configuration for displaying the distorted background will be described. FIG. 83 is a flowchart showing an arithmetic process for displaying a distorted background executed by the display CPU 131. The arithmetic processing for displaying the distorted background is executed in the background arithmetic processing in step S2206 in the task processing (FIG. 42). The arithmetic processing for the distorted background display is started when the information about the distorted background display is set in the currently set execution target table.

歪み背景表示の開始タイミングである場合(ステップS3901:YES)、歪み背景表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3902)。当該画像データには、背景用板状オブジェクトデータGSD、背景用テクスチャデータGTD1、第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3が含まれる。その後、ステップS3903にて、歪み背景表示を開始すべきことをVDP135に認識させるための歪み背景表示の開始指定情報を表示CPU131のレジスタに記憶する。 When it is the start timing of the distorted background display (step S3901: YES), each address in the memory module 133 of the image data for performing the distorted background display is grasped (step S3902). The image data includes background plate-shaped object data GSD, background texture data GTD1, first refraction texture data GTD2, and second refraction texture data GTD3. After that, in step S3903, the start designation information of the distortion background display for causing the VDP 135 to recognize that the distortion background display should be started is stored in the register of the display CPU 131.

ステップS3901にて否定判定をした場合又はステップS3903の処理を実行した場合、ステップS3904及びステップS3905にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして背景用板状オブジェクトデータGSD及び背景用テクスチャデータGTD1を把握する。そして、これら背景用板状オブジェクトデータGSD及び背景用テクスチャデータGTD1について、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データGSD,GTD1に対応させて確保されたエリアに書き込む(ステップS3906)。この場合、背景用板状オブジェクトデータGSDのワールド座標系における形状データ(すなわち各ピクセル相互の相対的な位置)は歪み背景表示が行われる期間において一定とされる。 When a negative determination is made in step S3901 or the process of step S3903 is executed, a background plate-shaped object is used as the data to be used this time based on the execution target table currently set in step S3904 and step S3905. Grasp the data GSD and the background texture data GTD1. Then, the parameter information is calculated and derived for the background plate-shaped object data GSD and the background texture data GTD1, and the derived parameter information is obtained in the work RAM 132 in the area secured corresponding to the image data GSD and GTD1. (Step S3906). In this case, the shape data (that is, the relative positions of the pixels) in the world coordinate system of the background plate-shaped object data GSD is fixed during the period when the distorted background is displayed.

その後、ステップS3907にて、現状設定されている実行対象テーブルに基づき今回の更新タイミングが第1歪み表示期間であるか否かを判定する。第1歪み表示期間は屈折用テクスチャデータとして第1屈折用テクスチャデータGTD2を使用する期間であり、第2歪み表示期間は屈折用テクスチャデータとして第2屈折用テクスチャデータGTD3を使用する期間である。第1歪み表示期間である場合(ステップS3907:YES)、ステップS3908にて第1屈折用テクスチャデータGTD2を把握し、第2歪み表示期間である場合(ステップS3907:NO)、ステップS3909にて第2屈折用テクスチャデータGTD3を把握する。ステップS3908又はステップS3909の処理を実行した場合、ステップS3910にて、歪み背景表示の実行期間であることをVDP135に認識させるための歪み背景表示指定情報を表示CPU131のレジスタに記憶する。 After that, in step S3907, it is determined whether or not the current update timing is the first distortion display period based on the currently set execution target table. The first distortion display period is a period in which the first refraction texture data GTD2 is used as the refraction texture data, and the second distortion display period is a period in which the second refraction texture data GTD3 is used as the refraction texture data. In the case of the first distortion display period (step S3907: YES), the first refraction texture data GTD2 is grasped in step S3908, and in the case of the second distortion display period (step S3907: NO), the first in step S3909. 2 Grasp the texture data GTD3 for refraction. When the process of step S3908 or step S3909 is executed, in step S3910, the distortion background display designation information for causing the VDP 135 to recognize that it is the execution period of the distortion background display is stored in the register of the display CPU 131.

上記のように歪み背景表示用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、背景用板状オブジェクトデータGSD及び背景用テクスチャデータGTD1の使用指示の情報が設定されるとともに、第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3のうち今回の使用対象となっている側の使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには歪み背景表示指定情報が設定され、さらに歪み背景表示の開始タイミングにおいては歪み背景表示の開始指定情報が設定される。 When the arithmetic processing for displaying the distorted background is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output processing (step S609) includes the background plate-shaped object data GSD and the background texture data. The information of the usage instruction of GTD1 is set, and the information of the usage instruction of the side of the first refraction texture data GTD2 and the second refraction texture data GTD3 that is the target of this use is set. In addition, parameter information applied to each of these image data is set in the drawing list. Further, the distortion background display designation information is set in the drawing list, and the distortion background display start designation information is set at the start timing of the distortion background display.

次に、VDP135にて実行される歪み背景表示用の設定処理を、図84のフローチャートを参照しながら説明する。歪み背景表示用の設定処理は、描画処理(図44)のステップS2302にて実行される背景用の設定処理の一部の処理として実行される。また、描画リストにおいて歪み背景表示指定情報が設定されている場合に、歪み背景表示用の設定処理が実行される。 Next, the setting process for the distortion background display executed by the VDP 135 will be described with reference to the flowchart of FIG. 84. The setting process for displaying the distorted background is executed as a part of the setting process for the background executed in step S2302 of the drawing process (FIG. 44). Further, when the distorted background display designation information is set in the drawing list, the setting process for distorted background display is executed.

今回の描画リストに歪み背景表示の開始指定情報が設定されている場合(ステップS4001:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS4002)。当該画像データには、背景用板状オブジェクトデータGSD、背景用テクスチャデータGTD1、第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3が含まれる。 When the distortion background display start designation information is set in the drawing list this time (step S4001: YES), the memory module 133 is the display target of this time from the information of the address set in the drawing list. The address of the area where various image data is stored is grasped, and based on the grasped result, various image data are read out from the memory module 133 to the expansion buffer 141 of the VRAM 134 (step S4002). The image data includes background plate-shaped object data GSD, background texture data GTD1, first refraction texture data GTD2, and second refraction texture data GTD3.

ステップS4001にて否定判定をした場合、又はステップS4002の処理を実行した場合、ステップS4003及びステップS4004にて、今回の描画リストに基づき背景用板状オブジェクトデータGTD1及び背景用テクスチャデータGTD1を表示対象のデータとして把握する。また、ステップS4005にて、今回の描画リストに基づき今回の歪み表示期間に対応する屈折用テクスチャデータGTD2,GTD3を表示対象のデータとして把握する。その後、ステップS4006にて、上記各種画像データのパラメータ情報を把握する。 When a negative determination is made in step S4001, or when the process of step S4002 is executed, the background plate-shaped object data GTD1 and the background texture data GTD1 are displayed in steps S4003 and S4004 based on the current drawing list. Grasp as data of. Further, in step S4005, the refraction texture data GTD2 and GTD3 corresponding to the current distortion display period are grasped as the data to be displayed based on the current drawing list. After that, in step S4006, the parameter information of the various image data is grasped.

続くステップS4007では、今回の使用対象となっている屈折用テクスチャデータGTD2,GTD3を背景用テクスチャデータGTD1に適用するための屈折適用処理を実行する。 In the following step S4007, a refraction application process for applying the refraction texture data GTD2 and GTD3, which are the objects to be used this time, to the background texture data GTD1 is executed.

屈折適用処理では、図85のフローチャートに示すように、まず背景用テクスチャデータGTD1をVRAM134の展開用バッファ141に設けられた背景用別保存エリア141aに別保存する(ステップS4101)。これにより、展開用バッファGTD1に背景用テクスチャデータGTD1が既に読み出されている状況において当該背景用テクスチャデータGTD1と同一のデータが背景用別保存エリア141aに記憶保持されることとなる。なお、以下の説明では、メモリモジュール133からVRAM134の展開用バッファ141に読み出された背景用テクスチャデータGTD1を描画対象の背景用テクスチャデータGTD1といい、背景用別保存エリア141aに書き込まれた背景用テクスチャデータGTD1を別保存対象の背景用テクスチャデータGTD1という。その後、ステップS4102にて、VDP135のレジスタ153に設けられた適用カウンタに、背景用テクスチャデータGTD1の総ピクセル数と同一数をセットする。 In the refraction application process, as shown in the flowchart of FIG. 85, first, the background texture data GTD1 is separately stored in the background separate storage area 141a provided in the expansion buffer 141 of the VRAM 134 (step S4101). As a result, in a situation where the background texture data GTD1 has already been read into the expansion buffer GTD1, the same data as the background texture data GTD1 is stored and held in the background separate storage area 141a. In the following description, the background texture data GTD1 read from the memory module 133 into the expansion buffer 141 of the VRAM 134 is referred to as the background texture data GTD1 to be drawn, and the background written in the background storage area 141a. Texture data GTD1 is referred to as background texture data GTD1 to be separately saved. After that, in step S4102, the same number as the total number of pixels of the background texture data GTD1 is set in the application counter provided in the register 153 of the VDP135.

続くステップS4103では、今回の使用対象となっている屈折用テクスチャデータGTD2,GTD3において現状の適用カウンタに対応する一のピクセルからR値及びG値を抽出する。そして、ステップS4104にて、それら抽出したR値及びG値を利用した屈折用演算処理を実行する。 In the following step S4103, the R value and the G value are extracted from one pixel corresponding to the current application counter in the refraction texture data GTD2 and GTD3 used this time. Then, in step S4104, a refraction calculation process using the extracted R value and G value is executed.

屈折用演算処理では、背景用テクスチャデータGTD1において現状の適用カウンタの値に対応したピクセルを基準ピクセルとした場合に基準ピクセルから連続する何個分のピクセルをブレンド処理の実行対象とするかを決定付けるデータと、それらブレンド処理の実行対象となった各ピクセルを基準ピクセルからの距離との関係でどのような重み付けでブレンド処理を実行するかを決定付けるデータとを、ステップS4103にて抽出したR値及びG値を利用して所定の演算式から算出する。この場合、ブレンド処理の実行対象となるピクセルは、基準ピクセルに対して1軸上(具体的には図81(a)においてX軸)に並ぶピクセルに限られ、他の1軸上(具体的には図81(a)においてZ軸)に並ぶピクセルは含まれない。当該屈折用演算処理は、VDP135において専用回路として設けられた屈折用演算部154により行われる。また、既に説明したとおり、R値はX軸に歪ませる度合の情報として利用されるとともにG値はY軸に歪ませる度合の情報として利用され、R値及びG値のそれぞれは1バイトのデータ量となっているため、0〜255の値を取り得る。屈折用演算部154では、Y軸に歪ませる度合の情報に対応するG値に基づきブレンド処理の実行対象として含めるピクセルを特定するための対象ピクセルデータを導出し、X軸に歪ませる度合の情報に対応するR値に基づき基準ピクセルからの距離との関係でのブレンド処理の重み付けを特定するための重み付けデータを導出する。 In the refraction calculation process, when the pixel corresponding to the current application counter value in the background texture data GTD1 is set as the reference pixel, the number of consecutive pixels from the reference pixel is determined as the execution target of the blending process. The data to be added and the data for determining the weighting of each pixel to be blended to be executed in relation to the distance from the reference pixel are extracted in step S4103. It is calculated from a predetermined calculation formula using the value and the G value. In this case, the pixels to be executed for the blending process are limited to the pixels aligned on one axis (specifically, the X-axis in FIG. 81 (a)) with respect to the reference pixel, and are on the other one axis (specifically). Does not include pixels aligned with the Z axis in FIG. 81 (a). The refraction calculation process is performed by the refraction calculation unit 154 provided as a dedicated circuit in the VDP 135. Further, as already explained, the R value is used as information on the degree of distortion on the X-axis and the G value is used as information on the degree of distortion on the Y-axis, and each of the R value and the G value is 1-byte data. Since it is a quantity, it can take a value of 0 to 255. The refraction calculation unit 154 derives the target pixel data for specifying the pixels to be included as the execution target of the blending process based on the G value corresponding to the information on the degree of distortion on the Y-axis, and the information on the degree of distortion on the X-axis. Based on the R value corresponding to, the weighting data for specifying the weighting of the blending process in relation to the distance from the reference pixel is derived.

ステップS4104にて屈折用演算処理を実行した後は、ステップS4105にて、ステップS4104の屈折用演算処理の演算結果に対応したピクセルの色情報を、上記対象ピクセルデータを利用して、別保存対象の背景用テクスチャデータGTD1から抽出する。そして、それら各ピクセルの色情報に対して上記重み付けデータに対応する各ブレンド値を積算し、積算後の各値の和を算出する(ステップS4106)。この場合、当該ブレンド処理は、各ピクセルのRGB各色について個別に行われる。その後、ステップS4106にて算出したRGBの各値を、描画対象の背景用テクスチャデータGTD1において現状の適用カウンタの値に対応するピクセルに上書きする。これにより、現状の適用カウンタの値に対応する描画対象の背景用テクスチャデータGTD1のピクセルについて、使用対象の屈折用テクスチャデータGTD2,GTD3に対応する色情報の調整処理が実行される。 After the refraction calculation process is executed in step S4104, the pixel color information corresponding to the calculation result of the refraction calculation process in step S4104 is stored separately by using the target pixel data in step S4105. Is extracted from the background texture data GTD1. Then, the blend values corresponding to the weighted data are integrated with the color information of each of the pixels, and the sum of the integrated values is calculated (step S4106). In this case, the blending process is performed individually for each RGB color of each pixel. After that, each of the RGB values calculated in step S4106 is overwritten with the pixels corresponding to the values of the current application counter in the background texture data GTD1 to be drawn. As a result, the color information adjustment processing corresponding to the refraction texture data GTD2 and GTD3 to be used is executed for the pixels of the background texture data GTD1 to be drawn corresponding to the value of the current application counter.

その後、ステップS4108にてレジスタ153の適用カウンタの値を1減算し、その1減算後の適用カウンタの値が「0」となっているか否かを判定する(ステップS4109)。適用カウンタの値が1以上である場合(ステップS4109:NO)、その更新後の適用カウンタの値に対応したピクセルについてステップS4103〜ステップS4107の処理を実行する。 After that, in step S4108, the value of the application counter of the register 153 is subtracted by 1, and it is determined whether or not the value of the application counter after the subtraction of 1 is "0" (step S4109). When the value of the application counter is 1 or more (step S4109: NO), the processes of steps S4103 to S4107 are executed for the pixels corresponding to the updated value of the application counter.

歪み背景表示用の設定処理の説明に戻り、ステップS4007にて屈折適用処理を実行した後は、ステップS4008にて、ステップS4003〜ステップS4007の処理結果に対応した内容に従ってワールド座標系への設定処理を実行する。 Returning to the description of the setting process for the distortion background display, after executing the refraction application process in step S4007, in step S4008, the setting process for the world coordinate system according to the contents corresponding to the processing results of steps S4003 to S4007. To execute.

上記のように歪み背景表示用の設定処理が実行されることにより、ワールド座標系に背景用板状オブジェクトデータGSDが配置されるとともに、表示CPU131において演算により導出された各種パラメータ情報が当該背景用板状オブジェクトデータGSDに適用される。また、今回の使用対象となっている屈折用テクスチャデータGTD2,GTD3を利用して色情報の調整処理が実行された後の背景用テクスチャデータGTD1が、背景用板状オブジェクトデータGSDに適用される。これにより、表示面Pでは、X軸及びY軸に歪みが生じていると遊技者に認識されるように背景画像BGGが表示される。 By executing the setting process for distorted background display as described above, the background plate-shaped object data GSD is arranged in the world coordinate system, and various parameter information derived by calculation in the display CPU 131 is used for the background. It is applied to the plate-shaped object data GSD. Further, the background texture data GTD1 after the color information adjustment processing is executed using the refraction texture data GTD2 and GTD3, which are the objects to be used this time, is applied to the background plate-shaped object data GSD. .. As a result, the background image BGG is displayed on the display surface P so that the player can recognize that the X-axis and the Y-axis are distorted.

以上のように屈折を適用するためのデータがテクスチャデータとして設けられていることにより、テクスチャデータのデータ構成をそのまま利用して画像に対して屈折効果を生じさせることが可能となる。この場合、屈折を生じさせるための専用のデータ構成となったデータをメモリモジュール133に記憶させる必要がない点で、他のテクスチャデータを読み出す場合と同様の扱いで屈折を適用するためのデータをメモリモジュール133から読み出すことが可能となる。例えば、屈折を生じさせるための専用のデータ構成となっている場合には、展開用バッファ141にデータを展開するための処理内容がテクスチャデータとは異なるものとなるが、屈折を適用するためのデータがテクスチャデータとして設けられていることにより、当該展開するための処理内容を通常のテクスチャデータの場合と同一のものとすることが可能となる。よって、処理構成の簡素化が図られる。 Since the data for applying the refraction is provided as the texture data as described above, it is possible to generate the refraction effect on the image by using the data structure of the texture data as it is. In this case, it is not necessary to store the data having a dedicated data structure for causing refraction in the memory module 133, and the data for applying refraction is handled in the same manner as when reading other texture data. It can be read from the memory module 133. For example, when the data structure is dedicated to cause refraction, the processing content for expanding the data in the expansion buffer 141 is different from the texture data, but for applying refraction. Since the data is provided as texture data, it is possible to make the processing content for the development the same as in the case of normal texture data. Therefore, the processing configuration can be simplified.

テクスチャデータにはRGB各色に対応したデータが設定されている構成において、屈折用演算部154はそれら全てのデータを利用するのではなく一部のデータとしてR値及びG値のみを利用して背景用テクスチャデータGTD1の色情報の調整処理を実行する。これにより、RGBの各データを利用する構成に比べて処理を簡素化することが可能となり、背景用テクスチャデータGTD1の色情報の調整処理に要する時間を短縮化することが可能となる。 In a configuration in which data corresponding to each RGB color is set for the texture data, the refraction calculation unit 154 does not use all the data but uses only the R value and the G value as a part of the data for the background. Texture data GTD1 color information adjustment processing is executed. As a result, the processing can be simplified as compared with the configuration using each RGB data, and the time required for the color information adjustment processing of the background texture data GTD1 can be shortened.

3次元データである背景用板状オブジェクトデータGSDを歪ませるのではなく、2次元データである背景用テクスチャデータGTD1の色情報を調整することによって歪み背景表示を行う構成とすることにより、当該歪み背景表示を行う場合に調整すべきデータを2次元データに留めることが可能となり、処理負荷を低減することが可能となる。 Instead of distorting the background plate-shaped object data GSD, which is three-dimensional data, the distortion background is displayed by adjusting the color information of the background texture data GTD1 which is two-dimensional data. It is possible to limit the data to be adjusted when displaying the background to two-dimensional data, and it is possible to reduce the processing load.

<歪み背景表示に係る構成の別形態>
・屈折用テクスチャデータGTD2,GTD3を利用して背景用テクスチャデータGTD1の色情報を調整する構成に代えて、屈折用テクスチャデータGTD2,GTD3を利用して背景用板状オブジェクトデータGSDの各ピクセルの座標データを調整することにより当該背景用板状オブジェクトデータGSDを歪ませ、その結果として歪み背景表示を行う構成としてもよい。
<Another form of configuration related to distorted background display>
-Instead of adjusting the color information of the background texture data GTD1 by using the refraction texture data GTD2 and GTD3, the background plate-shaped object data GSD pixels are used by the refraction texture data GTD2 and GTD3. The background plate-shaped object data GSD may be distorted by adjusting the coordinate data, and as a result, the distorted background may be displayed.

・背景用テクスチャデータGTD1に対して屈折用テクスチャデータGTD2,GTD3が常に適用される構成に代えて、屈折用テクスチャデータGTD2,GTD3を適用することなく背景用テクスチャデータGTD1がそのまま描画対象となる期間が歪み背景表示期間よりも前又は後に設定されている構成としてもよい。この場合、背景画像BGGが歪んでいることを遊技者に認識させ易くなる。 -A period during which the background texture data GTD1 is drawn as it is without applying the refraction texture data GTD2 and GTD3 instead of the configuration in which the refraction texture data GTD2 and GTD3 are always applied to the background texture data GTD1. May be set before or after the distortion background display period. In this case, it becomes easy for the player to recognize that the background image BGG is distorted.

・テクスチャデータのR値、G値及びB値のうち2個の値を利用して画像を屈折させるためのパラメータ情報を導出する構成に代えて、1個の値又は全ての値を利用して当該パラメータ情報を導出する構成としてもよい。 -Instead of the configuration in which the parameter information for refracting the image is derived by using two values of the R value, G value and B value of the texture data, one value or all the values are used. The configuration may be such that the parameter information is derived.

・テクスチャデータを利用して画像を屈折するためのパラメータ情報を導出する構成に代えて、テクスチャデータを利用して画像の透明値といった他のパラメータ情報を導出する構成としてもよい。 -Instead of the configuration in which the parameter information for refracting the image is derived using the texture data, another parameter information such as the transparency value of the image may be derived using the texture data.

<他の実施形態>
なお、上述した実施形態の記載内容に限定されず、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能である。例えば以下のように変更してもよい。ちなみに、以下の別形態の構成を、上記実施形態の構成に対して、個別に適用してもよく、組合せて適用してもよい。
<Other embodiments>
It should be noted that the description is not limited to the above-described embodiment, and various modifications and improvements can be made without departing from the spirit of the present invention. For example, it may be changed as follows. By the way, the following configurations of another embodiment may be applied individually or in combination to the configurations of the above embodiments.

(1)音光側MPU62が表示CPU72に演出の実行指示をする場合、第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなるコマンドによって第2段階の演出内容を指示する構成としたが、第2段階の演出の実行有無が指示される構成としてもよく、演出内容が指示される場合と第2段階の演出の実行有無が指示される場合とが存在している構成としてもよい。 (1) When the sound-light side MPU 62 instructs the display CPU 72 to execute the effect, the operation content of the second stage is instructed by a command consisting of the first command data CD1, the second command data CD2, and the third command data CD3. However, there may be a configuration in which the presence / absence of execution of the second stage effect is instructed, and there is a case where the effect content is instructed and a case in which the presence / absence of execution of the second stage effect is instructed. May be good.

(2)第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる一のコマンドが、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応させて送信される構成に代えて、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応するコマンドデータを含む一のコマンドが送信される構成としてもよい。具体的には、第1段階の演出内容に対応した一のコマンドデータと、各第2段階の内容のそれぞれに対応した各コマンドデータとを含むコマンドが送信される構成としてもよい。この場合であっても、各第2段階の内容のそれぞれがバイト単位で区別されていることが好ましい。 (2) One command consisting of the first command data CD1, the second command data CD2, and the third command data CD3 is transmitted corresponding to each of the contents of a plurality of types of the second stage included in the one production. Instead of the configuration, one command including the command data corresponding to each of the contents of the second stage of a plurality of types included in the one effect may be transmitted. Specifically, a command including one command data corresponding to the effect content of the first stage and each command data corresponding to the content of each second stage may be transmitted. Even in this case, it is preferable that the contents of each second stage are distinguished in byte units.

(3)第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる一のコマンドが、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応させて送信される構成において、終了コマンドが送信されるまでに送信された各コマンドの第1コマンドデータCD1が一致しない場合には表示CPU72から音光側MPU62にコマンドの再送信が要求され、当該再要求があった場合には音光側MPU62から表示CPU72に同一のコマンドが再度送信される構成としてもよい。これにより、電気的なノイズによりコマンドが書き換えられてしまった場合であってもコマンドを再送信することで、演出や報知の実行を正確に行うことが可能となる。 (3) One command consisting of the first command data CD1, the second command data CD2, and the third command data CD3 is transmitted corresponding to each of the contents of the second stage of a plurality of types included in the one effect. In the configuration, if the first command data CD1 of each command transmitted before the end command is transmitted does not match, the display CPU 72 requests the sound and light side MPU 62 to retransmit the command, and the re-request is made. In this case, the same command may be transmitted again from the sound / light side MPU 62 to the display CPU 72. As a result, even if the command is rewritten due to electrical noise, the command can be retransmitted to accurately execute the effect and the notification.

(4)第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる一のコマンドが、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応させて送信される構成において、一の演出に対応した複数種類のコマンドが送信される前に開始コマンドが送信される構成としてもよい。これにより、一の演出に対応したコマンドが送信されている状況であるか否かを表示CPU72において明確に把握することが可能となる。 (4) One command consisting of the first command data CD1, the second command data CD2, and the third command data CD3 is transmitted corresponding to each of the contents of a plurality of types of the second stage included in the one effect. In the configuration, the start command may be transmitted before a plurality of types of commands corresponding to one effect are transmitted. This makes it possible for the display CPU 72 to clearly grasp whether or not a command corresponding to one effect is being transmitted.

(5)タスク処理(図19)に含まれるステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理の実行途中であっても、V割込み処理(図15)の新たな処理回が開始され得る構成としてもよい。この場合、V割込み処理の次回の処理回において中断された演算処理の途中からタスク処理が再開される構成としてもよく、中断された演算処理の最初からタスク処理が再開される構成としてもよい。かかる構成によれば、V割込み処理の新たな処理回を早期に開始することが可能となる。 (5) V interrupt processing (FIG. 15) even during execution of the background arithmetic processing of step S906, the effect arithmetic processing of step S909, and the symbol arithmetic processing of step S912 included in the task processing (FIG. 19). It may be configured so that a new processing time of can be started. In this case, the task processing may be restarted from the middle of the interrupted arithmetic processing in the next processing round of the V interrupt processing, or the task processing may be restarted from the beginning of the interrupted arithmetic processing. According to such a configuration, it is possible to start a new processing time of V interrupt processing at an early stage.

(6)表示CPU72において報知用の実行対象テーブルが実行対象として読み出されている場合には、タスク処理(図19)の実行途中でV割込み処理(図15)の新たな処理回が開始されたとしても、次回のタスク処理の実行回では中断した途中から処理を再開するのではなく、実行対象テーブルにおける新たなポインタ情報に対応した情報を利用してタスク処理を実行する構成としてもよい。これにより、報知の内容の進行を優先することが可能となる。 (6) When the execution target table for notification is read as the execution target in the display CPU 72, a new processing cycle of the V interrupt processing (FIG. 15) is started during the execution of the task processing (FIG. 19). Even if this is the case, the task processing may be executed by using the information corresponding to the new pointer information in the execution target table instead of restarting the processing from the middle of the interruption in the next execution time of the task processing. This makes it possible to prioritize the progress of the content of the notification.

(7)タスク処理(図19)の実行途中でV割込み処理(図15)の新たな処理回が開始されるとともに次回のタスク処理の実行回において中断した途中から処理が再開される場合には、表示CPU72から音光側MPU62に遅延コマンドが送信されることで、音光側MPU62において制御パターンテーブルのポインタ情報の調整が行われる構成としたが、当該調整が行われない構成としてもよい。 (7) When a new processing round of V interrupt processing (FIG. 15) is started during the execution of the task processing (FIG. 19) and the processing is restarted from the middle of the interruption in the next execution round of the task processing. By transmitting a delay command from the display CPU 72 to the sound light side MPU 62, the pointer information of the control pattern table is adjusted in the sound light side MPU 62, but the adjustment may not be performed.

(8)上記第2の実施形態では、カメラ(視点)がワールド座標系に配置される画像データ毎に個別に設定される構成としたが、これに代えて、ワールド座標系に配置される全画像データに対して単一のカメラが共通して設定される構成としてもよい。 (8) In the second embodiment, the camera (viewpoint) is set individually for each image data arranged in the world coordinate system, but instead of this, all the cameras (viewpoints) are arranged in the world coordinate system. A single camera may be set in common for the image data.

(9)上記第2の実施形態では、ワールド座標系に配置された画像データは、背景画像、演出画像及び図柄画像の単位で投影される構成としたが、背景画像及び演出画像の単位でまとめて投影される構成としてもよく、演出画像及び図柄画像の単位でまとめて投影される構成としてもよく、全てがまとめて投影される構成としてもよい。 (9) In the second embodiment, the image data arranged in the world coordinate system is projected in units of a background image, an effect image, and a pattern image, but is summarized in units of a background image and an effect image. It may be a configuration in which the images are projected together, a configuration in which the effect image and a pattern image are projected together, or a configuration in which all of them are projected together.

(10)上記第2の実施形態において、色情報の設定処理(ステップS2309)を行う場合に、投影される面のみにテクスチャの貼り付けといった色情報の設定を行う構成としてもよい。この場合、レンダリングの処理負荷を低減させることができる。また、これに代えて、投影前にテクスチャマッピングといった色情報の設定を行うのではなく、投影後にテクスチャマッピングといった色情報の設定を行う構成としてもよい。この場合、投影に際して、投影平面を構成する各ピクセルの座標情報を記憶しておくようにして、その座標情報を元にテクスチャマッピングといった色情報の設定を行うようにすればよい。 (10) In the second embodiment, when the color information setting process (step S2309) is performed, the color information may be set such that the texture is pasted only on the projected surface. In this case, the rendering processing load can be reduced. Further, instead of setting the color information such as texture mapping before projection, the configuration may be such that the color information such as texture mapping is set after projection. In this case, at the time of projection, the coordinate information of each pixel constituting the projection plane may be stored, and the color information such as texture mapping may be set based on the coordinate information.

(11)主制御装置50から送信されるコマンドに基づいて、音声発光制御装置60により表示制御装置90が制御される構成に代えて、主制御装置50から送信されるコマンドに基づいて、表示制御装置90が音声発光制御装置60を制御する構成としてもよい。また、音声発光制御装置60と表示制御装置90とが別々に設けられた構成に代えて、両制御装置が一の制御装置として設けられた構成としてもよく、それら両制御装置のうち一方の機能が主制御装置50に集約されていてもよく、それら両制御装置の両機能が主制御装置50に集約されていてもよい。また、主制御装置50から音声発光制御装置60に送信されるコマンドの構成や、音声発光制御装置60から表示制御装置90に送信されるコマンドの構成も任意である。 (11) Display control based on the command transmitted from the main control device 50 instead of the configuration in which the display control device 90 is controlled by the voice emission control device 60 based on the command transmitted from the main control device 50. The device 90 may be configured to control the voice emission control device 60. Further, instead of the configuration in which the voice emission control device 60 and the display control device 90 are separately provided, a configuration in which both control devices are provided as one control device may be used, and the function of one of the two control devices may be provided. May be integrated in the main control device 50, and both functions of both control devices may be integrated in the main control device 50. Further, the configuration of the command transmitted from the main control device 50 to the voice emission control device 60 and the configuration of the command transmitted from the voice emission control device 60 to the display control device 90 are also arbitrary.

(12)上記各実施形態とは異なる他のタイプのパチンコ機等、例えば特別装置の特定領域に遊技球が入ると電動役物が所定回数開放するパチンコ機や、特別装置の特定領域に遊技球が入ると権利が発生して大当たりとなるパチンコ機、他の役物を備えたパチンコ機、アレンジボール機、雀球等の遊技機にも、本発明を適用できる。 (12) Other types of pachinko machines different from the above embodiments, for example, pachinko machines in which the electric accessory opens a predetermined number of times when the game ball enters a specific area of the special device, or a game ball in a specific area of the special device. The present invention can also be applied to a pachinko machine, which is a big hit when a right is entered, a pachinko machine equipped with other accessories, an arrange ball machine, a game machine such as a sparrow ball, and the like.

また、弾球式でない遊技機、例えば、複数種の図柄が周方向に付された複数のリールを備え、メダルの投入及びスタートレバーの操作によりリールの回転を開始し、ストップスイッチが操作されるか所定時間が経過することでリールが停止した後に、表示窓から視認できる有効ライン上に特定図柄又は特定図柄の組合せが成立していた場合にはメダルの払い出し等といった特典を遊技者に付与するスロットマシンにも本発明を適用できる。 In addition, a non-bullet type gaming machine, for example, a plurality of reels having a plurality of types of symbols attached in the circumferential direction is provided, the reels are started to rotate by inserting medals and operating the start lever, and the stop switch is operated. After the reels have stopped after a predetermined time has passed, if a specific symbol or a combination of specific symbols is established on the effective line that can be seen from the display window, a privilege such as a medal payout is given to the player. The present invention can also be applied to slot machines.

また、外枠に開閉可能に支持された遊技機本体に貯留部及び取込装置を備え、貯留部に貯留されている所定数の遊技球が取込装置により取り込まれた後にスタートレバーが操作されることによりリールの回転を開始する、パチンコ機とスロットマシンとが融合された遊技機にも、本発明を適用できる。 In addition, the game machine body supported by the outer frame so as to be openable and closable is provided with a storage unit and a take-in device, and the start lever is operated after a predetermined number of game balls stored in the storage unit are taken in by the take-in device. The present invention can also be applied to a gaming machine in which a pachinko machine and a slot machine are fused, which starts the rotation of the reel.

<上記各実施形態から抽出される発明群について>
以下、上述した各実施形態から抽出される発明群の特徴について、必要に応じて効果等を示しつつ説明する。なお以下においては、理解の容易のため、上記各実施形態において対応する構成を括弧書き等で適宜示すが、この括弧書き等で示した具体的構成に限定されるものではない。
<About the invention group extracted from each of the above embodiments>
Hereinafter, the characteristics of the invention group extracted from each of the above-described embodiments will be described while showing the effects and the like as necessary. In the following, for the sake of easy understanding, the corresponding configurations in each of the above embodiments are appropriately shown in parentheses or the like, but the present invention is not limited to the specific configurations shown in the parentheses or the like.

<特徴A群>
特徴A1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、前記生成データを生成するために用いられる制御情報(座標データ)を導出する情報導出手段(表示CPU131におけるステップS2807〜ステップS2815の処理を実行する機能)を備え、
当該情報導出手段は、
導出用記憶手段(座標演算用エリア169)を導出前状態に設定する導出前設定手段(表示CPU131におけるステップS2808及びステップS2809の処理を実行する機能)と、
前記導出前状態に設定された前記導出用記憶手段を利用して前記制御情報を導出する導出実行手段(表示CPU131におけるステップS2810の処理を実行する機能)と、を備え、
前記導出前設定手段による前記導出前状態への設定は、一の画像の更新タイミングにおける前記生成データを生成するために複数回実行され得る構成であり、
前記導出実行手段は、前記導出前設定手段により前記導出前状態の設定が行われた後であって当該導出前状態の設定が新たに行われる前に、複数種類の個別画像(集合単位キャラクタCHG1〜CHG5)に対応した前記制御情報を導出する複数対応導出手段(集合用骨格データFRD2についての座標データを導出する場合における表示CPU131のステップS2810の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature A group>
Features A1. A display means (design display device 41) having a display unit (display surface P) and
Display control means (VDP135) for displaying an image on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152).
With
The data generation means includes information derivation means (a function of executing the processes of steps S2807 to S2815 in the display CPU 131) for deriving the control information (coordinate data) used to generate the generated data.
The information derivation means is
Pre-derivation setting means (function of executing the processes of steps S2808 and S2809 in the display CPU 131) for setting the derivation storage means (coordinate calculation area 169) to the pre-derivation state, and
It is provided with a derivation execution means (a function of executing the process of step S2810 in the display CPU 131) for deriving the control information by using the derivation storage means set in the pre-derivation state.
The setting to the pre-derivation state by the pre-derivation setting means is a configuration that can be executed a plurality of times to generate the generated data at the update timing of one image.
The derivation execution means includes a plurality of types of individual images (aggregate unit character CHG1) after the pre-derivation state is set by the pre-derivation setting means and before the pre-derivation state is newly set. It is characterized by having a plurality of corresponding derivation means (a function of executing the process of step S2810 of the display CPU 131 when deriving the coordinate data for the aggregate skeleton data FRD2) for deriving the control information corresponding to (CHG5). A game machine to be.

特徴A1によれば、制御情報を利用して画像表示用の生成データを生成することにより、制御情報を変化させることで生成データの内容を変化させることが可能となり、画像の表示態様を多様化することが可能となる。また、制御情報を導出する場合には導出用記憶手段を利用するとともに導出用記憶手段を導出前状態に設定した後に制御情報の導出を開始することにより、制御情報の導出を好適に行うことが可能となる。 According to the feature A1, by generating the generated data for image display using the control information, it is possible to change the content of the generated data by changing the control information, and the display mode of the image is diversified. It becomes possible to do. Further, when the control information is derived, the control information can be preferably derived by using the derivation storage means and starting the derivation of the control information after setting the derivation storage means in the pre-derivation state. It will be possible.

この場合に、導出用記憶手段に対して導出前状態の設定が行われた後であって当該導出前状態の設定が新たに行われる前に、複数種類の個別画像に対応した制御情報が導出される。これにより、一の個別画像毎に導出前状態の設定が行われる構成に比べて、制御情報を導出するための処理負荷を低減することが可能となる。よって、表示制御を好適に行うことが可能となる。 In this case, control information corresponding to a plurality of types of individual images is derived after the pre-derivation state is set for the derivation storage means and before the pre-derivation state is newly set. Will be done. As a result, it is possible to reduce the processing load for deriving the control information as compared with the configuration in which the state before derivation is set for each individual image. Therefore, it is possible to preferably perform display control.

特徴A2.前記導出前設定手段は、前記導出用記憶手段を初期化した後に前記制御情報の導出対象となる個別画像についての導出前情報をその初期化後の導出用記憶手段に設定することで、当該導出用記憶手段を前記導出前状態に設定することを特徴とする特徴A1に記載の遊技機。 Feature A2. After initializing the derivation storage means, the derivation setting means sets the derivation information about the individual image to be derived of the control information in the derivation storage means after the initialization, thereby deriving the control information. The gaming machine according to feature A1, wherein the storage means is set to the state before derivation.

特徴A2によれば、制御情報が導出される場合、導出用記憶手段の初期化と導出前情報の設定とが行われることにより、制御情報の導出を適切に行うことが可能となる。この場合に、導出前状態の設定が行われた後であって導出前状態の設定が新たに行われる前に、複数種類の個別画像に対して制御情報が導出されるため、導出用記憶手段の初期化及び導出前情報の設定回数を少なくすることが可能となり、制御情報を導出するための処理負荷を低減することが可能となる。 According to the feature A2, when the control information is derived, the control information can be appropriately derived by initializing the derivation storage means and setting the pre-derivation information. In this case, since the control information is derived for a plurality of types of individual images after the setting of the pre-derivating state is performed and before the setting of the pre-deriving state is newly performed, the derivation storage means. It is possible to reduce the number of times of initialization and setting of pre-derivation information, and it is possible to reduce the processing load for deriving control information.

特徴A3.前記データ生成手段は、前記複数対応導出手段により前記制御情報がまとめて導出される対象となる前記複数種類の個別画像を表示するために、一の画像データ(集合用骨格データFRD2)を利用することを特徴とする特徴A1又はA2に記載の遊技機。 Feature A3. The data generation means uses one image data (aggregate skeleton data FRD2) in order to display the plurality of types of individual images to which the control information is collectively derived by the plurality of correspondence derivation means. The gaming machine according to the feature A1 or A2.

特徴A3によれば、一の画像データによって複数種類の個別画像を表示する構成であることにより、まとめて導出した制御情報を複数の画像データに適用するのではなくその一の画像データに適用すればよい。したがって、制御情報の適用対象となる画像データを特定するための処理を簡素化することが可能となる。 According to the feature A3, since the configuration is such that a plurality of types of individual images are displayed by one image data, the control information derived collectively is applied to the one image data instead of being applied to the plurality of image data. Just do it. Therefore, it is possible to simplify the process for specifying the image data to which the control information is applied.

特徴A4.前記データ生成手段は、個別画像が動作する画像を表示するための生成データを作成する場合に、当該個別画像に対応させて設定されたデータであって動きの基準となる基準データ(骨格データFRD1、集合用骨格データFRD2)と、当該基準データに応じて変形する変形データ(皮膚データSKD1、集合用皮膚データSKD2)と、当該変形データに適用する色情報が定められた色データ(テクスチャデータBTD1、集合用テクスチャデータBTD2)とを用いることが可能な構成であり、
前記複数対応導出手段により前記制御情報がまとめて導出される対象となる前記複数種類の個別画像のそれぞれは、前記基準データ、前記変形データ及び前記色データを利用することで表示可能となる画像であり、
前記制御情報により、前記複数種類の個別画像の動作態様が変化するようにそれら複数種類の個別画像に対応した前記基準データの内容が変更されることを特徴とする特徴A1乃至A3のいずれか1に記載の遊技機。
Feature A4. When the data generation means creates the generated data for displaying the image in which the individual image operates, the data is set in correspondence with the individual image and is the reference data (skeleton data FRD1) which is the reference of the movement. , Aggregation skeleton data FRD2), deformation data deformed according to the reference data (skin data SKD1, aggregate skin data SKD2), and color data (texture data BTD1) in which color information applied to the transformation data is defined. , Texture data for aggregation BTD2) can be used.
Each of the plurality of types of individual images to which the control information is collectively derived by the plurality of correspondence derivation means is an image that can be displayed by using the reference data, the deformation data, and the color data. Yes,
Any one of features A1 to A3, characterized in that the content of the reference data corresponding to the plurality of types of individual images is changed by the control information so that the operation mode of the plurality of types of individual images is changed. The game machine described in.

特徴A4によれば、基準データ、変形データ及び色データを利用して複数種類の個別画像の動画表示が行われる構成であるため、複数種類の個別画像の動画表示をリアルに表現することが可能となる。この場合に、基準データの内容を変更するための制御情報が複数種類の個別画像についてまとめて導出されるため、基準データ、変形データ及び色データを利用する構成であったとしても処理負荷が極端に高くなってしまうことを防止することが可能となる。 According to the feature A4, since the video display of a plurality of types of individual images is performed using the reference data, the deformation data, and the color data, it is possible to realistically represent the video display of the plurality of types of individual images. It becomes. In this case, since the control information for changing the content of the reference data is collectively derived for a plurality of types of individual images, the processing load is extremely heavy even if the configuration uses the reference data, the deformation data, and the color data. It is possible to prevent it from becoming too high.

特徴A5.前記データ生成手段は、特定の個別画像(ボーン表示用キャラクタCH10)が動作する画像を表示するための生成データを作成する場合、前記基準データ、前記変形データ及び前記色データを利用する構成であり、
前記複数種類の個別画像を表示するための前記基準データの合計のデータ容量が、前記特定の個別画像を表示するための前記基準データの合計のデータ容量以下であることを特徴とする特徴A4に記載の遊技機。
Feature A5. The data generation means is configured to use the reference data, the deformation data, and the color data when creating generation data for displaying an image in which a specific individual image (bone display character CH10) operates. ,
The feature A4 is characterized in that the total data capacity of the reference data for displaying the plurality of types of individual images is equal to or less than the total data capacity of the reference data for displaying the specific individual image. The game machine described.

特徴A5によれば、基準データ、変形データ及び色データを利用して複数種類の個別画像を同時に表示する場合であっても、それら複数種類の個別画像を表示するための基準データの合計のデータ容量が特定の個別画像を表示するための基準データの合計のデータ容量以下となっているため、制御情報の導出及びその導出した制御情報の適用に関して対象となるデータ量を抑えることが可能となり処理負荷を低減することが可能となる。 According to the feature A5, even when a plurality of types of individual images are displayed at the same time using the reference data, the deformation data, and the color data, the total data of the reference data for displaying the plurality of types of individual images. Since the capacity is less than or equal to the total data capacity of the reference data for displaying a specific individual image, it is possible to suppress the amount of data that is the target for the derivation of control information and the application of the derived control information. It is possible to reduce the load.

特徴A6.前記基準データは、複数の単位基準データ(ボーンデータBOD1〜BOD50,ABD1〜ABD50)を有し、それら複数の単位基準データの相対的な位置関係が変更されることにより当該基準データに対応する個別画像の動作態様が変更される構成であり、
前記複数の単位基準データは、メイン単位基準データの位置データが変更された場合にサブ単位基準データの位置データがそれに追従して変更されるようにデータ関係が設定されており、
前記複数種類の個別画像のうちサブ個別画像に対応する単位基準データは、メイン個別画像に対応する単位基準データに対してサブ単位基準データの関係に設定されていることを特徴とする特徴A4又はA5に記載の遊技機。
Feature A6. The reference data has a plurality of unit reference data (bone data BOD1 to BOD50, ABD1 to ABD50), and individual corresponding to the reference data by changing the relative positional relationship of the plurality of unit reference data. It is a configuration in which the operation mode of the image is changed.
The data relations of the plurality of unit reference data are set so that when the position data of the main unit reference data is changed, the position data of the sub unit reference data is changed accordingly.
Among the plurality of types of individual images, the unit reference data corresponding to the sub individual image is set in the relationship of the sub unit reference data with respect to the unit reference data corresponding to the main individual image. The gaming machine described in A5.

特徴A6によれば、メイン単位基準データの位置データが変更された場合にはサブ単位基準データの位置データが変更されるため、一の基準データによって一の個別画像の動作態様が決定される構成においてはその個別画像の動作態様をよりリアルに表現することが可能となる。この場合に、複数種類の個別画像のうちサブ個別画像に対応する単位基準データは、メイン個別画像に対応する単位基準データに対してサブ単位基準データの関係に設定されている。これにより、メイン個別画像とサブ個別画像とをまとめて移動させる場合には、基準データにおけるメイン単位基準データとサブ単位基準データとのデータ関係を利用することで、メイン単位基準データについての位置データを変更するように制御情報を調整するだけで足りる。 According to the feature A6, when the position data of the main unit reference data is changed, the position data of the sub unit reference data is changed, so that the operation mode of one individual image is determined by one reference data. In, it is possible to express the operation mode of the individual image more realistically. In this case, the unit reference data corresponding to the sub individual image among the plurality of types of individual images is set in the relationship of the sub unit reference data with respect to the unit reference data corresponding to the main individual image. As a result, when moving the main individual image and the sub individual image together, the position data of the main unit reference data can be used by using the data relationship between the main unit reference data and the sub unit reference data in the reference data. It suffices to adjust the control information to change.

特徴A7.前記メイン単位基準データの位置データに影響を与えることなく、前記サブ単位基準データの位置データを変更することが可能であることを特徴とする特徴A6に記載の遊技機。 Feature A7. The gaming machine according to feature A6, wherein the position data of the sub unit reference data can be changed without affecting the position data of the main unit reference data.

特徴A7によれば、メイン個別画像とサブ個別画像とでメイン単位基準データとサブ単位基準データとのデータ関係が設定されている構成であっても、メイン個別画像とは無関係にサブ個別画像を動作させることが可能となる。 According to the feature A7, even if the data relationship between the main unit reference data and the sub unit reference data is set in the main individual image and the sub individual image, the sub individual image is displayed regardless of the main individual image. It becomes possible to operate.

特徴A8.前記メイン個別画像に対応する単位基準データと、前記サブ個別画像に対応する単位基準データとは1対1で対応しており、それぞれ対応する単位基準データ間においてメイン個別画像の単位基準データがメイン単位基準データとなりサブ個別画像の単位基準データがサブ単位基準データとなるようにデータ関係が設定されていることを特徴とする特徴A6又はA7に記載の遊技機。 Feature A8. There is a one-to-one correspondence between the unit reference data corresponding to the main individual image and the unit reference data corresponding to the sub individual image, and the unit reference data of the main individual image is the main between the corresponding unit reference data. The gaming machine according to feature A6 or A7, wherein the data relationship is set so that the unit reference data of the sub-individual image becomes the unit reference data and becomes the sub unit reference data.

特徴A8によれば、メイン個別画像とサブ個別画像との関連付けを単位基準データの単位で詳細に行うことが可能となる。 According to the feature A8, the association between the main individual image and the sub individual image can be performed in detail in the unit of the unit reference data.

特徴A9.前記メイン個別画像と前記サブ個別画像とは、単位基準データの数及び配列が同一又は略同一であり、
前記変形データ及び前記色データのうち少なくとも一方が前記メイン個別画像及び前記サブ個別画像間において兼用されることを特徴とする特徴A6乃至A8のいずれか1に記載の遊技機。
Feature A9. The main individual image and the sub individual image have the same or substantially the same number and arrangement of unit reference data.
The gaming machine according to any one of features A6 to A8, wherein at least one of the deformation data and the color data is shared between the main individual image and the sub individual image.

特徴A9によれば、メイン個別画像とサブ個別画像とで、変形データ及び色データのうち少なくとも一方が兼用されるため、各種データを記憶するために必要なデータ容量を抑えることが可能となる。 According to the feature A9, since at least one of the deformation data and the color data is shared by the main individual image and the sub individual image, it is possible to suppress the data capacity required for storing various data.

なお、特徴A1〜A9のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features A1 to A9, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴B群>
特徴B1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、個別画像が動作する画像を表示するための生成データを作成する場合に、当該個別画像に対応させて設定されたデータであって動きの基準となる基準データ(集合用骨格データFRD2)と、当該基準データに応じて変形する変形データ(集合用皮膚データSKD2)と、当該変形データに適用する色情報が定められた色データ(集合用テクスチャデータBTD2)とを用いることが可能な構成であり、
前記基準データは、複数の単位基準データ(ボーンデータABD1〜ABD50)を有し、それら複数の単位基準データの相対的な位置関係が変更されることにより当該基準データに対応する個別画像の動作態様が変更される構成であり、
前記複数の単位基準データは、メイン単位基準データの位置データが変更された場合にサブ単位基準データの位置データがそれに追従して変更されるようにデータ関係が設定されており、
複数種類の個別画像のうちサブ個別画像(第2〜第5集合単位キャラクタCHG2〜CHG5)に対応する単位基準データは、メイン個別画像(第1集合単位キャラクタCHG1)に対応する単位基準データに対して前記サブ単位基準データの関係に設定されていることを特徴とする遊技機。
<Feature B group>
Feature B1. A display means (design display device 41) having a display unit (display surface P) and
Display control means (VDP135) for displaying an image on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152).
With
When the data generation means creates the generated data for displaying the image in which the individual image operates, the data is set in correspondence with the individual image and serves as a reference for the movement (aggregate skeleton). Data FRD2), deformation data deformed according to the reference data (aggregation skin data SKD2), and color data in which color information applied to the transformation data is defined (aggregation texture data BTD2) can be used. It is a possible configuration,
The reference data has a plurality of unit reference data (bone data ABD1 to ABD50), and the operation mode of the individual image corresponding to the reference data is changed by changing the relative positional relationship of the plurality of unit reference data. Is a configuration that changes
The data relations of the plurality of unit reference data are set so that when the position data of the main unit reference data is changed, the position data of the sub unit reference data is changed accordingly.
Of the plurality of types of individual images, the unit reference data corresponding to the sub-individual images (second to fifth set unit characters CHG2 to CHG5) is the unit reference data corresponding to the main individual image (first set unit character CHG1). A gaming machine characterized in that it is set in relation to the sub-unit reference data.

特徴B1によれば、メイン単位基準データの位置データが変更された場合にはサブ単位基準データの位置データが変更されるため、一の基準データによって一の個別画像の動作態様が決定される構成においてはその個別画像の動作態様をよりリアルに表現することが可能となる。この場合に、複数種類の個別画像のうちサブ個別画像に対応する単位基準データは、メイン個別画像に対応する単位基準データに対してサブ単位基準データの関係に設定されている。これにより、メイン個別画像とサブ個別画像とをまとめて移動させる場合には、基準データにおけるメイン単位基準データとサブ単位基準データとのデータ関係を利用することで、メイン単位基準データについての位置データを変更するように制御情報を調整するだけで足りる。 According to the feature B1, when the position data of the main unit reference data is changed, the position data of the sub unit reference data is changed, so that the operation mode of one individual image is determined by one reference data. In, it is possible to express the operation mode of the individual image more realistically. In this case, the unit reference data corresponding to the sub individual image among the plurality of types of individual images is set in the relationship of the sub unit reference data with respect to the unit reference data corresponding to the main individual image. As a result, when moving the main individual image and the sub individual image together, the position data of the main unit reference data can be used by using the data relationship between the main unit reference data and the sub unit reference data in the reference data. It suffices to adjust the control information to change.

特徴B2.前記メイン単位基準データの位置データに影響を与えることなく、前記サブ単位基準データの位置データを変更することが可能であることを特徴とする特徴B1に記載の遊技機。 Feature B2. The gaming machine according to feature B1, wherein the position data of the sub-unit reference data can be changed without affecting the position data of the main unit reference data.

特徴B2によれば、メイン個別画像とサブ個別画像とでメイン単位基準データとサブ単位基準データとのデータ関係が設定されている構成であっても、メイン個別画像とは無関係にサブ個別画像を動作させることが可能となる。 According to the feature B2, even if the data relationship between the main unit reference data and the sub unit reference data is set in the main individual image and the sub individual image, the sub individual image is displayed regardless of the main individual image. It becomes possible to operate.

特徴B3.前記メイン個別画像に対応する単位基準データと、前記サブ個別画像に対応する単位基準データとは1対1で対応しており、それぞれ対応する単位基準データ間においてメイン個別画像の単位基準データがメイン単位基準データとなりサブ個別画像の単位基準データがサブ単位基準データとなるようにデータ関係が設定されていることを特徴とする特徴B1又はB2に記載の遊技機。 Feature B3. There is a one-to-one correspondence between the unit reference data corresponding to the main individual image and the unit reference data corresponding to the sub individual image, and the unit reference data of the main individual image is the main between the corresponding unit reference data. The gaming machine according to feature B1 or B2, wherein the data relationship is set so that the unit reference data of the sub-individual image becomes the unit reference data and becomes the sub unit reference data.

特徴B3によれば、メイン個別画像とサブ個別画像との関連付けを単位基準データの単位で詳細に行うことが可能となる。 According to the feature B3, the association between the main individual image and the sub individual image can be performed in detail in the unit of the unit reference data.

特徴B4.前記メイン個別画像と前記サブ個別画像とは、単位基準データの数及び配列が同一又は略同一であり、
前記変形データ及び前記色データのうち少なくとも一方が前記メイン個別画像及び前記サブ個別画像間において兼用されることを特徴とする特徴B1乃至B3のいずれか1に記載の遊技機。
Feature B4. The main individual image and the sub individual image have the same or substantially the same number and arrangement of unit reference data.
The gaming machine according to any one of features B1 to B3, wherein at least one of the deformation data and the color data is shared between the main individual image and the sub individual image.

特徴B4によれば、メイン個別画像とサブ個別画像とで、変形データ及び色データのうち少なくとも一方が兼用されるため、各種データを記憶するために必要なデータ容量を抑えることが可能となる。 According to the feature B4, since at least one of the deformation data and the color data is shared by the main individual image and the sub individual image, it is possible to suppress the data capacity required for storing various data.

特徴B5.前記複数種類の個別画像のそれぞれに対応する単位基準データは、一の基準データに含まれていることを特徴とする特徴B1乃至B4のいずれか1に記載の遊技機。 Feature B5. The gaming machine according to any one of features B1 to B4, wherein the unit reference data corresponding to each of the plurality of types of individual images is included in one reference data.

特徴B5によれば、複数種類の個別画像のそれぞれに対応する単位基準データが一の基準データに集約されているため、基準データを読み出すための処理及び基準データを利用する処理に関して処理負荷を低減することが可能となる。 According to the feature B5, since the unit reference data corresponding to each of the plurality of types of individual images is aggregated into one reference data, the processing load is reduced for the process for reading the reference data and the process for using the reference data. It becomes possible to do.

特徴B6.前記データ生成手段は、特定の個別画像(ボーン表示用キャラクタCH10)が動作する画像を表示するための生成データを作成する場合、前記基準データ、前記変形データ及び前記色データを利用する構成であり、
前記複数種類の個別画像を表示するための前記基準データの合計のデータ容量が、前記特定の個別画像を表示するための前記基準データの合計のデータ容量以下であることを特徴とする特徴B1乃至B5のいずれか1に記載の遊技機。
Feature B6. The data generation means is configured to use the reference data, the deformation data, and the color data when creating generation data for displaying an image in which a specific individual image (bone display character CH10) operates. ,
Features B1 to characterized in that the total data capacity of the reference data for displaying the plurality of types of individual images is equal to or less than the total data capacity of the reference data for displaying the specific individual image. The gaming machine according to any one of B5.

特徴B6によれば、基準データ、変形データ及び色データを利用して複数種類の個別画像を同時に表示する場合であっても、それら複数種類の個別画像を表示するための基準データの合計のデータ容量が特定の個別画像を表示するための基準データの合計のデータ容量以下となっているため、基準データを制御するための情報の導出及びその導出した情報の適用に関して対象となるデータ量を抑えることが可能となり処理負荷を低減することが可能となる。 According to the feature B6, even when a plurality of types of individual images are displayed at the same time using the reference data, the deformation data, and the color data, the total data of the reference data for displaying the plurality of types of individual images. Since the capacity is less than or equal to the total data capacity of the reference data for displaying a specific individual image, the amount of data targeted for deriving the information for controlling the reference data and applying the derived information is suppressed. This makes it possible to reduce the processing load.

なお、特徴B1〜B6のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features B1 to B6, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴C群>
特徴C1.仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する生成データ記憶手段(フレームバッファ142)と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置41)に表示させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記配置手段は、第1個別画像(演出用キャラクタCH11,CH13)の影画像及び反射画像のうちいずれかである対応画像(影画像CH12,CH14)を第2個別画像(地面画像BG、階段画像SG)の一部に対して重ねるようにして表示する場合、前記対応画像を表示するためのオブジェクトデータである対応オブジェクトデータ(平面影用板状オブジェクトデータBSD、段差影用板状オブジェクトデータSSD)を、前記第2個別画像を表示するためのオブジェクトデータ(地面用オブジェクトデータBGD、階段用オブジェクトデータSGD)とは別に前記仮想3次元空間に配置することを特徴とする遊技機。
<Characteristic C group>
Feature C1. An arrangement means for arranging object data which is three-dimensional information in a virtual three-dimensional space (a function of executing the processing of steps S2302 to S2304 in VDP135) and a viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (VDP135). The object data is projected onto the projection plane set based on the viewpoint, and the generated data (drawing data) is generated based on the data projected on the projection plane. Generated data that stores the generated data generated by the data generating means (display CPU 131, geometry calculation unit 151, and rendering unit 152) having a drawing setting means (a function of executing the processing of steps S231 to S2312 in the VDP 135). Storage means (frame buffer 142) and
A display control means (VDP135) for displaying an image corresponding to the generated data stored in the generated data storage means on the display means (design display device 41), and
In a game machine equipped with
The arrangement means uses either a shadow image or a reflection image of the first individual image (effect characters CH11, CH13) as a corresponding image (shadow image CH12, CH14) as a second individual image (ground image BG, staircase image). When displaying so as to overlap a part of SG), the corresponding object data (plate-shaped object data BSD for plane shadow, plate-shaped object data SSD for step shadow) which is the object data for displaying the corresponding image. The gaming machine is characterized in that is arranged in the virtual three-dimensional space separately from the object data (ground object data BGD, staircase object data SGD) for displaying the second individual image.

特徴C1によれば、第2個別画像を表示するためのオブジェクトデータとは別に対応画像を表示するためのオブジェクトデータである対応オブジェクトデータが設定されていることにより、第2個別画像を表示するためのデータ設定とは独立して、対応画像を表示するためのデータ設定を行うことが可能となる。これにより、第1個別画像の影画像及び反射画像のうちいずれかである対応画像を第2個別画像の一部に対して重ねるようにして表示する場合であっても、対応画像の表示内容とは無関係に第2個別画像を表示するためのデータ設定を行うことが可能となり、これら画像を表示させるための設計の容易化が図られる。よって、表示制御を好適に行うことが可能となる。 According to the feature C1, the second individual image is displayed because the corresponding object data, which is the object data for displaying the corresponding image, is set separately from the object data for displaying the second individual image. It is possible to set the data for displaying the corresponding image independently of the data setting of. As a result, even when the corresponding image, which is either the shadow image or the reflected image of the first individual image, is displayed so as to overlap a part of the second individual image, the display content of the corresponding image is displayed. It is possible to set data for displaying the second individual image regardless of the above, and the design for displaying these images can be facilitated. Therefore, it is possible to preferably perform display control.

特徴C2.前記対応オブジェクトデータは、板状ポリゴンであることを特徴とする特徴C1に記載の遊技機。 Feature C2. The gaming machine according to feature C1, wherein the corresponding object data is a plate-shaped polygon.

特徴C2によれば、オブジェクトデータを記憶するために必要なデータ容量の増加を抑えながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature C2, it is possible to achieve the excellent effect as described above while suppressing the increase in the data capacity required for storing the object data.

特徴C3.前記配置手段は、前記対応オブジェクトデータを、前記第2個別画像を表示するためのオブジェクトデータに対して表示位置が手前となる側に離間させて配置することを特徴とする特徴C1又はC2に記載の遊技機。 Feature C3. The arrangement means is described in feature C1 or C2, wherein the corresponding object data is arranged so as to be separated from the object data for displaying the second individual image on the side where the display position is in front. Game machine.

特徴C3によれば、仮想3次元空間において対応オブジェクトデータは第2個別画像を表示するためのオブジェクトデータに対して重ねて配置されるのではなく、表示位置が手前となる側に離間させて配置されるため、仮想3次元空間における配置位置との関係で表示対象の画像を決定する構成を利用しながら、対応画像を第2個別画像に重ねて表示することが可能となる。 According to the feature C3, in the virtual three-dimensional space, the corresponding object data is not arranged so as to overlap the object data for displaying the second individual image, but is arranged so as to be separated from the display position on the front side. Therefore, it is possible to superimpose the corresponding image on the second individual image while using the configuration in which the image to be displayed is determined in relation to the arrangement position in the virtual three-dimensional space.

特徴C4.前記データ生成手段は、前記第1個別画像を表示するためのオブジェクトデータの前記仮想3次元空間における位置を変更する場合、それに合わせて前記対応オブジェクトデータの前記仮想3次元空間における位置を変更する手段(表示CPU131におけるステップS3112及びステップS3313の処理を実行する機能)を備えていることを特徴とする特徴C1乃至C3のいずれか1に記載の遊技機。 Feature C4. When the data generation means changes the position of the object data for displaying the first individual image in the virtual three-dimensional space, the data generation means changes the position of the corresponding object data in the virtual three-dimensional space accordingly. The gaming machine according to any one of features C1 to C3, which comprises (a function of executing the processes of steps S3112 and S3313 in the display CPU 131).

特徴C4によれば、仮想3次元空間における対応オブジェクトデータの表示位置を変更するだけで、第1個別画像の移動表示に追従させて対応画像を移動表示させることが可能となる。 According to the feature C4, it is possible to move and display the corresponding image by following the moving display of the first individual image only by changing the display position of the corresponding object data in the virtual three-dimensional space.

特徴C5.前記データ生成手段は、前記オブジェクトデータに対してテクスチャデータを設定するテクスチャ設定手段(VDP135におけるステップS2309の処理を実行する機能)を備え、
当該テクスチャ設定手段は、前記第1個別画像の表示態様が第1表示態様である場合、前記対応画像を表示するためのテクスチャデータとして第1対応テクスチャデータ(第1平面影用テクスチャデータBST1)を前記対応オブジェクトデータに設定し、前記第2個別画像の表示態様が第2表示態様である場合、前記対応画像を表示するためのテクスチャデータとして第2対応テクスチャデータ(第2平面影用テクスチャデータBST2)を前記対応オブジェクトデータに設定することを特徴とする特徴C1乃至C4のいずれか1に記載の遊技機。
Feature C5. The data generation means includes a texture setting means (a function of executing the process of step S2309 in VDP135) for setting texture data for the object data.
When the display mode of the first individual image is the first display mode, the texture setting means uses the first corresponding texture data (texture data BST1 for first plane shadow) as the texture data for displaying the corresponding image. When the corresponding object data is set and the display mode of the second individual image is the second display mode, the second corresponding texture data (texture data for second plane shadow BST2) is used as the texture data for displaying the corresponding image. ) Is set in the corresponding object data. The gaming machine according to any one of features C1 to C4.

特徴C5によれば、対応オブジェクトデータに設定するテクスチャデータを切り換えるだけで、対応画像の表示態様を第1個別画像の表示態様に合わせることが可能となる。 According to the feature C5, it is possible to match the display mode of the corresponding image with the display mode of the first individual image only by switching the texture data set in the corresponding object data.

特徴C6.前記データ生成手段は、前記第1個別画像の表示態様が第1表示態様である場合、前記対応オブジェクトデータの形状を決定付ける形状データとして第1形状データを利用し、前記第1個別画像の表示態様が第2表示態様である場合、前記対応オブジェクトデータの形状を決定付ける形状データとして第2形状データを利用する手段(表示CPU131におけるステップS3309〜ステップS3311の処理を実行する機能)を備えていることを特徴とする特徴C1乃至C5のいずれか1に記載の遊技機。 Feature C6. When the display mode of the first individual image is the first display mode, the data generation means uses the first shape data as shape data for determining the shape of the corresponding object data, and displays the first individual image. When the mode is the second display mode, it is provided with means for using the second shape data as the shape data for determining the shape of the corresponding object data (a function of executing the processes of steps S3309 to S3311 in the display CPU 131). The gaming machine according to any one of features C1 to C5.

特徴C6によれば、対応オブジェクトデータに対して利用する形状データを変更することで、対応画像の表示態様を第1個別画像の表示態様に合わせることが可能となる。 According to the feature C6, by changing the shape data used for the corresponding object data, it is possible to match the display mode of the corresponding image with the display mode of the first individual image.

特徴C7.前記データ生成手段は、前記オブジェクトデータに対してテクスチャデータを設定するテクスチャ設定手段(VDP135におけるステップS2309の処理を実行する機能)を備え、
当該テクスチャ設定手段は、前記第1個別画像の表示位置が変更される場合、前記仮想3次元空間における前記対応オブジェクトデータの位置が変更されない状況において前記対応画像を表示するためのテクスチャデータの前記対応オブジェクトデータに対する設定位置関係を変更する設定位置変更手段(表示CPU131におけるステップS3410の処理を実行する機能)を備えていることを特徴とする特徴C1乃至C6のいずれか1に記載の遊技機。
Feature C7. The data generation means includes a texture setting means (a function of executing the process of step S2309 in VDP135) for setting texture data for the object data.
When the display position of the first individual image is changed, the texture setting means corresponds to the texture data for displaying the corresponding image in a situation where the position of the corresponding object data in the virtual three-dimensional space is not changed. The gaming machine according to any one of features C1 to C6, characterized in that it includes a setting position changing means (a function of executing the process of step S3410 in the display CPU 131) for changing the setting position relationship with respect to the object data.

特徴C7によれば、対応オブジェクトデータに対するテクスチャデータの設定位置関係を変更することによって第1個別画像の移動表示に対応画像を追従させることにより、仮想3次元空間における対応オブジェクトデータの位置を変更することが好ましくない状況であっても対応画像の移動表示を行うことが可能となる。 According to the feature C7, the position of the corresponding object data in the virtual three-dimensional space is changed by making the corresponding image follow the moving display of the first individual image by changing the setting positional relationship of the texture data with respect to the corresponding object data. Even in an unfavorable situation, it is possible to move and display the corresponding image.

特徴C8.前記第2個別画像において前記対応画像が重ねて表示される領域に対応する当該第2個別画像を表示するためのオブジェクトデータの形状データに対応させて、前記対応オブジェクトデータの形状データが設定されていることを特徴とする特徴C1乃至C7のいずれか1に記載の遊技機。 Feature C8. The shape data of the corresponding object data is set in correspondence with the shape data of the object data for displaying the second individual image corresponding to the area in which the corresponding image is superimposed and displayed in the second individual image. The gaming machine according to any one of features C1 to C7, characterized in that it is present.

特徴C8によれば、対応オブジェクトデータが第2個別画像を表示するためのオブジェクトデータの形状に対応させて設定されているため、対応オブジェクトデータを利用して対応画像を表示する構成であっても第2個別画像に対する対応画像の重ね合わせを好適に行うことが可能となる。 According to the feature C8, since the corresponding object data is set corresponding to the shape of the object data for displaying the second individual image, even if the corresponding object data is used to display the corresponding image. It is possible to preferably superimpose the corresponding image on the second individual image.

また、当該特徴C8の構成において上記特徴C7にて限定した構成を適用することにより、対応画像の移動表示は対応オブジェクトデータに対するテクスチャデータの設定位置関係の変更により行われることとなり、第2個別画像を表示するためのオブジェクトデータの形状に対応させて設定された対応オブジェクトデータを仮想3次元空間において複雑に移動させなくても対応画像の移動表示を行うことが可能となる。 Further, by applying the configuration limited to the feature C7 in the configuration of the feature C8, the movement display of the corresponding image is performed by changing the setting positional relationship of the texture data with respect to the corresponding object data, and the second individual image It is possible to move and display the corresponding image without complicatedly moving the corresponding object data set corresponding to the shape of the object data for displaying the image in the virtual three-dimensional space.

なお、特徴C1〜C8のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features C1 to C8, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴D群>
特徴D1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール74)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU72、VDP76)と、
を備え、
前記表示用記憶手段は、動画像を再生するために用いられる圧縮された動画像データ(ベース動画データBMD)を記憶しており、
前記表示制御手段は、
前記動画像データを展開用領域(展開用バッファ81)に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(VDP76におけるステップS1303の処理を実行する機能、動画デコーダ93)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、前記動画像データにおいて定められている順序で用いることで、当該動画像データに対応した動画対応画像(色替え演出用キャラクタCH1)を表示させる動画像表示実行手段(表示CPU72におけるステップS1206の処理を実行する機能、VDP76におけるステップS1306の処理を実行する機能)と、
前記表示用記憶手段から追加画像データ(第1〜第nパーツ画像データPD1〜PD3)を読み出し、前記静止画像データを利用する場合に当該追加画像データを利用することにより、当該追加画像データに対応する追加個別画像(色替え対象領域CR)を前記動画対応画像に追加する追加実行手段(表示CPU72におけるステップS1206の処理を実行する機能、VDP76におけるステップS1307の処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature D group>
Feature D1. A display means (design display device 41) having a display unit (display surface P) and
A display storage means (memory module 74) that stores image data in advance, and
Display control means (display CPU 72, VDP76) for displaying an image on the display unit using image data stored in the display storage means, and
With
The display storage means stores compressed moving image data (base moving image data BMD) used for reproducing moving images.
The display control means
The expansion means (processing of step S1303 in VDP76) that expands the moving image data into the expanding area (expanding buffer 81) and creates still image data for a plurality of update timings for the image corresponding to the moving image data. Function to execute, video decoder 93) and
By using the still image data for a plurality of update timings developed by the developing means in the order specified in the moving image data, a moving image corresponding to the moving image data (character CH1 for color change effect). ) Is displayed (a function of executing the process of step S1206 in the display CPU 72, a function of executing the process of step S1306 in the VDP 76), and
When the additional image data (first to nth parts image data PD1 to PD3) is read from the display storage means and the still image data is used, the additional image data is used to correspond to the additional image data. Additional execution means for adding an additional individual image (color change target area CR) to the moving image compatible image (a function of executing the process of step S1206 in the display CPU 72, a function of executing the process of step S1307 in the VDP 76), and
A game machine characterized by being equipped with.

特徴D1によれば、一の更新タイミングにおける画像を表示する場合に、動画像データを展開することで得られる静止画像データだけを利用するのではなく、追加画像データも利用することで、動画対応画像に対して追加個別画像を追加表示する構成である。これにより、例えば動画対応画像の一部を変更する必要が生じた場合であっても、追加画像データを利用してその一部の変更に対応することで、動画像データをそのまま利用することが可能となる。また、例えば動画対応画像の一部の内容が異なる複数種類の動画が必要となった場合であっても、追加画像データを利用してその一部の内容を異ならせることで、動画像データを複数種類用意する必要がなくなる。よって、表示制御を好適に行うことが可能となる。 According to the feature D1, when displaying an image at one update timing, not only the still image data obtained by expanding the moving image data is used, but also the additional image data is used to support moving images. It is a configuration in which an additional individual image is additionally displayed with respect to the image. As a result, even if it becomes necessary to change a part of the moving image compatible image, for example, the moving image data can be used as it is by using the additional image data to correspond to the partial change. It will be possible. Further, for example, even when a plurality of types of moving images having different contents of a part of a moving image compatible image are required, the moving image data can be obtained by using additional image data to make some of the contents different. There is no need to prepare multiple types. Therefore, it is possible to preferably perform display control.

特徴D2.前記追加個別画像を複数の更新タイミングにおいて変化させることが可能なように、複数の更新タイミングにおいて異なる前記追加画像データを利用可能な構成であることを特徴とする特徴D1に記載の遊技機。 Feature D2. The gaming machine according to feature D1, which has a configuration in which different additional image data can be used at a plurality of update timings so that the additional individual image can be changed at a plurality of update timings.

特徴D2によれば、複数の更新タイミングにおいて異なる追加画像データを利用可能な構成であることにより、動画対応画像の内容に合わせて追加個別画像の内容を変化させることが可能となる。 According to the feature D2, since different additional image data can be used at a plurality of update timings, it is possible to change the content of the additional individual image according to the content of the moving image compatible image.

特徴D3.前記複数の更新タイミング分の静止画像データのそれぞれに対応する前記追加画像データを利用可能な構成であることを特徴とする特徴D1又はD2に記載の遊技機。 Feature D3. The gaming machine according to feature D1 or D2, wherein the additional image data corresponding to each of the plurality of update timing still image data can be used.

特徴D3によれば、動画対応画像の表示期間の全体に亘って、当該動画対応画像の内容に応じた追加個別画像を表示することが可能となる。 According to the feature D3, it is possible to display an additional individual image according to the content of the moving image-compatible image over the entire display period of the moving image-compatible image.

特徴D4.複数の更新タイミング分の前記追加画像データは、動画像データとして圧縮されることなく前記表示用記憶手段に予め記憶されていることを特徴とする特徴D2又はD3に記載の遊技機。 Feature D4. The gaming machine according to feature D2 or D3, wherein the additional image data for a plurality of update timings is stored in advance in the display storage means without being compressed as moving image data.

特徴D4によれば、追加画像データが動画像データとして圧縮されることなく記憶されていることにより、動画対応画像に追加個別画像を追加表示させる場合に複数種類の動画像データの展開処理を同時に行う必要が生じない。 According to the feature D4, since the additional image data is stored as the moving image data without being compressed, the expansion processing of a plurality of types of moving image data can be performed at the same time when the additional individual image is additionally displayed on the moving image compatible image. There is no need to do it.

特徴D5.前記追加画像データには半透明又は透明に対応する透明値のデータが設定されていることを特徴とする特徴D4に記載の遊技機。 Feature D5. The gaming machine according to feature D4, wherein data having a transparency value corresponding to translucency or transparency is set in the additional image data.

特徴D5によれば、追加画像データに半透明又は透明に対応する透明値のデータが設定されていることにより、追加個別画像の追加表示に際して透明値を利用した表示を行うことが可能となる。例えば、追加個別画像としてエフェクト画像を表示することが可能となり、それ以外にも追加個別画像として所定の部分が透明又は半透明の画像を表示することが可能となる。また、上記特徴D4の構成を備え、半透明又は透明に対応する透明値データが設定された追加画像データが動画像データとして圧縮されることなく記憶されていることにより、追加個別画像の画質が劣化してしまわないようにすることが可能となる。 According to the feature D5, since the transparent value data corresponding to translucency or transparency is set in the additional image data, it is possible to perform the display using the transparent value when the additional individual image is additionally displayed. For example, it is possible to display an effect image as an additional individual image, and it is also possible to display an image in which a predetermined portion is transparent or translucent as an additional individual image. Further, the image quality of the additional individual image is improved by storing the additional image data having the configuration of the above feature D4 and having the transparency value data corresponding to translucency or transparency set as the moving image data without being compressed. It is possible to prevent it from deteriorating.

特徴D6.前記追加個別画像は、前記動画対応画像の一部の画像部分に対応していることを特徴とする特徴D1乃至D5のいずれか1に記載の遊技機。 Feature D6. The gaming machine according to any one of features D1 to D5, wherein the additional individual image corresponds to a part of an image portion of the moving image compatible image.

特徴D6によれば、追加個別画像を利用して動画対応画像の一部の画像部分の内容を変更することが可能となる。 According to the feature D6, it is possible to change the content of a part of the image portion of the moving image compatible image by using the additional individual image.

特徴D7.前記表示制御手段は、前記追加画像データに適用する色情報を変更する色情報変更手段(表示CPU72におけるステップS1204の処理を実行する機能、VDP76におけるステップS1305及びステップS1403〜ステップS1406の処理を実行する機能)を備えていることを特徴とする特徴D1乃至D6のいずれか1に記載の遊技機。 Feature D7. The display control means executes the color information changing means for changing the color information applied to the additional image data (the function of executing the process of step S1204 in the display CPU 72, the processes of step S1305 and steps S1403 to S1406 in VDP76). The gaming machine according to any one of features D1 to D6, which is characterized by having a function).

特徴D7によれば、追加画像データに適用する色情報が変更される構成であるため、複数種類の色情報のそれぞれに対応させて追加画像データを設ける構成に比べて、画像データを記憶するために必要な記憶容量を抑えることが可能となる。 According to the feature D7, since the color information applied to the additional image data is changed, the image data is stored as compared with the configuration in which the additional image data is provided corresponding to each of the plurality of types of color information. It is possible to reduce the storage capacity required for the data.

なお、特徴D1〜D7のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features D1 to D7, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴E群>
特徴E1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール74)と、
複数の単位設定領域(単位エリア121)を有する設定用記憶手段(フレームバッファ82)に前記画像データを設定することで当該設定用記憶手段に描画データを作成し、当該描画データに応じた画像信号を前記表示手段に出力することに基づき前記表示部に画像を表示させる表示制御手段(表示CPU72、VDP76)と、
を備え、
前記表示制御手段は、
複数の個別画像(エフェクト演出用キャラクタCH2、エフェクト画像EG2)を前記表示部の奥行き方向に重なるように表示する場合において、それら複数の個別画像が前記表示部の奥行き方向に重なることとなる前記単位設定領域のデータについて、奥側個別画像(エフェクト演出用キャラクタCH2)の重なり箇所の画像データである奥側画像データが手前側個別画像(エフェクト画像EG2)の重なり箇所の画像データである手前側画像データに対して反映された状態となるようにする重複反映手段(VDP76におけるステップS1701、ステップS1709及びステップS1710の処理を実行する機能)と、
当該重複反映手段により前記手前側画像データに対して前記奥側画像データが反映される場合に、手前側画像データ及び奥側画像データのうち少なくとも一方の反映割合を低減させる反映低減手段(VDP76におけるステップS1705〜ステップS1708の処理を実行する機能)と、
を備え、
当該反映低減手段は、前記手前側画像データ及び前記奥側画像データのうち一方の低減対象画像データの反映割合を低減する場合、前記手前側画像データ及び前記奥側画像データのうち一方の低減量参照画像データの内容に応じて当該反映割合の低減量を異ならせることを特徴とする遊技機。
<Feature E group>
Feature E1. A display means (design display device 41) having a display unit (display surface P) and
A display storage means (memory module 74) that stores image data in advance, and
By setting the image data in the setting storage means (frame buffer 82) having a plurality of unit setting areas (unit area 121), drawing data is created in the setting storage means, and an image signal corresponding to the drawing data is created. A display control means (display CPU 72, VDP76) for displaying an image on the display unit based on outputting the image to the display means.
With
The display control means
When displaying a plurality of individual images (effect effect character CH2, effect image EG2) so as to overlap in the depth direction of the display unit, the unit in which the plurality of individual images overlap in the depth direction of the display unit. Regarding the data in the setting area, the back side image data which is the image data of the overlapping part of the back side individual image (effect effect effect character CH2) is the image data of the overlapping part of the front side individual image (effect image EG2). Duplicate reflection means (a function of executing the processes of step S1701, step S1709, and step S1710 in VDP76) so that the data is reflected.
When the back side image data is reflected on the front side image data by the duplicate reflection means, the reflection reduction means (in VDP76) for reducing the reflection ratio of at least one of the front side image data and the back side image data. (Function to execute the process of step S1705 to step S1708) and
With
When the reflection reducing means reduces the reflection ratio of one of the front side image data and the back side image data to be reduced, the reduction amount of one of the front side image data and the back side image data. A gaming machine characterized in that the amount of reduction of the reflection ratio varies depending on the content of the reference image data.

特徴E1によれば、低減対象画像データを反映させる割合を低減させた状態で、手前側画像データ及び奥側画像データの重複反映が行われる。これにより、例えば手前側画像データ及び奥側画像データをそのまま重複反映させると画像の表示を良好に行えない場合などにおいては少なくとも一方の画像データの反映割合を低減させて、重複反映させた画像の表示を良好に行うことが可能となる。 According to the feature E1, the front side image data and the back side image data are duplicated and reflected in a state where the ratio of reflecting the reduction target image data is reduced. As a result, for example, when the front side image data and the back side image data are duplicated and reflected as they are, the image cannot be displayed well, the reflection ratio of at least one of the image data is reduced, and the duplicated reflection is performed. It is possible to perform good display.

この場合に、低減量参照画像データの内容に応じて、低減対象画像データの反映割合の低減量を異ならせる構成である。これにより、低減対象画像データの反映割合を一律で低減する構成に比べて、低減量参照画像データの内容に応じた態様で低減対象画像データを低減させることが可能となり、画像データの重複反映を行う場合において表示効果をより高めるための細かな調整を行うことが可能となる。 In this case, the reduction amount of the reflection ratio of the reduction target image data is different depending on the content of the reduction amount reference image data. This makes it possible to reduce the reduction target image data in a manner according to the content of the reduction amount reference image data, as compared with the configuration in which the reflection ratio of the reduction target image data is uniformly reduced, and the duplicate reflection of the image data can be achieved. When doing so, it is possible to make fine adjustments to further enhance the display effect.

以上より、表示制御を好適に行うことが可能となる。 From the above, it is possible to preferably perform display control.

なお、、重複反映手段の構成として具体的には、「前記画像データは、色情報を規定する数値情報が対応付けられた単位画像データ(ピクセル122)を複数有しており、前記重複反映手段は、前記複数の個別画像において相互に重なる各単位画像データの数値情報を用いて予め定められた演算処理を実行する演算処理実行手段と、当該演算処理の演算結果のデータを、前記設定用記憶手段において前記相互に重なる各単位画像データに対応した単位設定領域に設定する設定処理実行手段と、を備えている」という構成が挙げられ、さらにより具体的な構成として「前記各単位設定領域は、限界数値までの範囲内において数値情報を設定可能な構成であり、前記表示制御手段は、当該数値情報として大きな数値が設定されているほどその単位設定領域に対応したドットにおいて明るい色が表示されるように前記画像信号を出力する構成であり、前記演算処理実行手段は、前記予め定められた演算処理として、前記複数の個別画像において相互に重なる各単位画像データの数値情報を加算する加算処理を実行する」という構成が挙げられる。 Specifically, as the configuration of the duplicate reflection means, "the image data has a plurality of unit image data (pixels 122) associated with numerical information defining color information, and the duplicate reflection means. Is an arithmetic processing execution means for executing a predetermined arithmetic processing using the numerical information of each unit image data overlapping with each other in the plurality of individual images, and storing the arithmetic result data of the arithmetic processing for setting. The means includes a setting processing execution means for setting in the unit setting area corresponding to the unit image data overlapping with each other. ”A more specific configuration is that“ the unit setting area is , Numerical information can be set within the range up to the limit value, and the display control means displays brighter colors at dots corresponding to the unit setting area as a larger numerical value is set as the numerical information. The image signal is output as described above, and the arithmetic processing execution means adds numerical information of each unit image data overlapping with each other in the plurality of individual images as the predetermined arithmetic processing. Is executed. "

特徴E2.前記画像データは、色情報を規定する数値情報が対応付けられた単位画像データ(ピクセル122)を複数有しており、
前記単位設定領域は、限界数値までの範囲内において数値情報を設定可能な構成であり、
前記表示制御手段は、当該数値情報として大きな数値が設定されているほどその単位設定領域に対応した前記表示部のドットにおいて明るい色が表示されるように前記画像信号を出力する構成であり、
前記反映低減手段は、前記数値情報が相対的に大きい前記低減量参照画像データの単位画像データに対応する前記低減対象画像データの単位画像データの方が、前記数値情報が相対的に小さい前記低減量参照画像データの単位画像データに対応する前記低減対象画像データの単位画像データよりも、前記反映割合の低減量を大きくすることを特徴とする特徴E1に記載の遊技機。
Feature E2. The image data has a plurality of unit image data (pixels 122) associated with numerical information that defines color information.
The unit setting area has a configuration in which numerical information can be set within a range up to the limit value.
The display control means is configured to output the image signal so that the larger the numerical value is set as the numerical information, the brighter the color is displayed at the dots of the display unit corresponding to the unit setting area.
In the reflection reduction means, the unit image data of the reduction target image data corresponding to the unit image data of the reduction amount reference image data having a relatively large numerical information has a relatively small numerical information. The gaming machine according to feature E1, wherein the reduction amount of the reflection ratio is made larger than the unit image data of the reduction target image data corresponding to the unit image data of the quantity reference image data.

特徴E2によれば、大きな数値の数値情報が設定されている単位設定領域に対応したドットほど明るい色が表示される構成であるため、当該ドットの表示制御の複雑化が抑えられる。この場合に、数値情報が相対的に大きい低減量参照画像データの単位画像データに対応する低減対象画像データの単位画像データの方が、数値情報が相対的に小さい低減量参照画像データの単位画像データに対応する低減対象画像データの単位画像データよりも反映割合の低減量が大きい。これにより、各個別画像の画像データを重複反映させると単位設定領域の限界数値に達する可能性がある部分については限界数値に達しないようにすることを優先して反映割合の低減量を大きくし、限界数値に達する可能性がない部分については各個別画像の画像データの内容を重複反映させることを優先して反映割合の低減量を小さくすることが可能となる。 According to the feature E2, since the dot corresponding to the unit setting area in which the numerical information of a large numerical value is set is displayed in a brighter color, the complexity of the display control of the dot can be suppressed. In this case, the unit image of the reduction target image data corresponding to the unit image data of the reduction amount reference image data having a relatively large numerical information has a relatively small numerical information of the unit image of the reduction amount reference image data. The amount of reduction in the reflection ratio is larger than the unit image data of the image data to be reduced corresponding to the data. As a result, the reduction amount of the reflection ratio is increased by giving priority to not reaching the limit value for the part where the limit value of the unit setting area may be reached when the image data of each individual image is reflected in duplicate. For the portion that is unlikely to reach the limit value, it is possible to reduce the reduction amount of the reflection ratio by giving priority to reflecting the content of the image data of each individual image in duplicate.

特徴E3.前記画像データは、色情報を規定する数値情報が対応付けられた単位画像データ(ピクセル122)を複数有しており、
前記反映低減手段は、前記低減量参照画像データに含まれる前記単位画像データの数値情報のそれぞれに応じた前記反映割合の低減量により、前記低減対象画像データの反映割合を低減させることを特徴とする特徴E1又はE2に記載の遊技機。
Feature E3. The image data has a plurality of unit image data (pixels 122) associated with numerical information that defines color information.
The reflection reducing means is characterized in that the reflection ratio of the image data to be reduced is reduced by the reduction amount of the reflection ratio according to each of the numerical information of the unit image data included in the reduction amount reference image data. Features The gaming machine according to E1 or E2.

特徴E3によれば、単位画像データの単位で反映割合の低減量を調整することが可能となるため、反映割合の低減を優先させる箇所と重複反映を優先させる箇所との調整を細かく行うことが可能となる。 According to the feature E3, since it is possible to adjust the reduction amount of the reflection ratio in units of unit image data, it is possible to finely adjust the portion where the reduction of the reflection ratio is prioritized and the portion where the overlap reflection is prioritized. It will be possible.

特徴E4.前記単位設定領域は、限界数値までの範囲内において数値情報を設定可能な構成であり、
前記画像データは、前記限界数値までの範囲内において色情報を規定する数値情報が対応付けられた単位画像データを複数有しており、
前記反映低減手段は、前記低減量参照画像データに含まれる前記単位画像データの色情報を前記限界数値から引き算した結果の値を当該限界数値で除算した結果の値を、その単位画像データが設定される前記単位設定領域に対応する前記低減対象画像データの単位画像データに積算することにより、当該低減対象画像データの反映割合を低減させることを特徴とする特徴E1乃至E3のいずれか1に記載の遊技機。
Feature E4. The unit setting area has a configuration in which numerical information can be set within a range up to the limit value.
The image data has a plurality of unit image data associated with numerical information that defines color information within the range up to the limit value.
In the reflection reduction means, the unit image data sets a value obtained by dividing the color information of the unit image data included in the reduction amount reference image data from the limit value by the limit value. Described in any one of features E1 to E3, which is characterized in that the reflection ratio of the reduction target image data is reduced by integrating with the unit image data of the reduction target image data corresponding to the unit setting area. Game machine.

特徴E4によれば、重複反映の対象となる各画像データ自体を利用して、低減量参照画像データの内容に応じた反映割合の低減を行うことが可能となる。よって、各種データを事前に記憶しておくためのデータ容量を抑えながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature E4, it is possible to reduce the reflection ratio according to the content of the reduction amount reference image data by using each image data itself to be duplicated and reflected. Therefore, it is possible to achieve the excellent effect as described above while suppressing the data capacity for storing various data in advance.

特徴E5.前記低減量参照画像データを利用して前記反映割合が低減される前記低減対象画像データは、前記手前側画像データ及び前記奥側画像データのうち前記低減対象画像データとは異なる側の画像データであることを特徴とする特徴E1乃至E4のいずれか1に記載の遊技機。 Feature E5. The reduction target image data whose reflection ratio is reduced by using the reduction amount reference image data is the image data of the front side image data and the back side image data different from the reduction target image data. The gaming machine according to any one of features E1 to E4, characterized in that it is present.

特徴E5によれば、重複反映の相手側の画像データの内容に応じて画像データの反映割合を低減することが可能となる。 According to the feature E5, it is possible to reduce the reflection ratio of the image data according to the content of the image data on the other side of the duplicate reflection.

特徴E6.前記低減量参照画像データは前記手前側画像データであり、前記低減対象画像データは前記奥側画像データであることを特徴とする特徴E1乃至E5のいずれか1に記載の遊技機。 Feature E6. The gaming machine according to any one of features E1 to E5, wherein the reduction amount reference image data is the front side image data, and the reduction target image data is the back side image data.

特徴E6によれば、奥側画像データの反映割合を一律で低減する構成に比べて、手前側個別画像の内容に応じた態様で奥側画像データを反映させることが可能となり、画像データの重複反映を行う場合において表示効果をより高めるための細かな調整を行うことが可能となる。 According to the feature E6, the back side image data can be reflected in a manner corresponding to the content of the front side individual image as compared with the configuration in which the reflection ratio of the back side image data is uniformly reduced, and the image data is duplicated. When reflecting, it is possible to make fine adjustments to further enhance the display effect.

なお、特徴E1〜E6のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features E1 to E6, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴F群>
特徴F1.仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影された投影データに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する生成データ記憶手段(フレームバッファ142)と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置41)の表示部(表示面P)に表示させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記データ生成手段は、前記投影データに対して半透明に対応する透明値を設定する透明値設定手段(VDP135におけるステップS3815の処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic F group>
Features F1. An arrangement means for arranging object data which is three-dimensional information in a virtual three-dimensional space (a function of executing the processing of steps S2302 to S2304 in VDP135) and a viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (VDP135). The object data is projected onto the projection plane set based on the viewpoint, and the generated data (drawing data) is generated based on the projection data projected on the projection plane. A generation for storing generated data generated by a data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) having a drawing setting means (a function of executing the process of steps S231 to S2312 in VDP135). Data storage means (frame buffer 142) and
A display control means (VDP135) for displaying an image corresponding to the generated data stored in the generated data storage means on the display unit (display surface P) of the display means (design display device 41).
In a game machine equipped with
The data generation means is a gaming machine including a transparency value setting means (a function of executing the process of step S3815 in VDP135) for setting a transparency value corresponding to translucency with respect to the projection data.

特徴F1によれば、投影データの作成後に半透明に対応する透明値が設定される構成であるため、オブジェクトデータを半透明な状態としなくても最終的に半透明の画像表示を行うことが可能となる。オブジェクトデータを半透明な状態とした後に投影データを作成すると、オブジェクトデータとして本来表示したくない裏側の画像部分が表示されてしまう可能性があり、それを回避しながら投影データを作成しようとすると処理が複雑化してしまう可能性がある。これに対して、オブジェクトデータを半透明な状態としなくても最終的に半透明の画像表示を行うことが可能であるため、当該半透明の画像表示を好適に行うことが可能となる。よって、表示制御を好適に行うことが可能となる。 According to the feature F1, since the transparency value corresponding to the translucency is set after the projection data is created, the semitransparent image can be finally displayed even if the object data is not in the translucent state. It will be possible. If you create projection data after making the object data semi-transparent, there is a possibility that the image part on the back side that you do not want to display as object data will be displayed, and if you try to create projection data while avoiding it The process may be complicated. On the other hand, since it is possible to finally display a semi-transparent image without making the object data semi-transparent, it is possible to preferably display the semi-transparent image. Therefore, it is possible to preferably perform display control.

特徴F2.前記データ生成手段は、前記透明値設定手段による前記半透明に対応する透明値の設定対象となる個別画像(図柄表示部CH16〜CH18)を表示するためのオブジェクトデータに対して、前記半透明に対応する透明値を設定しないことを特徴とする特徴F1に記載の遊技機。 Feature F2. The data generation means makes the object data for displaying individual images (design display units CH16 to CH18) for which the transparency value corresponding to the translucency is set by the transparency value setting means semitransparently. The gaming machine according to feature F1, wherein the corresponding transparency value is not set.

特徴F2によれば、オブジェクトデータを半透明な状態としない構成であることにより、オブジェクトデータとして本来表示したくない裏側の画像部分が表示されてしまわないようにすることが可能となる。そして、上記特徴F1の構成を備え、投影データに対して半透明に対応する透明値を設定する構成であるため、上記のような不都合が生じしないようにしながら、半透明の画像表示を行うことが可能となる。 According to the feature F2, since the object data is not made semi-transparent, it is possible to prevent the image portion on the back side, which is originally not desired to be displayed as the object data, from being displayed. Further, since the configuration of the above feature F1 is provided and the transparency value corresponding to the translucency is set for the projection data, the semitransparent image is displayed while preventing the above-mentioned inconvenience. Is possible.

特徴F3.前記データ生成手段は、
複数の個別画像(演出用キャラクタCH15、図柄表示部CH16〜CH18)を表示する場合、これら複数の個別画像の一部の個別画像に対応する所定投影データを作成し、それとは別に、前記複数の個別画像のうち前記所定投影データに含まれない個別画像に対応する前記特定投影データを作成する個別作成手段(VDP135におけるステップS3802、ステップS3803、ステップS3805、ステップS3806、ステップS3808、ステップS3809、ステップS3811及びステップS3812の処理を実行する機能)と、
前記特定投影データが設定された記憶領域に対して前記透明値に応じた態様で前記所定投影データを設定する生成実行手段(VDP135におけるステップS3816の処理を実行する機能)と、
を備えていることを特徴とする特徴F1又はF2に記載の遊技機。
Feature F3. The data generation means
When displaying a plurality of individual images (effect character CH15, symbol display units CH16 to CH18), predetermined projection data corresponding to some of the individual images of the plurality of individual images is created, and separately, the plurality of individual images are described. Individual creation means (step S3802, step S3803, step S3805, step S3806, step S3808, step S3809, step S3811 in VDP135) for creating the specific projection data corresponding to the individual image not included in the predetermined projection data among the individual images. And the function to execute the process of step S3812) and
A generation execution means (a function of executing the process of step S3816 in VDP135) for setting the predetermined projection data in a mode corresponding to the transparency value in the storage area in which the specific projection data is set, and
The gaming machine according to the feature F1 or F2, characterized in that

特徴F3によれば、投影データを複数回に亘って作成し、一部の投影データに対して半透明に対応する透明値の設定を行いながら複数の投影データを合成するだけで、複数の個別画像が表示部の奥行き方向に重なるように表示されるとともに奥側個別画像の重なり箇所の内容が手前側個別画像の重なり箇所に反映された状態となるようにすることが可能となる。 According to feature F3, projection data is created multiple times, and a plurality of individual projection data are simply combined while setting a transparency value corresponding to translucency for some projection data. It is possible to display the images so as to overlap in the depth direction of the display unit and to reflect the contents of the overlapping portion of the individual images on the back side in the overlapping portion of the individual images on the front side.

特徴F4.前記個別作成手段は、
前記所定投影データ及び前記特定投影データを含めた各投影データを投影データ用記憶手段(描画用バッファBF1)に順次作成するデータ作成手段(VDP135におけるステップS3802、ステップS3805、ステップS3808及びステップS3811の処理を実行する機能)と、
前記投影データ用記憶手段に作成した投影データを保存記憶手段(第1〜第4保存用バッファBF2〜BF5)に書き込む手段(VDP135におけるステップS3803、ステップS3806、ステップS3809及びステップS3812の処理を実行する機能)と、
を備えていることを特徴とする特徴F3に記載の遊技機。
Feature F4. The individual creation means
Processing of data creation means (step S3802, step S3805, step S3808 and step S3811 in VDP135) for sequentially creating each projection data including the predetermined projection data and the specific projection data in the projection data storage means (drawing buffer BF1). Function to execute) and
The processing of steps S3803, step S3806, step S3809 and step S3812 in VDP135 for writing the projection data created in the projection data storage means to the storage storage means (first to fourth storage buffers BF2 to BF5) is executed. Function) and
The gaming machine according to the feature F3, which is characterized by having.

特徴F4によれば、投影データを複数作成した後にそれら投影データを合成することで生成データを生成する構成において、投影データの作成先となる記憶手段を投影データ用記憶手段に集約することが可能となる。これにより、投影データの作成に際して作成先の記憶手段を変更する必要がないため、処理設計の容易化が図られる。また、投影データ用記憶手段に作成された投影データを保存する保存記憶手段が設けられているため、作成済みの投影データを合成実行時まで別保存しておくことが可能となる。 According to the feature F4, in a configuration in which the generated data is generated by synthesizing the projection data after creating a plurality of projection data, the storage means to which the projection data is created can be aggregated in the projection data storage means. It becomes. As a result, it is not necessary to change the storage means of the creation destination when creating the projection data, so that the processing design can be facilitated. Further, since the projection data storage means is provided with a storage storage means for storing the created projection data, it is possible to separately store the created projection data until the time of synthesis execution.

特徴F5.前記個別作成手段は、前記所定投影データ及び前記特定投影データを含めた各投影データを投影データ用記憶手段(描画用バッファBF1)に作成するものであり、
前記投影データ用記憶手段は複数の投影単位記憶エリアを有し、
それら各投影単位記憶エリアは、色情報と透明値の情報とを設定可能な構成であり、
前記個別作成手段は、前記投影データ用記憶手段における各投影単位記憶エリアの透明値の情報として透明に対応する透明値の情報を設定した後に前記所定投影データを作成し、当該所定投影データにおいて表示対象の個別画像に対応するデータが書き込まれる投影単位記憶エリアには透明値の情報として不透明に対応する透明値の情報が設定されそれ以外の投影単位記憶エリアには透明値の情報として前記透明に対応する透明値の情報が維持されるようにすることを特徴とする特徴F3又はF4に記載の遊技機。
Feature F5. The individual creation means creates each projection data including the predetermined projection data and the specific projection data in the projection data storage means (drawing buffer BF1).
The projection data storage means has a plurality of projection unit storage areas.
Each of these projection unit storage areas has a configuration in which color information and transparency value information can be set.
The individual creation means creates the predetermined projection data after setting the transparency value information corresponding to transparency as the transparency value information of each projection unit storage area in the projection data storage means, and displays the predetermined projection data in the predetermined projection data. The transparency value information corresponding to opacity is set as the transparency value information in the projection unit storage area where the data corresponding to the target individual image is written, and the transparency value information is set in the other projection unit storage areas. The gaming machine according to feature F3 or F4, wherein the information of the corresponding transparency value is maintained.

特徴F5によれば、投影データ用記憶手段における各投影単位エリアに透明に対応する透明値の情報が設定された後に当該投影データ用記憶手段に投影データが作成される構成であるため、投影データにおいて個別画像が描画されない部分の透明値の情報を投影データの作成後の後処理を実行することなく透明とすることが可能となる。これにより、最終的に複数の投影データを単に重ね合わせることで生成データを生成する構成であっても、各投影データにおいて投影対象となった個別画像のデータ部分がブランクのデータ部分によって上書きされてしまわないようにすることが可能となる。 According to the feature F5, since the projection data is created in the projection data storage means after the transparency value information corresponding to the transparency is set in each projection unit area in the projection data storage means, the projection data It is possible to make the transparent value information of the portion where the individual image is not drawn transparent without executing post-processing after the projection data is created. As a result, even in a configuration in which the generated data is finally generated by simply superimposing a plurality of projection data, the data portion of the individual image to be projected in each projection data is overwritten by the blank data portion. It is possible to prevent it from being stored.

なお、特徴F1〜F5のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features F1 to F5, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴G群>
特徴G1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール74)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU72、VDP76)と、
を備え、
前記表示用記憶手段には、所定画像(増加時用エフェクト画像EG6)を表示するための画像データとして、第1所定画像データ(通常エフェクト用画像データED5)と、当該第1所定画像データよりも解像度が低く設定された第2所定画像データ(簡易エフェクト用画像データED6)と、が記憶されており、
前記表示制御手段は、前記第2所定画像データを用いる場合であっても前記第1所定画像データを用いる場合と同様のサイズで前記所定画像が表示されるように当該第2所定画像データを拡大させる画像拡大手段(VDP76におけるステップS2109の処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic G group>
Features G1. A display means (design display device 41) having a display unit (display surface P) and
A display storage means (memory module 74) that stores image data in advance, and
Display control means (display CPU 72, VDP76) for displaying an image on the display unit using image data stored in the display storage means, and
With
The display storage means includes the first predetermined image data (normal effect image data ED5) and the first predetermined image data as image data for displaying the predetermined image (effect image EG6 for increasing time). The second predetermined image data (image data ED6 for simple effect) in which the resolution is set low is stored.
The display control means enlarges the second predetermined image data so that the predetermined image is displayed in the same size as when the first predetermined image data is used even when the second predetermined image data is used. A gaming machine characterized by having an image enlarging means (a function of executing the process of step S2109 in VDP76).

特徴G1によれば、所定画像を表示するための画像データとして第1所定画像データだけでなく、当該第1所定画像データよりも解像度が低く設定された第2所定画像データが記憶されている。そして、第2所定画像データを利用する場合には第1所定画像データを用いる場合と同様のサイズで所定画像が表示されるように第2所定画像データが拡大して使用される。これにより、画質が高い状態で所定画像を表示する場合には第1所定画像データを利用し、画質が低下したとしても画像データの読み出しに要する時間を短縮化する必要がある場合には第2所定画像データを利用することが可能となる。よって、状況に応じた態様で所定画像を表示するためのデータ設定を行うことが可能となり、表示制御を好適に行うことが可能となる。 According to the feature G1, not only the first predetermined image data but also the second predetermined image data whose resolution is set lower than that of the first predetermined image data is stored as the image data for displaying the predetermined image. Then, when the second predetermined image data is used, the second predetermined image data is enlarged and used so that the predetermined image is displayed in the same size as when the first predetermined image data is used. As a result, the first predetermined image data is used when the predetermined image is displayed in a state of high image quality, and the second is when it is necessary to shorten the time required for reading the image data even if the image quality is deteriorated. It becomes possible to use predetermined image data. Therefore, it is possible to set data for displaying a predetermined image in a mode according to the situation, and it is possible to preferably perform display control.

特徴G2.前記第1所定画像データを読み出すのに要する処理時間と前記第2所定画像データを読み出すのに要する処理時間との差分よりも、前記画像拡大手段において前記第2所定画像データを拡大するのに要する処理時間の方が短いことを特徴とする特徴G1に記載の遊技機。 Feature G2. It is necessary for the image enlarging means to enlarge the second predetermined image data rather than the difference between the processing time required for reading the first predetermined image data and the processing time required for reading the second predetermined image data. The gaming machine according to feature G1, which is characterized in that the processing time is shorter.

特徴G2によれば、第2所定画像データを読み出してそれを拡大した後に使用する場合の処理時間を、第1所定画像データを読み出して使用する処理時間よりも短くすることが可能となる。これにより、処理負荷が大きい状況においては第2所定画像データを敢えて使用することで、処理負荷が大きい状況であっても所定画像を表示することが可能となる。 According to the feature G2, it is possible to make the processing time when the second predetermined image data is read out and enlarged and then used shorter than the processing time when the first predetermined image data is read out and used. As a result, by intentionally using the second predetermined image data in a situation where the processing load is large, it is possible to display the predetermined image even in a situation where the processing load is large.

特徴G3.前記画像拡大手段は、前記第2所定画像データを拡大させた後の拡大後画像データを所定記憶手段(展開用バッファ81)に記憶させ、
前記表示制御手段は、前記第2所定画像データを利用して前記所定画像を表示する期間においては、前記所定記憶手段に記憶された前記拡大後画像データを使用することを特徴とする特徴G1又はG2に記載の遊技機。
Feature G3. The image enlarging means stores the enlarged image data after enlarging the second predetermined image data in a predetermined storage means (expansion buffer 81).
The feature G1 or the display control means is characterized by using the enlarged image data stored in the predetermined storage means during the period of displaying the predetermined image by using the second predetermined image data. The gaming machine described in G2.

特徴G3によれば、第2所定画像データを拡大させた後は拡大後画像データが所定記憶手段において記憶保持されるため、第2所定画像データを複数の更新タイミングに亘って使用する場合における処理負荷を低減することが可能となる。 According to the feature G3, after the second predetermined image data is enlarged, the enlarged image data is stored and held in the predetermined storage means, so that the processing when the second predetermined image data is used over a plurality of update timings. It is possible to reduce the load.

特徴G4.前記表示制御手段は、前記所定画像を表示するための画像データとして、前記第2所定画像データの前記画像拡大手段による拡大後の拡大後画像データを使用する状態から前記第1所定画像データを使用する状態に切り換える使用対象設定手段(表示CPU72におけるステップS2015〜ステップS2020の処理を実行する機能、VDP76におけるステップS2111の処理を実行する機能)を備えていることを特徴とする特徴G1乃至G3のいずれか1に記載の遊技機。 Feature G4. The display control means uses the first predetermined image data from the state of using the enlarged image data of the second predetermined image data after being enlarged by the image enlargement means as the image data for displaying the predetermined image. Any of the features G1 to G3 characterized in that it is provided with a usage target setting means (a function of executing the process of steps S2015 to S2020 in the display CPU 72, a function of executing the process of step S2111 in the VDP76). The game machine described in 1.

特徴G4によれば、所定画像の表示を継続しながら、処理負荷を低減すべく第2所定画像データを使用する状況から画質を向上させるべく第1所定画像データを使用する状況に切り換えることが可能となる。 According to the feature G4, it is possible to switch from the situation where the second predetermined image data is used to reduce the processing load to the situation where the first predetermined image data is used to improve the image quality while continuing the display of the predetermined image. It becomes.

特徴G5.前記使用対象設定手段は、前記表示部に表示される個別画像の数が増加するタイミングにおいて前記所定画像の表示を開始する場合、前記所定画像を表示するための画像データとして、前記拡大後画像データを使用し、その後に前記所定画像を表示するための画像データを前記第1所定画像データに切り換えることを特徴とする特徴G4に記載の遊技機。 Feature G5. When the use target setting means starts displaying the predetermined image at a timing when the number of individual images displayed on the display unit increases, the enlarged image data is used as image data for displaying the predetermined image. The gaming machine according to feature G4, wherein the image data for displaying the predetermined image is subsequently switched to the first predetermined image data.

特徴G5によれば、個別画像の数が増加するタイミングにおいて所定画像の表示を開始しようとする場合、そのタイミングにおける画像データの読み出しに要する時間が局所的に長時間化するおそれがあるが、当該タイミングにおいては第2所定画像データを拡大した後の拡大後画像データを使用して所定画像を表示することで、当該読み出しに要する時間の長時間化を抑えることが可能となる。その一方、当該タイミングよりも後において第1所定画像データを使用することにより、画像データの読み出しに要する時間に余裕がある状況において第1所定画像データを読み出して所定画像の画質を高めることが可能となる。 According to the feature G5, when the display of a predetermined image is to be started at the timing when the number of individual images increases, the time required for reading the image data at that timing may be locally lengthened. In terms of timing, by displaying the predetermined image using the enlarged image data after enlarging the second predetermined image data, it is possible to suppress a long time required for the reading. On the other hand, by using the first predetermined image data after the timing, it is possible to read the first predetermined image data and improve the image quality of the predetermined image in a situation where the time required for reading the image data is sufficient. It becomes.

特徴G6.前記表示制御手段は、前記第1所定画像データを用いて前記所定画像を表示する場合、複数の更新タイミングにおいて異なる前記第1所定画像データを用いることで前記所定画像の表示態様を変化させ、前記第2所定画像データを用いて前記所定画像を表示する場合、当該所定画像の表示態様を変化させないことを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。 Feature G6. When the display control means displays the predetermined image using the first predetermined image data, the display mode of the predetermined image is changed by using different first predetermined image data at a plurality of update timings. The gaming machine according to any one of features G1 to G5, wherein when the predetermined image is displayed using the second predetermined image data, the display mode of the predetermined image is not changed.

特徴G6によれば、第1所定画像データを用いて所定画像を表示する場合には当該所定画像の表示態様を変化させることで表示内容が画一化してしまわないようにすることができる一方、第2所定画像データを用いて所定画像を表示する場合には処理負荷の低減を優先させることが可能となる。 According to the feature G6, when a predetermined image is displayed using the first predetermined image data, the display contents can be prevented from being standardized by changing the display mode of the predetermined image. When displaying a predetermined image using the second predetermined image data, it is possible to prioritize the reduction of the processing load.

特徴G7.前記第1所定画像データは前記所定画像の表示態様を複数の更新タイミングに亘って変化させることができるように複数設けられており、前記第2所定画像データは1個のみ設けられていることを特徴とする特徴G1乃至G6のいずれか1に記載の遊技機。 Feature G7. A plurality of the first predetermined image data are provided so that the display mode of the predetermined image can be changed over a plurality of update timings, and only one of the second predetermined image data is provided. Characteristic The gaming machine according to any one of features G1 to G6.

特徴G7によれば、第1所定画像データが複数設けられていることにより所定画像の表示態様を変化させることができるようにしながら、第2所定画像データは1個のみ設けられているため第2所定画像データを利用して所定画像を表示する場合の処理構成を簡素化することが可能となる。 According to the feature G7, the display mode of the predetermined image can be changed by providing a plurality of the first predetermined image data, but only one second predetermined image data is provided, so that the second predetermined image data is provided. It is possible to simplify the processing configuration when displaying a predetermined image by using the predetermined image data.

なお、特徴G1〜G7のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features G1 to G7, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴H群>
特徴H1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、更新タイミングとなることで画像の内容を更新させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、前記表示部に第1特定個別画像(ループ演出用AキャラクタCH8)及び第2特定個別画像(ループ演出用BキャラクタCH9)を含めて複数の個別画像が表示されている状況において、前記第1特定個別画像の表示態様を変更するために必要な第1表示情報(座標データ)を導出すべく情報導出処理(補間表示期間用処理)の実行を開始し、前記第2特定個別画像の表示態様を変更するために必要な第2表示情報を導出すべく前記情報導出処理の実行を開始する導出処理実行手段(表示CPU131における補間表示期間用処理を実行する機能)を備え、
当該導出処理実行手段は、一の更新タイミングから次の更新タイミングまでの期間を特定期間とした場合に、前記第1表示情報及び前記第2表示情報のうち一方である所定表示情報を導出するための前記情報導出処理の実行を所定の特定期間において開始し、前記第1表示情報及び前記第2表示情報のうち他方である特定表示情報を導出するための前記情報導出処理の実行を前記所定の特定期間よりも後の前記特定期間において開始することを特徴とする遊技機。
<Characteristic H group>
Features H1. A display means (design display device 41) having a display unit (display surface P) and
An image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152), and the content of the image is updated at the update timing. Display control means (VDP135) and
With
The data generation means is in a situation where a plurality of individual images including a first specific individual image (A character CH8 for loop effect) and a second specific individual image (B character CH9 for loop effect) are displayed on the display unit. In order to derive the first display information (coordinate data) necessary for changing the display mode of the first specific individual image, the execution of the information derivation process (process for interpolating display period) is started, and the second specification It is provided with a derivation process execution means (a function of executing an interpolation display period process in the display CPU 131) that starts execution of the information derivation process in order to derive the second display information necessary for changing the display mode of the individual image.
The derivation processing execution means derives predetermined display information which is one of the first display information and the second display information when the period from one update timing to the next update timing is set as a specific period. The execution of the information derivation process is started in a predetermined specific period, and the execution of the information derivation process for deriving the specific display information which is the other of the first display information and the second display information is performed. A gaming machine characterized in that it starts in the specific period after the specific period.

特徴H1によれば、表示部に第1特定個別画像及び第2特定個別画像を含めて複数の個別画像が表示されている状況においてそれら第1特定個別画像及び第2特定個別画像の表示態様が変更される場合、当該表示態様を変更するために必要な第1表示情報の導出開始と、第2表示情報の導出開始とが異なる特定期間において行われる。これにより、第1表示情報の導出開始と第2表示情報の導出開始とが同一の特定期間において行われる構成に比べ、一の特定期間において処理負荷が極端に高くなってしまう事象が発生しないようにすることが可能となる。よって、第1特定個別画像及び第2特定個別画像の表示態様の変更を好適に行うことが可能となり、表示制御を好適に行うことが可能となる。 According to the feature H1, in a situation where a plurality of individual images including the first specific individual image and the second specific individual image are displayed on the display unit, the display mode of the first specific individual image and the second specific individual image is When it is changed, the start of derivation of the first display information necessary for changing the display mode and the start of derivation of the second display information are performed in different specific periods. As a result, the event that the processing load becomes extremely high in one specific period does not occur as compared with the configuration in which the derivation start of the first display information and the derivation start of the second display information are performed in the same specific period. It becomes possible to. Therefore, it is possible to preferably change the display mode of the first specific individual image and the second specific individual image, and it is possible to preferably perform display control.

特徴H2.前記導出処理実行手段は、前記特定表示情報を導出するための前記情報導出処理の実行を前記所定の特定期間に対して次の前記特定期間において開始することを特徴とする特徴H1に記載の遊技機。 Feature H2. The game according to feature H1, wherein the derivation process execution means starts execution of the information derivation process for deriving the specific display information in the next specific period with respect to the predetermined specific period. Machine.

特徴H2によれば、第1表示情報の導出開始タイミングと第2表示情報の導出開始タイミングとのずれを最小限に抑えながら、一の特定期間において処理負荷が極端に高くなってしまう事象が発生しないようにすることが可能となる。 According to the feature H2, an event occurs in which the processing load becomes extremely high in one specific period while minimizing the deviation between the derivation start timing of the first display information and the derivation start timing of the second display information. It is possible to prevent it.

特徴H3.前記表示制御手段は、前記所定表示情報を導出するための前記情報導出処理の実行が開始された場合、前記特定表示情報を導出するための前記情報導出処理の実行が開始されていなくても、前記第1特定個別画像及び前記第2特定個別画像のうち前記所定表示情報の使用対象となる側において当該所定表示情報を使用した表示を開始することを特徴とする特徴H1又はH2に記載の遊技機。 Feature H3. When the display control means starts executing the information derivation process for deriving the predetermined display information, even if the execution of the information derivation process for deriving the specific display information is not started, the display control means does not start executing the information derivation process. The game according to feature H1 or H2, wherein a display using the predetermined display information is started on the side of the first specific individual image and the second specific individual image to be used for the predetermined display information. Machine.

特徴H3によれば、第1表示情報の導出開始タイミングと第2表示情報の導出開始タイミングとを意図的にずらした構成であっても、第1特定個別画像及び第2特定個別画像の表示態様の変更を早期に開始することが可能となる。 According to the feature H3, even if the derivation start timing of the first display information and the derivation start timing of the second display information are intentionally shifted, the display mode of the first specific individual image and the second specific individual image is displayed. It is possible to start the change of.

特徴H4.前記表示制御手段は、前記第1特定個別画像が第1所定動作表示(ループ演出用AキャラクタCH8の第1ループ演出態様)に続けて第1特定動作表示(ループ演出用AキャラクタCH8の補間表示期間の態様)を行い、前記第2特定個別画像が前記第2所定動作表示(ループ演出用BキャラクタCH9の第1ループ演出態様)に続けて第2特定動作表示(ループ演出用BキャラクタCH9の補間表示期間の態様)を行うように画像の内容を更新し、
前記第1表示情報は前記第1特定動作表示を行わせるための情報であり、前記第2表示情報は前記第2特定動作表示を行わせるための情報であることを特徴とする特徴H1乃至H3のいずれか1に記載の遊技機。
Feature H4. In the display control means, the first specific individual image displays the first specific operation (interpolated display of the loop effect A character CH8) following the first predetermined operation display (first loop effect mode of the loop effect A character CH8). A mode of the period) is performed, and the second specific individual image displays the second specific operation (the first loop effect mode of the loop effect B character CH9) followed by the second specific operation display (loop effect B character CH9). Update the content of the image to perform the interpolation display period mode)
The features H1 to H3 are characterized in that the first display information is information for causing the first specific operation display, and the second display information is information for causing the second specific operation display. The gaming machine according to any one of.

特徴H4によれば、各表示情報の導出を開始する特定期間をずらすことで第1特定個別画像及び第2特定個別画像の特定動作表示の開始タイミングがずれたとしても、第1特定個別画像及び第2特定個別画像のそれぞれが所定動作表示に続けて特定動作表示を行う構成であるため、そのずれの内容も動作表示の一連の内容であると遊技者に認識させることが可能となる。よって、遊技者に違和感を与えないようにしながら処理負荷を分散させることが可能となる。 According to the feature H4, even if the start timing of the specific operation display of the first specific individual image and the second specific individual image is shifted by shifting the specific period for starting the derivation of each display information, the first specific individual image and the first specific individual image and Since each of the second specific individual images has a configuration in which the specific motion display is performed following the predetermined motion display, it is possible for the player to recognize that the content of the deviation is also a series of motion display contents. Therefore, it is possible to distribute the processing load while not giving the player a sense of discomfort.

特徴H5.前記所定表示情報を導出するための前記情報導出処理の実行を開始するタイミングにおける前記第1特定個別画像の動作態様と前記第2特定個別画像の動作態様とが相違していることを特徴とする特徴H4に記載の遊技機。 Feature H5. The operation mode of the first specific individual image and the operation mode of the second specific individual image at the timing of starting the execution of the information derivation process for deriving the predetermined display information are different from each other. Feature The gaming machine described in H4.

特徴H5によれば、各表示情報の導出を開始する特定期間をずらすことで第1特定個別画像及び第2特定個別画像の特定動作表示の開始タイミングがずれたとしても、情報導出処理の実行を開始するタイミングにおける第1特定個別画像の動作態様と第2特定個別画像の動作態様とが相違していることにより、その動作態様の相違によって開始タイミングのずれが目立たなくなる。よって、遊技者に違和感を与えないようにしながら処理負荷を分散させることが可能となる。 According to the feature H5, even if the start timing of the specific operation display of the first specific individual image and the second specific individual image is shifted by shifting the specific period for starting the derivation of each display information, the information derivation process is executed. Since the operation mode of the first specific individual image and the operation mode of the second specific individual image at the start timing are different, the deviation of the start timing becomes inconspicuous due to the difference in the operation mode. Therefore, it is possible to distribute the processing load while not giving the player a sense of discomfort.

特徴H6.前記第1所定動作表示が終了するタイミングにおける前記第1特定個別画像の動作態様は予め定められた態様であり、前記第2所定動作表示が終了するタイミングにおける前記第2特定個別画像の動作態様は予め定められた態様であり、
前記所定表示情報は前記第1表示情報であり、前記特定表示情報は前記第2表示情報であることを特徴とする特徴H4又はH5に記載の遊技機。
Feature H6. The operation mode of the first specific individual image at the timing when the first predetermined operation display ends is a predetermined mode, and the operation mode of the second specific individual image at the timing when the second predetermined operation display ends is It is a predetermined mode,
The gaming machine according to feature H4 or H5, wherein the predetermined display information is the first display information, and the specific display information is the second display information.

特徴H6によれば、第1表示情報及び第2表示情報のうちいずれから情報導出処理を開始するのかが予め定められていることにより、情報導出処理を先に開始する対象を状況に応じて変更する必要がない点で処理構成の簡素化が図られる。また、所定動作表示が終了するタイミングにおける各特定個別画像の動作態様が定められているため、第1表示情報及び第2表示情報のうちいずれから情報導出処理を開始するのかが予め定められていたとしても、表示内容を視認した遊技者に違和感を与えないようにすることが可能となる。 According to the feature H6, since it is predetermined from which of the first display information and the second display information the information derivation process is started, the target for starting the information derivation process first is changed according to the situation. The processing configuration can be simplified in that there is no need to do so. Further, since the operation mode of each specific individual image at the timing when the predetermined operation display ends is defined, it is predetermined from which of the first display information and the second display information the information derivation process is started. Even so, it is possible to prevent the player who visually recognizes the displayed content from feeling uncomfortable.

特徴H7.前記第1特定個別画像が前記第1所定動作表示を行い前記第2特定個別画像が前記第2所定動作表示を行っている状況において不規則に発生する切換契機が発生したことに基づいて、前記第1特定動作表示及び前記第2特定動作表示が開始される構成であり、
前記導出処理実行手段は、前記切換契機が発生したタイミングに応じて、前記第1表示情報及び前記第2表示情報のうち前記情報導出処理を先に開始する対象を決定する先開始決定手段(表示CPU131におけるステップS2702の処理を実行する機能)を備えていることを特徴とする特徴H4又はH5に記載の遊技機。
Feature H7. Based on the occurrence of a switching trigger that occurs irregularly in a situation where the first specific individual image is performing the first predetermined operation display and the second specific individual image is performing the second predetermined operation display. The configuration is such that the first specific operation display and the second specific operation display are started.
The derivation process execution means is a pre-start determination means (display) that determines a target for first starting the information derivation process among the first display information and the second display information according to the timing at which the switching trigger occurs. The gaming machine according to feature H4 or H5, which comprises a function of executing the process of step S2702 in the CPU 131).

特徴H7によれば、所定動作表示を行っている状況から特定動作表示を行っている状況への切換契機が不規則に発生する構成であるため、表示内容を多様化することが可能となる。この場合に、切換契機が発生したタイミングに応じて、第1表示情報及び第2表示情報のうちいずれから情報導出処理を開始するのかが決定されるため、遊技者に違和感を与えづらい順序で特定動作表示を開始することが可能となる。 According to the feature H7, since the switching trigger from the situation in which the predetermined operation is displayed to the situation in which the specific operation is displayed is irregularly generated, the display contents can be diversified. In this case, since it is determined from which of the first display information and the second display information the information derivation process is started according to the timing at which the switching trigger occurs, the information is specified in an order that does not give the player a sense of discomfort. It is possible to start the operation display.

特徴H8.前記データ生成手段は、
予め記憶された第1所定動作情報(Aキャラクタ用の第1アニメーションデータAD1)に従って、前記第1特定個別画像に前記第1所定動作表示を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
予め記憶された第1特別動作情報(Aキャラクタ用の第2アニメーションデータAD2)に従って、前記第1特定個別画像に第1特別動作表示(ループ演出用AキャラクタCH8の第2ループ演出態様)を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
予め記憶された第2所定動作情報(Bキャラクタ用の第1アニメーションデータAD3)に従って、前記第2特定個別画像に前記第2所定動作表示を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
予め記憶された第2特別動作情報(Bキャラクタ用の第2アニメーションデータAD4)に従って、前記第2特定個別画像に第2特別動作表示(ループ演出用BキャラクタCH9の第2ループ演出態様)を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
を備え、
前記第1特定動作表示は前記第1所定動作表示が行われた後であって前記第1特別動作表示が行われる前に行われ、
前記第2特定動作表示は前記第2所定動作表示が行われた後であって前記第2特別動作表示が行われる前に行われ、
前記導出処理実行手段は、前記第1所定動作情報と前記第1特別動作情報とを使用して前記情報導出処理を実行することにより前記第1表示情報を導出し、前記第2所定動作情報と前記第2特別動作情報とを使用して前記情報導出処理を実行することにより前記第2表示情報を導出することを特徴とする特徴H4乃至H7のいずれか1に記載の遊技機。
Feature H8. The data generation means
Means for deriving information for causing the first specific individual image to perform the first predetermined motion display according to the first predetermined motion information (first animation data AD1 for A character) stored in advance (step in the display CPU 131). Function to execute the processing of S2407) and
According to the first special motion information (second animation data AD2 for A character) stored in advance, the first special motion display (second loop effect mode of A character CH8 for loop effect) is performed on the first specific individual image. Means for deriving information for displaying (a function of executing the process of step S2407 in the display CPU 131) and
Means for deriving information for causing the second specific individual image to perform the second predetermined operation display according to the second predetermined operation information (first animation data AD3 for the B character) stored in advance (step in the display CPU 131). Function to execute the processing of S2407) and
According to the second special motion information (second animation data AD4 for the B character) stored in advance, the second special motion display (second loop effect mode of the loop effect B character CH9) is performed on the second specific individual image. Means for deriving information for displaying (a function of executing the process of step S2407 in the display CPU 131) and
With
The first specific operation display is performed after the first predetermined operation display is performed and before the first special operation display is performed.
The second specific operation display is performed after the second predetermined operation display is performed and before the second special operation display is performed.
The derivation process execution means derives the first display information by executing the information derivation process using the first predetermined operation information and the first special operation information, and obtains the second predetermined operation information. The gaming machine according to any one of features H4 to H7, characterized in that the second display information is derived by executing the information derivation process using the second special operation information.

特徴H8によれば、各所定動作表示と各特別動作表示との間において、予め記憶された所定動作情報及び特別動作情報を利用して導出された情報に基づき特定動作表示が行われることにより、予め情報を記憶しておくのに必要な情報量を抑えながら、所定動作表示を行っている状態から特別動作表示を行っている状態に表示内容を滑らかに変化させることが可能となる。但し、所定動作情報及び特別動作情報を利用して表示情報を導出する処理を一の特定期間においてまとめて行おうとすると処理負荷が極端に大きくなってしまうおそれがあるが、上記特徴H1にて記載した構成を備え、第1特定個別画像と第2特定個別画像とで異なる特定期間において表示情報の導出が開始されるため、処理負荷を分散することが可能となる。 According to the feature H8, the specific operation display is performed between each predetermined operation display and each special operation display based on the predetermined operation information stored in advance and the information derived by using the special operation information. While suppressing the amount of information required to store information in advance, it is possible to smoothly change the display content from the state in which the predetermined operation display is performed to the state in which the special operation display is performed. However, if the process of deriving the display information using the predetermined operation information and the special operation information is collectively performed in one specific period, the processing load may become extremely large. Since the display information is derived in a specific period different from that of the first specific individual image and the second specific individual image, the processing load can be distributed.

なお、特徴H1〜H8のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features H1 to H8, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴I群>
特徴I1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、色情報を規定する数値情報が対応付けられた単位データを複数有する色規定画像データ(背景用テクスチャデータGTD1)を表示用記憶手段(メモリモジュール133)から読み出して利用することにより前記生成データを生成する構成であり、
前記表示用記憶手段は、前記色規定画像データと同様に前記単位データを複数有する調整用データ(第1屈折用テクスチャデータGTD2、第2屈折用テクスチャデータGTD3)を予め記憶しており、
前記データ生成手段は、前記調整用データの前記単位データから導出される数値情報を色情報とは異なる所定調整情報として利用することにより、前記色規定画像データを用いて表示される対応個別画像の表示内容を調整する内容調整手段(VDP135におけるステップS4103〜ステップS4107の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature I group>
Feature I1. A display means (design display device 41) having a display unit (display surface P) and
Display control means (VDP135) for displaying an image on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152).
With
The data generation means reads out from the display storage means (memory module 133) and uses color-defined image data (background texture data GTD1) having a plurality of unit data associated with numerical information that defines color information. The generated data is generated by
The display storage means stores in advance adjustment data (first refraction texture data GTD2, second refraction texture data GTD3) having a plurality of the unit data as well as the color-defined image data.
The data generation means uses the numerical information derived from the unit data of the adjustment data as predetermined adjustment information different from the color information, so that the corresponding individual image displayed using the color-defined image data can be used. A gaming machine characterized in that it includes content adjusting means for adjusting display contents (a function of executing the processes of steps S4103 to S4107 in VDP135).

特徴I1によれば、所定調整情報を利用することにより対応個別画像の表示内容が調整されるため、同一の色規定画像データを利用しながら表示内容を多様化させることが可能となる。この場合に、所定調整情報は、色規定画像データと同様に複数の単位データを有する調整用データを利用して導出される。これにより、色規定画像データと同様のデータとして表示用記憶手段に記憶されている調整用データを利用して対応個別画像の表示内容を調整することが可能となり、色規定画像データとはデータ形式が異なるデータとして調整用データを用意する構成に比べ、データを読み出すための処理及び読み出した後の一時記憶するための処理内容を共通化しながら対応個別画像の表示内容を調整することが可能となる。よって、表示制御を好適に行うことが可能となる。 According to the feature I1, since the display content of the corresponding individual image is adjusted by using the predetermined adjustment information, it is possible to diversify the display content while using the same color-defined image data. In this case, the predetermined adjustment information is derived by using the adjustment data having a plurality of unit data as in the color-defined image data. This makes it possible to adjust the display content of the corresponding individual image by using the adjustment data stored in the display storage means as data similar to the color-defined image data, and the color-defined image data is a data format. Compared to a configuration in which adjustment data is prepared as different data, it is possible to adjust the display content of the corresponding individual image while standardizing the processing for reading the data and the processing for temporary storage after reading. .. Therefore, it is possible to preferably perform display control.

特徴I2.前記単位データは、ベース色に対応したベース色対応データ(R値、G値、B値)を複数有しており、
前記内容調整手段は、前記調整用データの前記単位データに設定されている複数のベース色対応データから導出される数値情報を利用して前記所定調整情報を特定することを特徴とする特徴I1に記載の遊技機。
Feature I2. The unit data has a plurality of base color corresponding data (R value, G value, B value) corresponding to the base color.
The content adjusting means has the feature I1 characterized in that the predetermined adjustment information is specified by using the numerical information derived from the plurality of base color corresponding data set in the unit data of the adjustment data. The game machine described.

特徴I2によれば、調整用データの単位データに設定されている複数のベース色対応情報を利用して所定調整情報を導出することにより、所定調整情報の内容を細かく制御することが可能となる。 According to the feature I2, the content of the predetermined adjustment information can be finely controlled by deriving the predetermined adjustment information by using the plurality of base color correspondence information set in the unit data of the adjustment data. ..

特徴I3.前記単位データは、ベース色に対応したベース色対応データ(R値、G値、B値)を複数有しており、
前記内容調整手段は、前記調整用データの前記単位データに設定されている複数のベース色対応データのうち一部のデータから導出される数値情報を利用して前記所定調整情報を特定することを特徴とする特徴I1又はI2に記載の遊技機。
Feature I3. The unit data has a plurality of base color corresponding data (R value, G value, B value) corresponding to the base color.
The content adjusting means specifies the predetermined adjustment information by using numerical information derived from a part of a plurality of base color corresponding data set in the unit data of the adjustment data. The gaming machine according to the feature I1 or I2.

特徴I3によれば、調整用データの単位データに設定されている複数のベース色対応データのうち一部のデータを利用して所定調整情報を導出することにより、全てのベース色対応データを利用して所定調整情報を導出する構成に比べて所定調整情報を導出するための処理負荷を低減することが可能となる。 According to the feature I3, all the base color corresponding data are used by deriving the predetermined adjustment information by using a part of the plurality of base color corresponding data set as the unit data of the adjustment data. Therefore, it is possible to reduce the processing load for deriving the predetermined adjustment information as compared with the configuration for deriving the predetermined adjustment information.

特徴I4.前記データ生成手段は、
仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、
を有し、
前記色規定画像データは、前記オブジェクトデータに対して設定されるテクスチャデータであることを特徴とする特徴I1乃至I3のいずれか1に記載の遊技機。
Feature I4. The data generation means
An arrangement means for arranging object data which is three-dimensional information in a virtual three-dimensional space (a function of executing the processing of steps S2302 to S2304 in VDP135) and
A viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (a function of executing the process of step S2306 in VDP135) and
The drawing setting means (processes S231 to S2312 in VDP135) for projecting the object data onto a projection plane set based on the viewpoint and generating generated data based on the data projected on the projection plane are executed. Function to do) and
Have,
The gaming machine according to any one of features I1 to I3, wherein the color-defined image data is texture data set for the object data.

特徴I4によれば、テクスチャデータとして用意されている調整用データを利用して所定調整情報を導出することが可能となる。 According to the feature I4, it is possible to derive predetermined adjustment information by using the adjustment data prepared as the texture data.

特徴I5.前記内容調整手段は、前記所定調整情報を利用することにより前記オブジェクトデータの内容を調整するのではなく、前記テクスチャデータにおける前記単位データの内容を調整することを特徴とする特徴I4に記載の遊技機。 Feature I5. The game according to feature I4, wherein the content adjusting means does not adjust the content of the object data by using the predetermined adjustment information, but adjusts the content of the unit data in the texture data. Machine.

特徴I5によれば、所定調整情報を利用してオブジェクトデータの内容を調整するのではなく、テクスチャデータにおける単位データの内容を調整する構成であるため、調整する対象を3次元情報ではなく2次元情報とすることが可能となり、調整を行うための処理負荷を低減することが可能となる。 According to the feature I5, the content of the object data is not adjusted by using the predetermined adjustment information, but the content of the unit data in the texture data is adjusted. Therefore, the adjustment target is not three-dimensional information but two-dimensional. It can be used as information, and the processing load for making adjustments can be reduced.

特徴I6.前記内容調整手段は、前記オブジェクトデータに設定する前の状態において前記所定調整情報を利用して前記テクスチャデータの内容を調整することを特徴とする特徴I5に記載の遊技機。 Feature I6. The gaming machine according to feature I5, wherein the content adjusting means adjusts the content of the texture data by using the predetermined adjustment information in a state before being set in the object data.

特徴I6によれば、テクスチャデータをオブジェクトデータに設定した後におけるデータ状態に影響を受けることなく所定調整情報を利用した調整を行うことが可能であるため、当該調整を行い易くなる。 According to the feature I6, since it is possible to perform the adjustment using the predetermined adjustment information without being affected by the data state after the texture data is set as the object data, the adjustment can be easily performed.

特徴I7.前記内容調整手段は、前記所定調整情報を利用することにより、前記色規定画像データを用いて表示される対応個別画像の歪み表示を行わせることを特徴とする特徴I1乃至I6のいずれか1に記載の遊技機。 Feature I7. The content adjusting means has one of the features I1 to I6 characterized in that the distortion display of the corresponding individual image displayed by using the color-defined image data is performed by using the predetermined adjustment information. Described game machine.

特徴I7によれば、色規定画像データと同様のデータとして表示用記憶手段に記憶されている調整用データを利用して対応個別画像の歪み表示を行うことが可能となる。 According to the feature I7, it is possible to display the distortion of the corresponding individual image by using the adjustment data stored in the display storage means as the same data as the color-defined image data.

なお、特徴I1〜I7のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of features I1 to I7, features A1 to A9, features B1 to B6, features C1 to C8, features D1 to D7, features E1 to E6, features F1 to F5, and features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

<特徴J群>
特徴J1.仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、を有するデータ生成手段によって生成された生成データを記憶する生成データ記憶手段(フレームバッファ142)と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置41)に表示させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記データ生成手段は、所定調整情報に基づいてオブジェクトデータ(背景用板状オブジェクトデータGSD)の内容を調整するのではなく、当該オブジェクトデータに対して設定されるテクスチャデータ(背景用テクスチャデータGTD1)の内容を前記所定調整情報に基づき調整することにより、これらオブジェクトデータ及びテクスチャデータを用いて表示される対応個別画像の表示内容を調整する内容調整手段(VDP135におけるステップS4103〜ステップS4107の処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic J group>
Features J1. An arrangement means for arranging object data which is three-dimensional information in a virtual three-dimensional space (a function of executing the processing of steps S2302 to S2304 in VDP135) and a viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (VDP135). The object data is projected onto the projection plane set based on the viewpoint, and the generated data (drawing data) is generated based on the data projected on the projection plane. A drawing setting means (a function of executing the process of steps S231 to S2312 in VDP135), a generated data storage means (frame buffer 142) for storing generated data generated by the data generating means having the drawing setting means, and a generated data storage means (frame buffer 142).
A display control means (VDP135) for displaying an image corresponding to the generated data stored in the generated data storage means on the display means (design display device 41), and
In a game machine equipped with
The data generation means does not adjust the contents of the object data (background plate-shaped object data GSD) based on the predetermined adjustment information, but the texture data set for the object data (background texture data GTD1). By adjusting the content of the above based on the predetermined adjustment information, the content adjusting means for adjusting the display content of the corresponding individual image displayed using the object data and the texture data (processing of steps S4103 to S4107 in VDP135 is executed. A game machine characterized by having a function to play data.

特徴J1によれば、所定調整情報を利用してオブジェクトデータの内容を調整するのではなく、テクスチャデータにおける単位データの内容を調整する構成であるため、調整する対象を3次元情報ではなく2次元情報とすることが可能となり、調整を行うための処理負荷を低減することが可能となる。よって、表示制御を好適に行うことが可能となる。 According to the feature J1, the content of the object data is not adjusted by using the predetermined adjustment information, but the content of the unit data in the texture data is adjusted. Therefore, the adjustment target is not three-dimensional information but two-dimensional. It can be used as information, and the processing load for making adjustments can be reduced. Therefore, it is possible to preferably perform display control.

特徴J2.前記内容調整手段は、前記オブジェクトデータに設定する前の状態において前記所定調整情報を利用して前記テクスチャデータの内容を調整することを特徴とする特徴J1に記載の遊技機。 Feature J2. The gaming machine according to feature J1, wherein the content adjusting means adjusts the content of the texture data by using the predetermined adjustment information in a state before being set in the object data.

特徴J2によれば、テクスチャデータをオブジェクトデータに設定した後におけるデータ状態に影響を受けることなく所定調整情報を利用した調整を行うことが可能であるため、当該調整を行い易くなる。 According to the feature J2, since it is possible to perform the adjustment using the predetermined adjustment information without being affected by the data state after the texture data is set as the object data, the adjustment becomes easy.

なお、特徴J1〜J2のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features J1 to J2, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

上記特徴A群〜上記特徴J群の各発明は、以下の課題を解決することが可能である。 The inventions of the feature A group to the feature J group can solve the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as a type of game machine. As these game machines, those provided with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

ここで、上記例示等のような遊技機においては、表示制御を好適に行うことが可能な構成が求められており、この点について未だ改良の余地がある。 Here, in a game machine such as the above example, a configuration capable of suitably performing display control is required, and there is still room for improvement in this respect.

<特徴K群>
特徴K1.演出の実行内容を決定する第1制御手段(音光側MPU62)と、
当該第1制御手段が送信した送信情報に基づいて演出実行手段(図柄表示装置41)を制御する第2制御手段(表示CPU72)と、
を備え、
所定実行契機が発生した場合に前記演出実行手段において契機対応演出(予告表示)が実行される構成であり、
当該契機対応演出は、実行有無及び内容の少なくとも一方である変動対象内容が変動する演出要素(第2種別の内容)を複数有し、
それら複数の演出要素についての変動対象内容の組合せパターンにより前記契機対応演出の実行パターンが相違する構成であり、
前記第1制御手段は、前記契機対応演出を実行させるための送信情報を送信する場合、所定の演出要素の前記変動対象内容に対応する対応送信情報(第1コマンドデータCD1、第2コマンドデータCD2、第3コマンドデータCD3)と、他の演出要素の前記変動対象内容に対応する対応送信情報(第1コマンドデータCD1、第2コマンドデータCD2、第3コマンドデータCD3)とを区別して送信する情報送信手段(音光側MPU62におけるコマンド選択処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic K group>
Features K1. The first control means (sound-light side MPU62) that determines the execution content of the effect,
A second control means (display CPU 72) that controls the effect executing means (design display device 41) based on the transmission information transmitted by the first control means, and
With
When a predetermined execution trigger occurs, the trigger response effect (notice display) is executed by the effect execution means.
The trigger response effect has a plurality of effect elements (contents of the second type) in which the content to be changed, which is at least one of the execution presence / absence and the content, changes.
The execution pattern of the trigger response effect differs depending on the combination pattern of the variable target contents for the plurality of effect elements.
When the first control means transmits transmission information for executing the trigger response effect, the corresponding transmission information (first command data CD1, second command data CD2) corresponding to the variation target content of a predetermined effect element is transmitted. , 3rd command data CD3) and the corresponding transmission information (1st command data CD1, 2nd command data CD2, 3rd command data CD3) corresponding to the variable target contents of other production elements are transmitted separately. A gaming machine characterized by having a transmission means (a function of executing a command selection process in the sound and light side MPU 62).

特徴K1によれば、複数の演出要素についての変動対象内容の組合せパターンにより契機対応演出の実行パターンが相違する構成であるため、契機対応演出の演出内容を多様化することが可能となる。この場合に、所定の演出要素の変動対象内容に対応する第1対応送信情報と、他の演出要素の変動対象内容に対応する第2対応送信情報とが区別して送信される構成であるため、演出要素の数を増減させる場合や、変動対象内容を変更する場合であっても、対応する演出要素の単位で対応送信情報の変更を行えばよいため、送信情報の設計の容易化が図られる。 According to the feature K1, since the execution pattern of the trigger response effect differs depending on the combination pattern of the variable target contents for the plurality of effect elements, it is possible to diversify the effect contents of the trigger response effect. In this case, since the first corresponding transmission information corresponding to the variable target content of the predetermined effect element and the second corresponding transmission information corresponding to the variable target content of the other effect element are transmitted separately. Even when the number of effect elements is increased or decreased or the content to be changed is changed, the corresponding transmission information can be changed in units of the corresponding effect elements, so that the design of the transmission information can be facilitated. ..

特徴K2.前記所定の演出要素及び前記他の演出要素のそれぞれは同時に実行される演出内容を決定付けることを特徴とする特徴K1に記載の遊技機。 Feature K2. The gaming machine according to feature K1, wherein each of the predetermined effect element and the other effect elements determines the effect content to be executed at the same time.

特徴K2によれば、同時に実行される演出内容を決定付ける複数の演出要素であっても、それら演出要素の変動対象内容を第2制御手段に特定させるための対応送信情報が演出要素の種類毎に送信される構成であるため、送信情報の設計の容易化が図られる。 According to the feature K2, even if there are a plurality of effect elements that determine the effect contents to be executed at the same time, the corresponding transmission information for causing the second control means to specify the variable target content of the effect elements is for each type of effect element. Since it is configured to be transmitted to, the design of transmission information can be facilitated.

特徴K3.前記第1制御手段は、前記契機対応演出を実行させるために必要な対応送信情報の全てを送信したことを示す終了送信情報(終了コマンド)を送信する終了送信手段(音光側MPU62におけるステップS509の処理を実行する機能)を備えていることを特徴とする特徴K1又はK2に記載の遊技機。 Feature K3. The first control means transmits end transmission information (end command) indicating that all of the corresponding transmission information necessary for executing the trigger response effect has been transmitted (step S509 in the sound / light side MPU 62). The gaming machine according to the feature K1 or K2, which is characterized by having a function of executing the processing of the above.

特徴K3によれば、演出要素の単位で対応送信情報が送信される構成において契機対応演出を実行させるために必要な対応送信情報の全てが送信された場合には終了送信情報が送信されるため、契機対応演出に含まれる演出要素の数を固定しなくても契機対応演出を実行するために必要な全ての対応送信情報の送信が完了したことを第2制御手段に認識させることが可能となる。 According to the feature K3, in the configuration in which the corresponding transmission information is transmitted in units of the effect elements, the end transmission information is transmitted when all the corresponding transmission information necessary for executing the trigger response effect is transmitted. It is possible to make the second control means recognize that the transmission of all the corresponding transmission information necessary for executing the trigger response effect is completed without fixing the number of effect elements included in the trigger response effect. Become.

特徴K4.前記第2制御手段は、
受信した前記対応送信情報を情報格納手段(コマンド格納バッファ101)に格納する格納実行手段(表示CPU72におけるコマンド割込み処理を実行する機能)と、
前記終了送信情報を受信した場合に、前記情報格納手段に格納されている複数の対応送信情報に対応する前記契機対応演出を実行するために用いられる参照情報(実行対象テーブル)を設定する参照情報設定手段(表示CPU72におけるコマンド対応処理を実行する機能)と、
を備えていることを特徴とする特徴K3に記載の遊技機。
Features K4. The second control means
A storage execution means (a function for executing command interrupt processing in the display CPU 72) for storing the received corresponding transmission information in the information storage means (command storage buffer 101), and
Reference information for setting reference information (execution target table) used for executing the trigger response effect corresponding to a plurality of corresponding transmission information stored in the information storage means when the end transmission information is received. Setting means (function to execute command correspondence processing in display CPU 72) and
The gaming machine according to the feature K3, which is characterized by having.

特徴K4によれば、第2制御手段は契機対応演出を実行するために必要な全ての対応送信情報を受信した後に、契機対応演出を実行するために用いられる参照情報を設定する構成であるため、演出要素の変動対象内容のそれぞれに対応する参照情報を設定するのではなく、全ての演出要素の変動対象内容の全てに対応する一の参照情報を設定することが可能となる。 According to the feature K4, the second control means has a configuration in which the reference information used for executing the trigger response effect is set after receiving all the corresponding transmission information necessary for executing the trigger response effect. , It is possible to set one reference information corresponding to all of the variable target contents of all the effect elements, instead of setting the reference information corresponding to each of the variable target contents of the effect element.

特徴K5.前記対応送信情報は、当該対応送信情報に対応する演出要素の大枠の内容を特定するための大枠情報(第1コマンドデータCD1)と、当該大枠情報に対応する大枠の内容に含まれる分岐内容のうちいずれを実行するのかを特定するための分岐情報(第2コマンドデータCD2、第3コマンドデータCD3)と、を含むことを特徴とする特徴K1乃至K4のいずれか1に記載の遊技機。 Feature K5. The corresponding transmission information includes the outline information (first command data CD1) for specifying the outline contents of the effect element corresponding to the corresponding transmission information, and the branch contents included in the outline contents corresponding to the outline information. The gaming machine according to any one of features K1 to K4, which includes branch information (second command data CD2, third command data CD3) for specifying which of the two to be executed.

特徴K5によれば、一の対応送信情報においても大枠情報と分岐情報とに区分けされているため、一の対応送信情報についても設計の容易化が図られる。 According to the feature K5, since the one correspondence transmission information is also divided into the outline information and the branch information, the design of the one correspondence transmission information can be facilitated.

特徴K6.前記第2制御手段は、同一の前記分岐情報の内容であっても前記大枠情報の内容により前記分岐情報から異なる内容を把握することを特徴とする特徴K5に記載の遊技機。 Feature K6. The gaming machine according to feature K5, wherein the second control means grasps different contents from the branch information depending on the contents of the outline information even if the contents of the same branch information are the same.

特徴K6によれば、複数の対応送信情報間において分岐情報が共通して使用される構成であるため、送信対応情報を予め記憶しておくために必要な記憶容量を抑えることが可能となる。 According to the feature K6, since the branch information is commonly used among the plurality of corresponding transmission information, it is possible to suppress the storage capacity required for storing the transmission correspondence information in advance.

なお、特徴K1〜K6のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features K1 to K6, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

上記特徴K群の発明は、以下の課題を解決することが可能である。 The invention of the above-mentioned feature K group can solve the following problems.

遊技機の一種として、パチンコ機やスロットマシン等が知られている。これらの遊技機では、一の制御手段から送信されたコマンドを利用して他の制御手段にて当該コマンドに対応した制御が実行される構成が知られている。 Pachinko machines, slot machines, and the like are known as a type of game machine. In these game machines, it is known that a command transmitted from one control means is used to execute control corresponding to the command by another control means.

例えば、パチンコ機においては遊技の進行を制御する主制御手段から送信されたコマンドに基づいて演出用の制御手段にて演出の実行制御が行われる構成や、一の演出用の制御手段から送信されたコマンドに基づいて他の演出用の制御手段にて演出の実行制御が行われる構成が知られている。 For example, in a pachinko machine, the execution control of the effect is performed by the control means for the effect based on the command transmitted from the main control means for controlling the progress of the game, or the control means for the effect is transmitted. It is known that the execution control of the production is performed by other control means for the production based on the command.

ここで、上記例示等のような遊技機においては、演出を実行させるために一の制御手段から他の制御手段に送信される送信情報の構成の好適化を図る必要があり、この点について未だ改良の余地がある。 Here, in a game machine such as the above example, it is necessary to optimize the configuration of transmission information transmitted from one control means to another control means in order to execute the effect, and this point is still considered. There is room for improvement.

<特徴L群>
特徴L1.開始契機が発生した場合に演算用情報(実行対象テーブル)を利用して演算処理を開始する演算実行手段(表示CPU72におけるタスク処理を実行する機能)と、
前記演算処理の演算結果を利用して特定処理を実行する結果利用手段(表示CPU72におけるステップS609の処理を実行する機能、VDP76)と、
を備え、
前記演算実行手段は、所定の実行回における前記演算処理の途中で終了条件が成立して当該演算処理を途中で終了させた場合、当該所定の実行回に対して次の実行回において当該所定の実行回にて利用対象として設定された前記演算用情報を利用した前記演算処理を実行するための再実行手段(表示CPU72におけるステップS606、ステップS610及びステップS916の処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic L group>
Feature L1. Arithmetic execution means (function to execute task processing in the display CPU 72) that starts arithmetic processing using arithmetic information (execution target table) when a start trigger occurs, and
A result utilization means (a function of executing the process of step S609 in the display CPU 72, VDP76) for executing a specific process using the calculation result of the calculation process, and
With
When the end condition is satisfied in the middle of the calculation process in the predetermined execution time and the calculation process is terminated in the middle of the calculation processing, the calculation execution means is said to be the predetermined in the next execution time with respect to the predetermined execution time. It is provided with a re-execution means (a function of executing the processes of steps S606, S610, and S916 in the display CPU 72) for executing the calculation process using the calculation information set as the usage target in the execution time. A game machine characterized by being.

特徴L1によれば、演算処理の途中で終了条件が成立した場合には当該演算処理が途中で終了される構成であるため、演算処理の処理時間が変動して他の処理の実行が大きく制限されてしまうという事象の発生を阻止することが可能となる。また、演算処理が途中で終了された場合には次の実行回の演算処理において、その途中で終了した演算処理にて利用対象とされた演算用情報を利用した演算処理が再度実行される。これにより、演算処理が途中で終了され得る構成であったとしても、各演算用情報を利用した演算処理の実行を完了させることが可能となる。 According to the feature L1, if the end condition is satisfied in the middle of the arithmetic processing, the arithmetic processing is terminated in the middle, so that the processing time of the arithmetic processing fluctuates and the execution of other processing is greatly restricted. It is possible to prevent the occurrence of the event of being done. In addition, when the arithmetic processing is terminated in the middle, in the arithmetic processing of the next execution time, the arithmetic processing using the arithmetic information used in the arithmetic processing terminated in the middle is executed again. As a result, even if the arithmetic processing can be terminated in the middle, it is possible to complete the execution of the arithmetic processing using each arithmetic information.

特徴L2.前記再実行手段は、前記所定の実行回に対して次の実行回において、前記所定の実行回にて終了した途中の内容から前記演算処理を再開することを特徴とする特徴L1に記載の遊技機。 Feature L2. The game according to feature L1, wherein the re-execution means restarts the arithmetic processing from the content in the middle of ending at the predetermined execution time in the next execution time with respect to the predetermined execution time. Machine.

特徴L2によれば、前回の実行回において利用対象となった演算用情報を利用した演算処理が再度実行される場合には、前回の実行回にて終了した途中の内容から演算処理が再開されるため、新たな実行回において再開した演算処理を終了するのに要する時間を短縮することが可能となる。 According to the feature L2, when the arithmetic processing using the arithmetic information used in the previous execution round is executed again, the arithmetic processing is restarted from the content in the middle of the end in the previous execution round. Therefore, it is possible to shorten the time required to end the restarted arithmetic processing in the new execution times.

特徴L3.前記演算処理は複数種類の個別演算処理(ステップS902、ステップS903、ステップS906、ステップS909、ステップS912〜ステップS914)を含み、前記演算処理の各実行回においてそれら複数種類の個別演算処理が順次実行対象となる構成であり、
前記演算実行手段は、前記個別演算処理の実行途中において前記終了させる条件が成立したとしても当該個別演算処理の終了後に今回の前記演算処理を終了させることを特徴とする特徴L2に記載の遊技機。
Feature L3. The arithmetic processing includes a plurality of types of individual arithmetic processing (step S902, step S903, step S906, step S909, step S912-step S914), and the plurality of types of individual arithmetic processing are sequentially executed at each execution time of the arithmetic processing. It is a target configuration,
The gaming machine according to feature L2, wherein the arithmetic execution means terminates the arithmetic processing this time after the completion of the individual arithmetic processing even if the condition for termination is satisfied during the execution of the individual arithmetic processing. ..

特徴L3によれば、演算処理が途中で終了される場合であっても個別演算処理の途中で終了されることはないため、演算処理を途中から再開するための情報の設定処理の複雑化を抑えることが可能となる。 According to the feature L3, even if the arithmetic processing is terminated in the middle, it is not terminated in the middle of the individual arithmetic processing, so that the information setting processing for restarting the arithmetic processing from the middle is complicated. It becomes possible to suppress it.

特徴L4.前記演算処理は定期的に実行条件が成立する定期処理(V割込み処理)の一部の処理として実行され、
前記演算実行手段は、前記演算処理の途中で前記終了条件として前記実行条件が成立することで、当該演算処理を途中で終了させることを特徴とする特徴L1乃至L3のいずれか1に記載の遊技機。
Feature L4. The arithmetic processing is executed as a part of the periodic processing (V interrupt processing) in which the execution condition is periodically satisfied.
The game according to any one of features L1 to L3, wherein the calculation execution means terminates the calculation process in the middle of the calculation process by satisfying the execution condition as the end condition in the middle of the calculation process. Machine.

特徴L4によれば、定期処理の定期的な実行を担保しながら、各演算用情報を利用した演算処理の実行を完了させることが可能となる。 According to the feature L4, it is possible to complete the execution of the arithmetic processing using each arithmetic information while ensuring the periodic execution of the periodic processing.

特徴L5.前記演算実行手段は、前記所定の実行回において前記演算処理を途中で終了させた場合であっても優先事象(報知用の実行対象テーブルのセット)が発生している場合には、当該所定の実行回に対して次の実行回において、前記所定の実行回にて利用対象として設定された前記演算用情報を利用するのではなく、前記優先事象に対応する前記演算用情報を利用した前記演算処理を実行することを特徴とする特徴L1乃至L4のいずれか1に記載の遊技機。 Feature L5. If a priority event (a set of execution target tables for notification) occurs even when the calculation process is terminated in the middle of the predetermined execution times, the calculation execution means is determined. In the next execution time with respect to the execution time, the calculation using the calculation information corresponding to the priority event is not used, instead of using the calculation information set as the usage target in the predetermined execution time. The gaming machine according to any one of features L1 to L4, characterized in that processing is executed.

特徴L5によれば、途中で終了した演算処理にて演算用情報を利用した演算処理の再開よりも、優先事象に対応する演算用情報を利用した演算処理の実行が優先されるため、優先事象に対応する演算用情報を利用した演算処理の実行を遅延させないようにしながら既に説明したような優れた効果を奏することが可能となる。 According to the feature L5, the execution of the arithmetic processing using the arithmetic information corresponding to the priority event is prioritized over the restart of the arithmetic processing using the arithmetic information in the arithmetic processing ended in the middle, so that the priority event It is possible to achieve the excellent effect as described above while not delaying the execution of the arithmetic processing using the arithmetic information corresponding to.

特徴L6.前記演算実行手段を有する特定制御手段は、前記再実行手段による前記演算処理の再実行の設定が行われることとなる場合、再実行対応情報(遅延コマンド)を送信する再実行対応送信手段(表示CPU72におけるステップS611の処理を実行する機能)を備えていることを特徴とする特徴L1乃至L5のいずれか1に記載の遊技機。 Feature L6. The specific control means having the arithmetic execution means transmits the re-execution correspondence information (delay command) when the re-execution of the arithmetic processing is set by the re-execution means (display). The gaming machine according to any one of features L1 to L5, which comprises a function of executing the process of step S611 in the CPU 72).

特徴L6によれば、所定の実行回における演算処理が途中で終了されるとともにその次の実行回において当該演算処理が再度実行される場合には再実行対応情報が送信されるため、特定制御手段以外の動作を当該演算処理の再実行に対応させることが可能となる。 According to the feature L6, when the arithmetic processing in a predetermined execution time is terminated in the middle and the arithmetic processing is executed again in the next execution time, the re-execution correspondence information is transmitted, so that the specific control means It is possible to make an operation other than the above correspond to the re-execution of the arithmetic processing.

特徴L7.前記特定制御手段とは別に所定制御手段(音光側MPU62)を備え、
当該所定制御手段は、前記再実行対応情報を受信した場合、所定処理の実行内容を調整する処理調整手段(音光側MPU62における表示側コマンド対応処理を実行する機能)を備えていることを特徴とする特徴L6に記載の遊技機。
Feature L7. A predetermined control means (sound light side MPU 62) is provided separately from the specific control means.
When the predetermined control means receives the re-execution correspondence information, the predetermined control means is provided with a processing adjustment means (a function of executing a display side command correspondence process in the sound / light side MPU 62) for adjusting the execution content of the predetermined process. The gaming machine according to the feature L6.

特徴L7によれば、演算処理の再実行が行われる場合には所定制御手段における所定処理の実行内容が調整されるため、特定処理の処理内容と所定処理の処理内容とを対応させることが可能となる。 According to the feature L7, when the arithmetic processing is re-executed, the execution content of the predetermined processing in the predetermined control means is adjusted, so that the processing content of the specific processing can be made to correspond to the processing content of the predetermined processing. It becomes.

特徴L8.前記結果利用手段は、前記特定処理として、前記演算処理の演算結果を利用して特定演出実行手段(図柄表示装置41)における演出の実行制御を行い、
前記所定制御手段は、前記所定処理として、所定演出実行手段(表示発光部44、スピーカ部45)における演出の実行制御を行うことを特徴とする特徴L7に記載の遊技機。
Feature L8. As the specific process, the result utilization means controls the execution of the effect in the specific effect execution means (symbol display device 41) by using the calculation result of the arithmetic process.
The gaming machine according to feature L7, wherein the predetermined control means controls the execution of the effect in the predetermined effect execution means (display / light emitting unit 44, speaker unit 45) as the predetermined process.

特徴L8によれば、特定演出実行手段における演出の実行制御を行うために実行される演算処理において演算結果の導出が遅延した場合には、所定演出実行手段における演出の実行制御を行うために実行される所定処理の処理内容も調整されるため、各演出実行手段における演出の内容を相互に対応させることが可能となる。 According to the feature L8, when the derivation of the calculation result is delayed in the arithmetic processing executed to control the execution of the effect in the specific effect executing means, it is executed to control the execution of the effect in the predetermined effect executing means. Since the processing content of the predetermined processing to be performed is also adjusted, it is possible to make the content of the effect in each effect executing means correspond to each other.

特徴L9.前記結果利用手段は、前記所定の実行回において前記演算処理の途中で前記終了条件が成立して当該演算処理を途中で終了させた場合、当該所定の実行回よりも前の実行回における前記演算処理の演算結果を利用して前記特定処理を実行することを特徴とする特徴L1乃至L8のいずれか1に記載の遊技機。 Feature L9. When the end condition is satisfied in the middle of the calculation process in the predetermined execution times and the calculation process is terminated in the middle, the result utilization means performs the calculation in the execution times before the predetermined execution times. The gaming machine according to any one of features L1 to L8, characterized in that the specific processing is executed by using the calculation result of the processing.

特徴L9によれば、演算処理が途中で終了される場合にはその演算途中の内容を利用して特定処理が実行されるのではなく、それよりも前に完了している演算処理の演算結果を利用して特定処理が実行されるため、特定処理の実行内容が異常な内容となってしまわないようにすることが可能となる。 According to the feature L9, when the calculation process is terminated in the middle, the specific process is not executed by using the contents in the middle of the calculation, but the calculation result of the calculation process completed before that. Since the specific process is executed by using the above, it is possible to prevent the executed content of the specific process from becoming abnormal.

なお、特徴L1〜L9のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。 It should be noted that, with respect to the configuration of any one of the features L1 to L9, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. , Features H1 to H8, Features I1 to I7, Features J1 to J2, Features K1 to K6, and Features L1 to L9 may be applied. This makes it possible to produce a synergistic effect due to the combined configuration.

上記特徴L群の発明は、以下の課題を解決することが可能である。 The invention of the above-mentioned feature L group can solve the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに制御プログラムが記憶されたメモリ等の素子が実装された制御手段を備えており、その制御手段において演算処理が実行されることを通じて遊技を行わせることを可能とするための制御が行われている。なお、CPUやメモリが個別に制御手段に実装されているのではなく、それらが集積化された状態で制御手段に実装された構成も知られている。 Pachinko game machines, slot machines, and the like are known as a type of game machine. These game machines are provided with control means in which a CPU is mounted and elements such as a memory in which a control program is stored are mounted, and the game is performed by executing arithmetic processing in the control means. Controls are being made to make this possible. It is also known that the CPU and the memory are not individually mounted on the control means, but are mounted on the control means in an integrated state.

ここで、上記例示等のような遊技機においては、制御手段における演算処理を好適に実行することが可能な構成が求められており、この点について未だ改良の余地がある。 Here, in a game machine such as the above example, there is a demand for a configuration capable of suitably executing arithmetic processing in a control means, and there is still room for improvement in this respect.

以下に、以上の各特徴を適用し得る又は各特徴に適用される遊技機の基本構成を示す。 The basic configuration of the gaming machine to which each of the above features can be applied or applied to each feature is shown below.

パチンコ遊技機:遊技者が操作する操作手段と、その操作手段の操作に基づいて遊技球を発射する遊技球発射手段と、その発射された遊技球を所定の遊技領域に導く球通路と、遊技領域内に配置された各遊技部品とを備え、それら各遊技部品のうち所定の通過部を遊技球が通過した場合に遊技者に特典を付与する遊技機。 Pachinko game machine: An operating means operated by a player, a game ball launching means for launching a game ball based on the operation of the operating means, a ball passage for guiding the launched game ball to a predetermined game area, and a game. A gaming machine that includes each gaming component arranged in an area, and gives a privilege to a player when a gaming ball passes through a predetermined passing portion of each gaming component.

スロットマシン等の回胴式遊技機:複数の絵柄を可変表示させる絵柄表示装置を備え、始動操作手段の操作に起因して前記複数の絵柄の可変表示が開始され、停止操作手段の操作に起因して又は所定時間経過することにより前記複数の絵柄の可変表示が停止され、その停止後の絵柄に応じて遊技者に特典を付与する遊技機。 Rotating game machine such as a slot machine: Equipped with a picture display device for variably displaying a plurality of pictures, the variable display of the plurality of pictures is started due to the operation of the start operation means, and is caused by the operation of the stop operation means. A gaming machine in which the variable display of the plurality of symbols is stopped after a lapse of a predetermined time, and a privilege is given to the player according to the symbols after the stop.

10…パチンコ機、41…図柄表示装置、44…表示発光部、45…スピーカ部、62…音光側MPU、72…表示CPU、74…メモリモジュール、76…VDP、81…展開用バッファ、82…フレームバッファ、93…動画デコーダ、101…コマンド格納バッファ、121…単位エリア、122…ピクセル、131…表示CPU、133…メモリモジュール、135…VDP、142…フレームバッファ、151…ジオメトリ演算部、152…レンダリング部、169…座標演算用エリア、ABD1〜ABD50…ボーンデータ、AD1〜AD4…アニメーションデータ、BF1…描画用バッファ、BF2〜BF5…保存用バッファ、BG…地面画像、BGD…地面用オブジェクトデータ、BMD…ベース動画データ、BOD1〜BOD50…ボーンデータ、BSD…平面影用板状オブジェクトデータ、BST1…第1平面影用テクスチャデータ、BST2…第2平面影用テクスチャデータ、BTD1…テクスチャデータ、BTD2…集合用テクスチャデータ、CD1〜CD3…コマンドデータ、CH1…色替え演出用キャラクタ、CH2…エフェクト演出用キャラクタ、CH8…ループ演出用Aキャラクタ、CH9…ループ演出用Bキャラクタ、CH10…ボーン表示用キャラクタ、CH11…演出用キャラクタ、CH12…影画像、CH13…演出用キャラクタ、CH14…影画像、CH15…演出用キャラクタ、CH16〜CH18…図柄表示部、CHG1〜CHG5…集合単位キャラクタ、CR…色替え対象領域、ED5…通常エフェクト用画像データ、ED6…簡易エフェクト用画像データ、EG2…エフェクト画像、EG6…増加時用エフェクト画像、FRD1…骨格データ、FRD2…集合用骨格データ、GSD…背景用板状オブジェクトデータ、GTD1…背景用テクスチャデータ、GTD2,GTD3…屈折用テクスチャデータ、P…表示面、PD1〜PD3…パーツ画像データ、SG…階段画像、SGD…階段用オブジェクトデータ、SKD1…皮膚データ、SKD2…集合用皮膚データ、SSD…段差影用板状オブジェクトデータ。 10 ... Pachinko machine, 41 ... Design display device, 44 ... Display light emitting unit, 45 ... Speaker unit, 62 ... Sound / light side MPU, 72 ... Display CPU, 74 ... Memory module, 76 ... VDP, 81 ... Expansion buffer, 82 ... Frame buffer, 93 ... Video decoder, 101 ... Command storage buffer, 121 ... Unit area, 122 ... Pixel, 131 ... Display CPU, 133 ... Memory module, 135 ... VDP, 142 ... Frame buffer, 151 ... Geometry calculation unit, 152 ... Rendering unit 169 ... Coordinate calculation area, ABD1 to ABD50 ... Bone data, AD1 to AD4 ... Animation data, BF1 ... Drawing buffer, BF2 to BF5 ... Storage buffer, BG ... Ground image, BGD ... Ground object data , BMD ... Base video data, BOD1 to BOD50 ... Bone data, BSD ... Plate-shaped object data for plane shadow, BST1 ... Texture data for first plane shadow, BST2 ... Texture data for second plane shadow, BTD1 ... Texture data, BTD2 ... Assembly texture data, CD1 to CD3 ... Command data, CH1 ... Color change effect character, CH2 ... Effect effect character, CH8 ... Loop effect A character, CH9 ... Loop effect B character, CH10 ... Bone display character , CH11 ... Production character, CH12 ... Shadow image, CH13 ... Production character, CH14 ... Shadow image, CH15 ... Production character, CH16 to CH18 ... Design display unit, CHG1 to CHG5 ... Group unit character, CR ... Color change target Area, ED5 ... Normal effect image data, ED6 ... Simple effect image data, EG2 ... Effect image, EG6 ... Increase effect image, FRD1 ... Skeletal data, FRD2 ... Aggregate skeleton data, GSD ... Background plate-like object Data, GTD1 ... Background texture data, GTD2, GTD3 ... Refraction texture data, P ... Display surface, PD1-PD3 ... Parts image data, SG ... Stairs image, SGD ... Stairs object data, SKD1 ... Skin data, SKD2 ... Skin data for gathering, SSD ... Plate-shaped object data for step shadow.

Claims (1)

表示部を有する表示手段と、
データ生成手段によって生成された生成データを用いて前記表示部に画像を表示させる表示制御手段と、
を備え、
前記データ生成手段は、前記生成データを生成するために用いられる制御情報を導出する情報導出手段を備え、
当該情報導出手段は、
導出用記憶手段を導出前状態に設定する導出前設定手段と、
前記導出前状態に設定された前記導出用記憶手段を利用して前記制御情報を導出する導出実行手段と、
を備え、
前記導出前設定手段による前記導出前状態への設定は、一の画像の更新タイミングにおける前記生成データを生成するために複数回実行され得る構成であり、
前記導出実行手段は、前記導出前設定手段により前記導出前状態の設定が行われた後であって当該導出前状態の設定が新たに行われる前に、複数種類の個別画像に対応した前記制御情報を導出する複数対応導出手段を備えていることを特徴とする遊技機。
A display means having a display unit and
A display control means for displaying an image on the display unit using the generated data generated by the data generation means, and
With
The data generation means includes information deriving means for deriving control information used for generating the generated data.
The information derivation means is
Pre-derivation setting means that sets the derivation storage means to the pre-derivative state,
A derivation execution means for deriving the control information by using the derivation storage means set in the pre-derivation state,
With
The setting to the pre-derivation state by the pre-derivation setting means is a configuration that can be executed a plurality of times to generate the generated data at the update timing of one image.
The derivation execution means is the control corresponding to a plurality of types of individual images after the pre-derivation state is set by the pre-derivation setting means and before the pre-derivation state is newly set. A gaming machine characterized in that it is equipped with multiple correspondence derivation means for deriving information.
JP2020189961A 2020-11-16 2020-11-16 Game machine Pending JP2021013844A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020189961A JP2021013844A (en) 2020-11-16 2020-11-16 Game machine
JP2021150679A JP7120421B2 (en) 2020-11-16 2021-09-16 game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020189961A JP2021013844A (en) 2020-11-16 2020-11-16 Game machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018227749A Division JP2019037848A (en) 2018-12-05 2018-12-05 Game machine

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021150679A Division JP7120421B2 (en) 2020-11-16 2021-09-16 game machine

Publications (1)

Publication Number Publication Date
JP2021013844A true JP2021013844A (en) 2021-02-12

Family

ID=74531149

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020189961A Pending JP2021013844A (en) 2020-11-16 2020-11-16 Game machine
JP2021150679A Active JP7120421B2 (en) 2020-11-16 2021-09-16 game machine

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021150679A Active JP7120421B2 (en) 2020-11-16 2021-09-16 game machine

Country Status (1)

Country Link
JP (2) JP2021013844A (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188028A (en) * 1996-10-31 1998-07-21 Konami Co Ltd Animation image generating device by skeleton, method for generating the animation image and medium storing program for generating the animation image
JP2001067494A (en) * 1999-08-26 2001-03-16 Namco Ltd Image generation system and information storage medium
JP2001231984A (en) * 2000-02-21 2001-08-28 Heiwa Corp Variable image display device and method for displaying variable image
JP2005216106A (en) * 2004-01-30 2005-08-11 Samii Kk Image processing apparatus and method and program thereof
JP2007222413A (en) * 2006-02-23 2007-09-06 Namco Bandai Games Inc Program, information storage medium and game apparatus
JP2008237327A (en) * 2007-03-26 2008-10-09 Samii Kk Image generator and image generation program
JP2008299693A (en) * 2007-06-01 2008-12-11 Konami Digital Entertainment:Kk Character display device, character display method, and program
JP2009070340A (en) * 2007-09-18 2009-04-02 Namco Bandai Games Inc Skeleton operation control system, program, and information storage medium
JP2010287191A (en) * 2009-06-15 2010-12-24 Namco Bandai Games Inc Program, information storage medium and image generating system
JP2013163048A (en) * 2013-05-22 2013-08-22 Sanyo Product Co Ltd Game machine
JP2014114042A (en) * 2012-12-10 2014-06-26 Toppan Printing Co Ltd Packaging bag with steam vent function

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4556394B2 (en) * 2003-08-28 2010-10-06 株式会社竹屋 Game machine
JP5164011B2 (en) * 2009-05-17 2013-03-13 株式会社大都技研 Amusement stand
JP2010184153A (en) * 2010-06-03 2010-08-26 Sanyo Product Co Ltd Game machine
JP5604230B2 (en) * 2010-08-31 2014-10-08 京楽産業.株式会社 Game machine

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188028A (en) * 1996-10-31 1998-07-21 Konami Co Ltd Animation image generating device by skeleton, method for generating the animation image and medium storing program for generating the animation image
JP2001067494A (en) * 1999-08-26 2001-03-16 Namco Ltd Image generation system and information storage medium
JP2001231984A (en) * 2000-02-21 2001-08-28 Heiwa Corp Variable image display device and method for displaying variable image
JP2005216106A (en) * 2004-01-30 2005-08-11 Samii Kk Image processing apparatus and method and program thereof
JP2007222413A (en) * 2006-02-23 2007-09-06 Namco Bandai Games Inc Program, information storage medium and game apparatus
JP2008237327A (en) * 2007-03-26 2008-10-09 Samii Kk Image generator and image generation program
JP2008299693A (en) * 2007-06-01 2008-12-11 Konami Digital Entertainment:Kk Character display device, character display method, and program
JP2009070340A (en) * 2007-09-18 2009-04-02 Namco Bandai Games Inc Skeleton operation control system, program, and information storage medium
JP2010287191A (en) * 2009-06-15 2010-12-24 Namco Bandai Games Inc Program, information storage medium and image generating system
JP2014114042A (en) * 2012-12-10 2014-06-26 Toppan Printing Co Ltd Packaging bag with steam vent function
JP2013163048A (en) * 2013-05-22 2013-08-22 Sanyo Product Co Ltd Game machine

Also Published As

Publication number Publication date
JP2021184969A (en) 2021-12-09
JP7120421B2 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
JP6394073B2 (en) Game machine
JP6036749B2 (en) Game machine
JP2018164742A (en) Game machine
JP6287593B2 (en) Game machine
JP6060936B2 (en) Game machine
JP7095782B2 (en) Pachinko machine
JP6446841B2 (en) Game machine
JP6090237B2 (en) Game machine
JP7107416B2 (en) game machine
JP7120418B2 (en) game machine
JP7120422B2 (en) game machine
JP7235091B2 (en) game machine
JP2021013844A (en) Game machine
JP2021003654A (en) Game machine
JP2020157079A (en) Game machine
JP2020163231A (en) Game machine
JP2021192888A (en) Game machine
JP6354826B2 (en) Game machine
JP6492421B2 (en) Game machine
JP2020114463A (en) Game machine
JP2015226690A (en) Game machine
JP2019037848A (en) Game machine
JP2019000695A (en) Game machine
JP2018183662A (en) Game machine
JP2018089486A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220412