JP6090237B2 - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP6090237B2
JP6090237B2 JP2014114043A JP2014114043A JP6090237B2 JP 6090237 B2 JP6090237 B2 JP 6090237B2 JP 2014114043 A JP2014114043 A JP 2014114043A JP 2014114043 A JP2014114043 A JP 2014114043A JP 6090237 B2 JP6090237 B2 JP 6090237B2
Authority
JP
Japan
Prior art keywords
data
display
image data
effect
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014114043A
Other languages
Japanese (ja)
Other versions
JP2015226683A (en
Inventor
紀幸 永井
紀幸 永井
岡村 鉉
鉉 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2014114043A priority Critical patent/JP6090237B2/en
Publication of JP2015226683A publication Critical patent/JP2015226683A/en
Application granted granted Critical
Publication of JP6090237B2 publication Critical patent/JP6090237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、遊技機に関するものである。   The present invention relates to a gaming machine.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる(例えば特許文献1参照)。   As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. (For example, refer to Patent Document 1).

特開2009−261415号公報JP 2009-261415 A

ここで、上記例示等のような遊技機においては、表示制御を好適に行うことが可能な構成が求められており、この点について未だ改良の余地がある。   Here, in the gaming machines such as the above-described examples, a configuration capable of suitably performing display control is required, and there is still room for improvement in this respect.

本発明は、上記例示した事情等に鑑みてなされたものであり、表示制御を好適に行うことが可能な遊技機を提供することを目的とするものである。   The present invention has been made in view of the circumstances exemplified above, and an object thereof is to provide a gaming machine capable of suitably performing display control.

上記課題を解決すべく請求項1記載の発明は、仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段と、前記仮想3次元空間に視点を設定する視点設定手段と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段と、を有するデータ生成手段によって生成された生成データを記憶する生成データ記憶手段と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段に表示させる表示制御手段と、
を備えている遊技機において、
前記配置手段は、第1個別画像の影画像及び反射画像のうちいずれかである対応画像を第2個別画像の一部に対して重ねるようにして表示する場合、前記対応画像を表示するためのオブジェクトデータである対応オブジェクトデータを、前記第2個別画像を表示するためのオブジェクトデータとは別に前記仮想3次元空間に配置するものであり、
前記データ生成手段は、前記オブジェクトデータに対してテクスチャデータを設定するテクスチャ設定手段を備え、
当該テクスチャ設定手段は、前記第1個別画像の表示位置が変更される場合、前記仮想3次元空間における前記対応オブジェクトデータの位置が変更されない状況において前記対応画像を表示するためのテクスチャデータの前記対応オブジェクトデータに対する設定位置関係を変更する設定位置変更手段を備えていることを特徴とする。
In order to solve the above-mentioned problem, the invention according to claim 1 includes an arrangement unit that arranges object data that is three-dimensional information in a virtual three-dimensional space, a viewpoint setting unit that sets a viewpoint in the virtual three-dimensional space, Generation data generated by a data generation unit having projection setting unit that projects the object data onto a projection plane set based on a viewpoint and generates generation data based on the data projected on the projection plane Generated data storage means for storing
Display control means for causing the display means to display an image corresponding to the generated data stored in the generated data storage means;
In gaming machines equipped with
The arrangement means displays the corresponding image when displaying the corresponding image that is one of the shadow image and the reflection image of the first individual image so as to overlap a part of the second individual image. Corresponding object data that is object data is arranged in the virtual three-dimensional space separately from object data for displaying the second individual image ,
The data generation means includes texture setting means for setting texture data for the object data,
The texture setting means, when the display position of the first individual image is changed, the correspondence of the texture data for displaying the corresponding image in a situation where the position of the corresponding object data in the virtual three-dimensional space is not changed A setting position changing means for changing the setting position relationship with respect to the object data is provided .

本発明によれば、表示制御を好適に行うことが可能となる。   According to the present invention, it is possible to suitably perform display control.

第1の実施形態におけるパチンコ機を示す斜視図である。It is a perspective view which shows the pachinko machine in 1st Embodiment. 遊技盤の構成を示す正面図である。It is a front view which shows the structure of a game board. (a)〜(j)図柄表示装置の表示面における表示内容を説明するための説明図である。(A)-(j) It is explanatory drawing for demonstrating the display content on the display surface of a symbol display apparatus. (a),(b)図柄表示装置の表示面における表示内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the display content on the display surface of a symbol display apparatus. パチンコ機の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a pachinko machine. 当否抽選などに用いられる各種カウンタの内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of the various counters used for a success or failure lottery. 主制御装置のMPUにて実行されるメイン処理を示すフローチャートである。It is a flowchart which shows the main process performed in MPU of a main controller. 主制御装置のMPUにて実行されるタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interruption process performed in MPU of a main controller. 音光側MPUにて実行されるタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interruption process performed in sound light side MPU. 音光側MPUにて実行される主側コマンド対応処理を示すフローチャートである。It is a flowchart which shows the main side command corresponding | compatible process performed in the sound light side MPU. 制御パターンテーブルを説明するための説明図である。It is explanatory drawing for demonstrating a control pattern table. (a)〜(c)音光側MPUから表示CPU72に送信されるコマンドの内容を説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the content of the command transmitted to the display CPU72 from MPU. 各コマンドデータにより指示される内容を説明するための説明図である。It is explanatory drawing for demonstrating the content instruct | indicated by each command data. 音光側MPUにて実行されるコマンド選択処理を示すフローチャートである。It is a flowchart which shows the command selection process performed in sound light side MPU. 表示CPUにて実行されるV割込み処理を示すフローチャートである。It is a flowchart which shows the V interruption process performed with display CPU. (a)表示CPUにて実行されるコマンド解析処理を示すフローチャートであり、(b)コマンド格納バッファを説明するための説明図である。(A) It is a flowchart which shows the command analysis process performed with display CPU, (b) It is explanatory drawing for demonstrating a command storage buffer. 表示CPUにて実行されるコマンド対応処理を示すフローチャートである。It is a flowchart which shows the command corresponding | compatible process performed with display CPU. 参照テーブルを説明するための説明図である。It is explanatory drawing for demonstrating a reference table. 表示CPUにて実行されるタスク処理を示すフローチャートである。It is a flowchart which shows the task process performed by display CPU. 音光側MPUにて実行される表示側コマンド対応処理を示すフローチャートである。It is a flowchart which shows the display side command corresponding | compatible process performed in the sound light side MPU. タスク処理との関係で実行対象テーブルのポインタ情報の調整が行われる様子を示すタイムチャートである。It is a time chart which shows a mode that the pointer information of an execution object table is adjusted in relation to a task process. (a)〜(c)描画リストの内容を説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the content of the drawing list. VDPにて実行される描画処理を示すフローチャートである。It is a flowchart which shows the drawing process performed by VDP. (a)〜(c)色替え演出の内容を説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the content of the color change effect. (a)色替え演出を実行するためのメモリモジュールのデータ構成を説明するための説明図であり、(b)カラーパレットを説明するための説明図である。(A) It is explanatory drawing for demonstrating the data structure of the memory module for performing a color change effect, (b) It is explanatory drawing for demonstrating a color palette. 表示CPUにて実行される色替え演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for the color change effect performed with display CPU. VDPにて実行される色替え演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the color change effect performed by VDP. VDPにて実行される色替え演出用の書き込み処理を示すフローチャートである。It is a flowchart which shows the write-in process for the color change effect performed with VDP. (a)〜(e)エフェクト演出を説明するための説明図である。(A)-(e) It is explanatory drawing for demonstrating an effect production. 表示CPUにて実行されるエフェクト演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for the effect production performed with display CPU. VDPにて実行されるエフェクト演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the effect production performed by VDP. VDPにて実行されるエフェクト演出用の書き込み処理を示すフローチャートである。It is a flowchart which shows the write processing for the effect production performed by VDP. (a)〜(e)発展演出を説明するための説明図である。(A)-(e) It is explanatory drawing for demonstrating a development effect. 各エフェクト用画像データを利用して発展演出が実行される様子を示すタイムチャートである。It is a time chart which shows a mode that an expansion effect is performed using each image data for effects. 表示CPUにて実行される発展演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for the expansion effect performed with display CPU. VDPにて実行される発展演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the expansion effect performed in VDP. (a)同時表示演出を説明するための説明図であり、(b)同時表示演出を実行するためのデータ構成を説明するための説明図であり、(c)増加時用エフェクト画像を表示するための画像データを説明するための説明図である。(A) It is explanatory drawing for demonstrating simultaneous display effect, (b) It is explanatory drawing for demonstrating the data structure for performing simultaneous display effect, (c) The effect image for increase is displayed. It is explanatory drawing for demonstrating the image data for. 増加時用エフェクト画像を表示するための画像データとして、通常エフェクト用画像データ及び簡易エフェクト用画像データが使い分けられる様子を示すタイムチャートである。It is a time chart which shows a mode that the image data for normal effects and the image data for simple effects are used properly as image data for displaying the effect image for increase. 表示CPUにて実行される同時表示演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for simultaneous display effects performed with display CPU. VDPにて実行される同時表示演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for simultaneous display effects performed with VDP. 第2の実施形態におけるパチンコ機の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the pachinko machine in 2nd Embodiment. 表示CPUにて実行されるタスク処理を示すフローチャートである。It is a flowchart which shows the task process performed by display CPU. (a)〜(c)描画リストの内容を説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the content of the drawing list. VDPにて実行される描画処理を示すフローチャートである。It is a flowchart which shows the drawing process performed by VDP. 描画処理の実行に伴い描画データが作成される様子を説明するための説明図である。It is explanatory drawing for demonstrating a mode that drawing data is produced with execution of a drawing process. (a),(b)ループ演出を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating a loop production. (a)ループ演出を実行するためのデータ構成を説明するための説明図であり、(b)配合テーブルを説明するための説明図である。(A) It is explanatory drawing for demonstrating the data structure for performing a loop effect, (b) It is explanatory drawing for demonstrating a mixing | blending table. ループ演出が実行される様子を示すタイムチャートである。It is a time chart which shows a mode that a loop effect is performed. 表示CPUにて実行されるループ演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for the loop production performed by display CPU. 表示CPUにて実行される補間表示期間用処理を示すフローチャートである。It is a flowchart which shows the process for interpolation display periods performed with display CPU. ループ演出用Aキャラクタ及びループ演出用Bキャラクタについて配合による座標データの導出が開始されるタイミングを示すタイムチャートである。It is a time chart which shows the timing which derivation | leading-out of the coordinate data by a mixing | blending is started about A character for loop effects, and B character for loop effects. VDPにて実行されるループ演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the loop production performed by VDP. 先開始対象決定用テーブルを説明するための説明図である。It is explanatory drawing for demonstrating a pre-start object determination table. 表示CPUにて実行される補間表示期間用処理を示すフローチャートである。It is a flowchart which shows the process for interpolation display periods performed with display CPU. (a),(b)ボーンモデル表示の内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the content of a bone model display. ボーンモデル表示を行うためのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure for performing a bone model display. (a)骨格データを説明するための説明図であり、(b)座標演算用エリアを説明するための説明図である。(A) It is explanatory drawing for demonstrating frame | skeleton data, (b) It is explanatory drawing for demonstrating the area for coordinate calculation. 表示CPUにて実行されるボーンモデル表示演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for the bone model display effects performed with display CPU. 表示CPUにて実行される座標演算処理を示すフローチャートである。It is a flowchart which shows the coordinate calculation process performed with display CPU. VDPにて実行されるボーンモデル表示演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the bone model display effects performed with VDP. (a),(b)集合キャラクタ群を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating a set character group. 各集合単位キャラクタの骨格データを説明するための説明図である。It is explanatory drawing for demonstrating the skeleton data of each set unit character. (a)〜(c)ボーン表示用キャラクタと集合単位キャラクタとの各データ量を比較するための説明図である。(A)-(c) It is explanatory drawing for comparing each data amount of the character for bone | frame display, and a set unit character. 集合用ボーンアニメーションデータを説明するための説明図である。It is explanatory drawing for demonstrating the bone animation data for aggregation. (a),(b)各集合単位キャラクタの動作内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the operation | movement content of each set unit character. (a),(b)平面影表示の内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the content of a plane shadow display. 平面影表示を行うために必要なデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating a data structure required in order to perform a plane shadow display. 表示CPUにて実行される平面影表示用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for plane shadow display performed with display CPU. VDPにて実行される平面影表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for plane shadow display performed by VDP. (a),(b)平面影表示の別形態の内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the content of another form of a plane shadow display. 表示CPUにて実行される平面影表示用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for plane shadow display performed with display CPU. (a)段差影表示の内容を説明するための説明図であり、(b)段差影表示を行うために必要なデータ構成を説明するための説明図である。(A) It is explanatory drawing for demonstrating the content of level | step difference shadow display, (b) It is explanatory drawing for demonstrating the data structure required in order to perform level | step difference shadow display. 表示CPUにて実行される段差影表示用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for level | step difference shadow display performed with display CPU. VDPにて実行される段差影表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the step shadow display performed in VDP. (a)変動表示演出の内容を説明するための説明図であり、(b)VRAMの展開用バッファにおいて変動表示演出の実行に際して利用されるエリアの構成を説明するための説明図である。(A) It is explanatory drawing for demonstrating the content of a variable display effect, (b) It is explanatory drawing for demonstrating the structure of the area utilized when performing the variable display effect in the expansion | deployment buffer of VRAM. 表示CPUにて実行される変動表示演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for the variable display effects performed with display CPU. VDPにて実行される変動表示演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the fluctuation | variation display effects performed by VDP. VDPにて実行される変動表示演出用の描画データ作成処理を示すフローチャートである。It is a flowchart which shows the drawing data creation process for the variable display effects performed by VDP. (a)〜(c)各保存用バッファに保存された図柄表示部の描画データを説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the drawing data of the symbol display part preserve | saved at each preservation | save buffer. (a)〜(e)各保存用バッファに保存された描画データを利用して変動表示演出用画像の描画データが作成される様子を説明するための説明図である。(A)-(e) It is explanatory drawing for demonstrating a mode that the drawing data of the image for a variable display effect are produced using the drawing data preserve | saved at each buffer for preservation | save. (a),(b)歪み背景表示の内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the content of a distortion background display. (a)〜(c)歪み背景表示を行うための画像データを説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the image data for performing a distortion background display. 表示CPUにて実行される歪み背景表示用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for distortion background display performed with display CPU. VDPにて実行される歪み背景表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the distortion background display performed by VDP. VDPにて実行される屈折適用処理を示すフローチャートである。It is a flowchart which shows the refraction application process performed in VDP.

<第1の実施形態>
以下、遊技機の一種であるパチンコ遊技機(以下、「パチンコ機」という)の第1の実施形態を、図面に基づいて詳細に説明する。図1はパチンコ機10の斜視図である。
<First Embodiment>
Hereinafter, a first embodiment of a pachinko gaming machine (hereinafter referred to as “pachinko machine”), which is a type of gaming machine, will be described in detail with reference to the drawings. FIG. 1 is a perspective view of the pachinko machine 10.

パチンコ機10は、図1に示すように、当該パチンコ機10の外殻を形成する外枠11と、この外枠11に対して前方に回動可能に取り付けられた遊技機本体12とを有する。遊技機本体12は、内枠13と、その内枠13の前方に配置される前扉枠14と、内枠13の後方に配置される裏パックユニット15とを備えている。遊技機本体12のうち内枠13が外枠11に対して回動可能に支持されている。詳細には、正面視で左側を回動基端側とし右側を回動先端側として内枠13が前方へ回動可能とされている。内枠13には、前扉枠14が回動可能に支持されており、正面視で左側を回動基端側とし右側を回動先端側として前方へ回動可能とされている。また、内枠13には、裏パックユニット15が回動可能に支持されており、正面視で左側を回動基端側とし右側を回動先端側として後方へ回動可能とされている。   As shown in FIG. 1, the pachinko machine 10 includes an outer frame 11 that forms an outer shell of the pachinko machine 10, and a gaming machine body 12 that is rotatably attached to the outer frame 11. . The gaming machine main body 12 includes an inner frame 13, a front door frame 14 disposed in front of the inner frame 13, and a back pack unit 15 disposed behind the inner frame 13. The inner frame 13 of the gaming machine main body 12 is supported so as to be rotatable with respect to the outer frame 11. Specifically, the inner frame 13 can be rotated forward with the left side as a rotation base end side and the right side as a rotation front end side in front view. A front door frame 14 is rotatably supported by the inner frame 13 and can be rotated forward with the left side as a rotation base end side and the right side as a rotation front end side in a front view. Further, the back pack unit 15 is rotatably supported on the inner frame 13, and can be rotated backward with the left side as a rotation base end side and the right side as a rotation front end side in a front view.

なお、遊技機本体12には、その回動先端部に施錠装置が設けられており、遊技機本体12を外枠11に対して開放不能に施錠状態とする機能を有しているとともに、前扉枠14を内枠13に対して開放不能に施錠状態とする機能を有している。これらの各施錠状態は、パチンコ機10前面にて露出させて設けられたシリンダ錠17に対して解錠キーを用いて解錠操作を行うことにより、それぞれ解除される。   The gaming machine main body 12 is provided with a locking device at the rotating tip, and has a function of locking the gaming machine main body 12 to the outer frame 11 so that it cannot be opened. The door frame 14 has a function of locking the door frame 14 to the inner frame 13 so as not to be opened. Each of these locked states is released by performing an unlocking operation using the unlocking key on the cylinder lock 17 that is exposed on the front surface of the pachinko machine 10.

内枠13には遊技盤24が搭載されている。図2は遊技盤24の正面図である。   A game board 24 is mounted on the inner frame 13. FIG. 2 is a front view of the game board 24.

遊技盤24には、遊技領域PAの外縁の一部を区画するようにして内レール部25と外レール部26とが取り付けられており、これら内レール部25と外レール部26とにより誘導手段としての誘導レールが構成されている。内枠13において遊技盤24の下方に取り付けられた遊技球発射機構(図示略)から発射された遊技球は誘導レールにより遊技領域PAの上部に案内されるようになっている。遊技球発射機構は、前扉枠14に設けられた発射操作装置28が手動操作されることにより遊技球の発射動作を行う。   An inner rail portion 25 and an outer rail portion 26 are attached to the game board 24 so as to partition a part of the outer edge of the game area PA. The inner rail portion 25 and the outer rail portion 26 provide guidance means. As a guide rail, it is configured. A game ball launched from a game ball launching mechanism (not shown) attached below the game board 24 in the inner frame 13 is guided to the upper part of the game area PA by a guide rail. The game ball launch mechanism performs a game ball launch operation by manually operating the launch operation device 28 provided on the front door frame 14.

遊技盤24には、前後方向に貫通する大小複数の開口部が形成されている。各開口部には一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34、スルーゲート35、可変表示ユニット36、特図ユニット37及び普図ユニット38等がそれぞれ設けられている。   The game board 24 has a plurality of large and small openings penetrating in the front-rear direction. Each opening is provided with a general winning port 31, a special electricity winning device 32, a first operating port 33, a second operating port 34, a through gate 35, a variable display unit 36, a special drawing unit 37, a universal drawing unit 38, and the like. ing.

スルーゲート35への入球が発生したとしても遊技球の払い出しは実行されない。一方、一般入賞口31、特電入賞装置32、第1作動口33及び第2作動口34への入球が発生すると、所定数の遊技球の払い出しが実行される。当該賞球個数について具体的には、第1作動口33への入球が発生した場合又は第2作動口34への入球が発生した場合には、3個の賞球の払い出しが実行され、一般入賞口31への入球が発生した場合には、10個の賞球の払い出しが実行され、特電入賞装置32への入球が発生した場合には、15個の賞球の払い出しが実行される。   Even if a ball enters the through gate 35, the game ball is not paid out. On the other hand, when a ball enters the general winning port 31, the special electricity winning device 32, the first operating port 33, and the second operating port 34, a predetermined number of game balls are paid out. Specifically, with respect to the number of prize balls, when a ball enters the first working port 33 or a ball enters the second working port 34, three prize balls are paid out. When a ball is entered into the general winning port 31, 10 prize balls are paid out. When a ball is entered into the special electric prize device 32, 15 prize balls are paid out. Executed.

なお、上記賞球個数は任意であり、例えば、第2作動口34の方が第1作動口33よりも賞球個数が少ない構成としてもよく、第2作動口34の方が第1作動口33よりも賞球個数が多い構成としてもよい。   The number of prize balls may be arbitrary. For example, the second actuation port 34 may have a smaller number of prize balls than the first actuation port 33, and the second actuation port 34 may be configured as the first actuation port. The number of prize balls may be larger than 33.

その他に、遊技盤24の最下部にはアウト口24aが設けられており、各種入賞口等に入らなかった遊技球はアウト口24aを通って遊技領域PAから排出される。また、遊技盤24には、遊技球の落下方向を適宜分散、調整等するために多数の釘24bが植設されているとともに、風車等の各種部材が配設されている。   In addition, an out port 24a is provided at the bottom of the game board 24, and game balls that have not entered various winning ports etc. are discharged from the game area PA through the out port 24a. In addition, the game board 24 is provided with a large number of nails 24b and various members such as a windmill in order to disperse and adjust the falling direction of the game ball as appropriate.

ここで、入球とは所定の開口部を遊技球が通過することを意味し、開口部を通過した後に遊技領域PAから排出される態様だけでなく、開口部を通過した後に遊技領域PAから排出されることなく遊技領域PAの流下を継続する態様も含まれる。但し、以下の説明では、アウト口24aへの遊技球の入球と明確に区別するために、一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34及びスルーゲート35への遊技球の入球を、入賞とも表現する。   Here, the entry ball means that the game ball passes through a predetermined opening, and not only the mode of discharging from the game area PA after passing through the opening, but also from the game area PA after passing through the opening. A mode in which the game area PA continues to flow down without being discharged is also included. However, in the following description, in order to clearly distinguish the game ball from entering the out port 24a, the general winning port 31, the special prize winning device 32, the first operating port 33, the second operating port 34, and the through gate 35 are provided. Entering a game ball into is also expressed as a prize.

第1作動口33及び第2作動口34は、作動口装置としてユニット化されて遊技盤24に設置されている。第1作動口33及び第2作動口34は共に上向きに開放されている。また、第1作動口33が上方となるようにして両作動口33,34は鉛直方向に並んでいる。第2作動口34には、左右一対の可動片よりなるガイド片としての普電役物34aが設けられている。普電役物34aの閉鎖状態では遊技球が第2作動口34に入賞できず、普電役物34aが開放状態となることで第2作動口34への入賞が可能となる。   The first operating port 33 and the second operating port 34 are unitized as operating port devices and are installed in the game board 24. Both the first working port 33 and the second working port 34 are opened upward. Further, both the operation ports 33 and 34 are arranged in the vertical direction so that the first operation port 33 is located on the upper side. The second operating port 34 is provided with a general electric utility 34a as a guide piece composed of a pair of left and right movable pieces. In the closed state of the utility wire 34a, the game ball cannot win the second operating port 34, and the winning of the second operating port 34 becomes possible when the universal power 34a is opened.

第2作動口34よりも遊技球の流下方向の上流側に、スルーゲート35が設けられている。スルーゲート35は縦方向に貫通した図示しない貫通孔を有しており、スルーゲート35に入賞した遊技球は入賞後に遊技領域PAを流下する。これにより、スルーゲート35に入賞した遊技球が第2作動口34へ入賞することが可能となっている。   A through gate 35 is provided on the upstream side in the flow-down direction of the game ball from the second working port 34. The through gate 35 has a through hole (not shown) penetrating in the vertical direction, and the game ball that has won the through gate 35 flows down the game area PA after winning. As a result, the game ball that has won the through gate 35 can win the second working port 34.

スルーゲート35への入賞に基づき第2作動口34の普電役物34aが閉鎖状態から開放状態に切り換えられる。具体的には、スルーゲート35への入賞をトリガとして内部抽選が行われるとともに、遊技領域PAにおいて遊技球が通過しない領域である右下の隅部に設けられた普図ユニット38の普図表示部38aにて絵柄の変動表示が行われる。そして、内部抽選の結果が電役開放当選であり当該結果に対応した停止結果が表示されて普図表示部38aの変動表示が終了された場合に普電開放状態へ移行する。普電開放状態では、普電役物34aが所定の態様で開放状態となる。   Based on the winning of the through gate 35, the common utility 34 a of the second operating port 34 is switched from the closed state to the open state. Specifically, an internal lottery is performed with a winning at the through gate 35 as a trigger, and a normal display of a general-purpose unit 38 provided at the lower right corner, which is a region where game balls do not pass in the game region PA, is displayed. In the part 38a, the change display of the pattern is performed. Then, when the result of the internal lottery is the electrification opening winning, the stop result corresponding to the result is displayed, and the fluctuation display of the general map display unit 38a is finished, the state shifts to the public power open state. In the public power open state, the general electric utility 34a is opened in a predetermined manner.

なお、普図表示部38aは、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT又はドットマトリックス表示器等その他のタイプの表示装置によって構成されていてもよい。また、普図表示部38aにて変動表示される絵柄としては、複数種の文字が変動表示される構成、複数種の記号が変動表示される構成、複数種のキャラクタが変動表示される構成又は複数種の色が切り換え表示される構成などが考えられる。   The general map display unit 38a is constituted by a segment display in which a plurality of segment light emitting units are arranged in a predetermined manner, but is not limited to this, and is not limited to this. A liquid crystal display device, an organic EL display device , Or other types of display devices such as CRT or dot matrix display. In addition, as a pattern variably displayed on the general map display unit 38a, a configuration in which a plurality of types of characters are variably displayed, a configuration in which a plurality of types of symbols are variably displayed, a configuration in which a plurality of types of characters are variably displayed, or A configuration in which a plurality of colors are switched and displayed is conceivable.

普図ユニット38において、普図表示部38aに隣接した位置には、普図保留表示部38bが設けられている。遊技球がスルーゲート35に入賞した個数は最大4個まで保留され、普図保留表示部38bの点灯によってその保留個数が表示されるようになっている。   In the universal map unit 38, a universal map hold display section 38b is provided at a position adjacent to the universal map display section 38a. A maximum of four game balls won in the through gate 35 are reserved, and the number of the reserved balls is displayed by turning on the general-purpose display unit 38b.

第1作動口33又は第2作動口34への入賞をトリガとして当たり抽選が行われる。そして、当該抽選結果は特図ユニット37及び可変表示ユニット36の図柄表示装置41における表示演出を通じて明示される。   A lottery is performed with the winning of the first working port 33 or the second working port 34 as a trigger. The lottery result is clearly shown through display effects in the symbol display device 41 of the special figure unit 37 and the variable display unit 36.

特図ユニット37について詳細には、特図ユニット37には特図表示部37aが設けられている。特図表示部37aの表示領域は図柄表示装置41の表示面Pよりも狭い。特図表示部37aでは、第1作動口33への入賞又は第2作動口34への入賞をトリガとして当たり抽選が行われることで絵柄の変動表示又は所定の表示が行われる。そして、抽選結果に対応した結果が表示される。なお、特図表示部37aは、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT又はドットマトリックス表示器等その他のタイプの表示装置によって構成されていてもよい。また、特図表示部37aにて表示される絵柄としては、複数種の文字が表示される構成、複数種の記号が表示される構成、複数種のキャラクタが表示される構成又は複数種の色が表示される構成などが考えられる。   Specifically, the special figure unit 37 is provided with a special figure display unit 37a. The display area of the special figure display unit 37 a is narrower than the display surface P of the symbol display device 41. In the special figure display part 37a, a winning change to the first working port 33 or a winning to the second working port 34 is used as a trigger, and a lottery is performed to display a variation display or a predetermined display. Then, a result corresponding to the lottery result is displayed. In addition, although the special figure display part 37a is comprised by the segment display by which several segment light emission parts are arranged in the predetermined | prescribed aspect, it is not limited to this, A liquid crystal display device, an organic electroluminescence display device , Or other types of display devices such as CRT or dot matrix display. In addition, as a picture displayed on the special figure display unit 37a, a configuration in which a plurality of types of characters are displayed, a configuration in which a plurality of types of symbols are displayed, a configuration in which a plurality of types of characters are displayed, or a plurality of types of colors A configuration in which is displayed is conceivable.

特図ユニット37において、特図表示部37aに隣接した位置には、特図保留表示部37bが設けられている。遊技球が第1作動口33又は第2作動口34に入賞した個数は最大4個まで保留され、特図保留表示部37bの点灯によってその保留個数が表示されるようになっている。   In the special figure unit 37, a special figure holding display part 37b is provided at a position adjacent to the special figure display part 37a. A maximum of four game balls won in the first operation port 33 or the second operation port 34 are reserved, and the reserved number is displayed by lighting the special figure reservation display portion 37b.

図柄表示装置41について詳細には、図柄表示装置41は、液晶ディスプレイを備えた液晶表示装置として構成されており、後述する表示制御装置により表示内容が制御される。なお、図柄表示装置41は、液晶表示装置に限定されることはなく、プラズマディスプレイ装置、有機EL表示装置又はCRTといった表示面を有する他の表示装置であってもよく、ドットマトリクス表示器であってもよい。   In detail, the symbol display device 41 is configured as a liquid crystal display device including a liquid crystal display, and display contents are controlled by a display control device described later. The symbol display device 41 is not limited to a liquid crystal display device, and may be a plasma display device, an organic EL display device, or another display device having a display surface such as a CRT, and is a dot matrix display. May be.

図柄表示装置41では、第1作動口33への入賞又は第2作動口34への入賞に基づき特図表示部37aにて絵柄の変動表示又は所定の表示が行われる場合にそれに合わせて図柄の変動表示又は所定の表示が行われる。すなわち、特図表示部37aにおいて変動表示が行われる場合には、それに合わせて図柄表示装置41において変動表示が行われる。そして、例えば、遊技結果が大当たり結果となる遊技回では、図柄表示装置41では予め設定されている有効ライン上に所定の組合せの図柄が停止表示される。   In the symbol display device 41, when a special symbol display unit 37a displays a change or predetermined display of a pattern based on a winning in the first operating port 33 or a winning in the second operating port 34, the symbol is displayed accordingly. A variable display or a predetermined display is performed. That is, when variable display is performed in the special figure display unit 37a, the variable display is performed in the symbol display device 41 accordingly. For example, in the game times in which the game result is a jackpot result, the symbol display device 41 stops and displays a predetermined combination of symbols on a preset active line.

図柄表示装置41の表示内容について、図3及び図4を参照して詳細に説明する。図3は図柄表示装置41にて変動表示される図柄を個々に示す図であり、図4は図柄表示装置41の表示面Pを示す図である。   The display content of the symbol display device 41 will be described in detail with reference to FIGS. 3 and 4. FIG. 3 is a diagram individually showing symbols variably displayed on the symbol display device 41, and FIG. 4 is a diagram showing the display surface P of the symbol display device 41.

図3(a)〜(j)に示すように、絵柄の一種である図柄は、「1」〜「9」の数字が各々付された9種類の主図柄と、貝形状の絵図柄からなる副図柄とにより構成されている。より詳しくは、タコ等の9種類のキャラクタ図柄に「1」〜「9」の数字がそれぞれ付されて主図柄が構成されている。   As shown in FIGS. 3 (a) to 3 (j), a design which is a kind of design is composed of nine main designs with numbers "1" to "9", respectively, and a shell-shaped design. It consists of sub-designs. More specifically, the main symbols are configured by attaching numbers “1” to “9” to nine types of character symbols such as octopus.

図4(a)に示すように、図柄表示装置41の表示面Pには、複数の表示領域として、上段・中段・下段の3つの図柄列Z1,Z2,Z3が設定されている。各図柄列Z1〜Z3は、主図柄と副図柄が所定の順序で配列されて構成されている。詳細には、上図柄列Z1には、「1」〜「9」の9種類の主図柄が数字の降順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。下図柄列Z3には、「1」〜「9」の9種類の主図柄が数字の昇順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。   As shown in FIG. 4A, on the display surface P of the symbol display device 41, three symbol rows Z1, Z2, and Z3 of an upper stage, a middle stage, and a lower stage are set as a plurality of display areas. Each of the symbol rows Z1 to Z3 includes a main symbol and a sub symbol arranged in a predetermined order. Specifically, nine types of main symbols “1” to “9” are arranged in descending order of numbers in the upper symbol row Z1, and one sub symbol is arranged between each main symbol. . In the lower symbol row Z3, nine types of main symbols “1” to “9” are arranged in ascending numerical order, and one sub symbol is arranged between the main symbols.

つまり、上図柄列Z1と下図柄列Z3は18個の図柄により構成されている。これに対し、中図柄列Z2には、数字の昇順に「1」〜「9」の9種類の主図柄が配列された上で「9」の主図柄と「1」の主図柄との間に「4」の主図柄が付加的に配列され、これら各主図柄の間に副図柄が1つずつ配されている。つまり、中図柄列Z2に限っては、10個の主図柄が配されて20個の図柄により構成されている。そして、表示面Pでは、これら各図柄列Z1〜Z3の図柄が周期性をもって所定の向きにスクロールするように変動表示される。   That is, the upper symbol row Z1 and the lower symbol row Z3 are composed of 18 symbols. On the other hand, in the middle symbol row Z2, nine types of main symbols “1” to “9” are arranged in ascending numerical order, and then between the main symbol “9” and the main symbol “1”. In addition, a main symbol “4” is additionally arranged, and one sub symbol is arranged between each main symbol. In other words, only the middle symbol row Z2 is composed of 20 symbols by arranging 10 main symbols. On the display surface P, the symbols in the symbol rows Z1 to Z3 are displayed in a variable manner so as to scroll in a predetermined direction with periodicity.

図4(b)に示すように、表示面Pは、図柄列毎に3個の図柄が停止表示されるようになっており、結果として3×3の計9個の図柄が停止表示されるようになっている。また、表示面Pには、5つの有効ライン、すなわち左ラインL1、中ラインL2、右ラインL3、右下がりラインL4、右上がりラインL5が設定されている。そして、上図柄列Z1→下図柄列Z3→中図柄列Z2の順に変動表示が停止し、いずれかの有効ラインに同一の数字が付された図柄の組合せが形成された状態で全図柄列Z1〜Z3の変動表示が終了すれば、後述する通常大当たり結果又は15R確変大当たり結果の発生として大当たり動画が表示されるようになっている。   As shown in FIG. 4B, on the display surface P, three symbols are stopped and displayed for each symbol row, and as a result, a total of nine symbols of 3 × 3 are stopped and displayed. It is like that. On the display surface P, five effective lines, that is, a left line L1, a middle line L2, a right line L3, a right lowering line L4, and a right uppering line L5 are set. Then, the variable display stops in the order of the upper symbol row Z1 → the lower symbol row Z3 → the middle symbol row Z2, and all the symbol rows Z1 are formed in a state in which a combination of symbols having the same number attached to any one of the effective lines is formed. When the fluctuation display of .about.Z3 is completed, the jackpot moving image is displayed as a normal jackpot result or a 15R probability variable jackpot result which will be described later.

本パチンコ機10では、奇数番号(1,3,5,7,9)が付された主図柄は「特定図柄」に相当するとともに、偶数番号(2,4,6,8)が付された主図柄は「非特定図柄」に相当する。15R確変大当たり結果が発生する場合には、同一の特定図柄の組合せ又は同一の非特定図柄の組合せが停止表示される。また、通常大当たり結果が発生する場合には、同一の非特定図柄の組合せが停止表示される。また、後述する明示2R確変大当たり結果となる場合には、同一の図柄の組合せとは異なる所定の図柄の組合せが形成された状態で全図柄列Z1〜Z3の変動表示が終了し、その後に、明示用動画が表示されるようになっている。   In this pachinko machine 10, the main symbols assigned with odd numbers (1, 3, 5, 7, 9) correspond to “specific symbols” and are assigned even numbers (2, 4, 6, 8). The main symbol corresponds to “non-specific symbol”. When the 15R probability variation jackpot result is generated, the same specific symbol combination or the same non-specific symbol combination is stopped and displayed. When a normal jackpot result occurs, the same combination of non-specific symbols is stopped and displayed. In addition, in the case of an explicit 2R probability variation jackpot result to be described later, the variation display of all the symbol rows Z1 to Z3 is finished in a state where a predetermined symbol combination different from the same symbol combination is formed, and then, An explicit video is displayed.

なお、図柄表示装置41における図柄の変動表示の態様は上記のものに限定されることはなく任意であり、図柄列の数、図柄列における図柄の変動表示の方向、各図柄列の図柄数などは適宜変更可能である。また、図柄表示装置41にて変動表示される絵柄は上記のような図柄に限定されることはなく、例えば絵柄として数字のみが変動表示される構成としてもよい。   In addition, the mode of the display of the symbol variation in the symbol display device 41 is not limited to the above, and is arbitrary. The number of symbol columns, the direction of the symbol variation display in the symbol sequence, the number of symbols in each symbol column, etc. Can be appropriately changed. Also, the pattern that is variably displayed on the symbol display device 41 is not limited to the above-described pattern, and for example, only numbers may be variably displayed as the pattern.

また、いずれかの作動口33,34への入賞に基づいて、特図表示部37a及び図柄表示装置41にて変動表示が開始され、所定の停止結果を表示し上記変動表示が停止されるまでが遊技回の1回に相当する。   Further, based on the winning in one of the operation ports 33, 34, the variable display is started in the special symbol display unit 37a and the symbol display device 41, until a predetermined stop result is displayed and the variable display is stopped. Corresponds to one game time.

図2の説明に戻り、第1作動口33への入賞又は第2作動口34への入賞に基づく当たり抽選にて大当たり当選となった場合には、特電入賞装置32への入賞が可能となる開閉実行モードへ移行する。特電入賞装置32は、遊技盤24の背面側へと通じる図示しない大入賞口を備えているとともに、当該大入賞口を開閉する開閉扉32aを備えている。開閉扉32aは、閉鎖状態及び開放状態のいずれかに配置される。具体的には、開閉扉32aは、通常は遊技球が入賞できない閉鎖状態になっており、内部抽選において開閉実行モードへの移行に当選した場合に遊技球が入賞可能な開放状態に切り換えられるようになっている。ちなみに、開閉実行モードとは、当たり結果となった場合に移行することとなるモードである。なお、閉鎖状態では入賞が不可ではないが開放状態よりも入賞が発生しづらい状態となる構成としてもよい。また、開閉実行モードにおいては、当該開閉実行モードに対応した表示演出が図柄表示装置41にて実行される。   Returning to the description of FIG. 2, when a big win is won in the winning lottery based on the winning to the first operating port 33 or the winning to the second operating port 34, it is possible to win the special electricity winning device 32. Transition to open / close execution mode. The special electric prize winning device 32 is provided with a large winning opening (not shown) leading to the back side of the game board 24 and an open / close door 32a for opening and closing the large winning opening. The open / close door 32a is arranged in either a closed state or an open state. Specifically, the open / close door 32a is normally in a closed state in which game balls cannot be won, and can be switched to an open state in which game balls can be won when winning the transition to the open / close execution mode in the internal lottery. It has become. Incidentally, the opening / closing execution mode is a mode that shifts when a hit result is obtained. Note that, in the closed state, winning may not be impossible, but it may be configured such that winning is less likely to occur than in the open state. In the opening / closing execution mode, a display effect corresponding to the opening / closing execution mode is executed by the symbol display device 41.

図1に示すように、上記構成の遊技盤24を有する内枠13の前面側全体を覆うようにして前扉枠14が設けられている。前扉枠14には、図1に示すように、遊技領域PAのほぼ全域を前方から視認することができるようにした窓部42が形成されている。窓部42は、略楕円形状をなし、窓パネル43が嵌め込まれている。窓パネル43は、ガラスによって無色透明に形成されているが、これに限定されることはなく合成樹脂によって無色透明に形成されていてもよく、パチンコ機10前方から窓パネル43を通じて遊技領域PAを視認可能であれば有色透明に形成されていてもよい。   As shown in FIG. 1, the front door frame 14 is provided so as to cover the entire front side of the inner frame 13 having the game board 24 having the above-described configuration. As shown in FIG. 1, the front door frame 14 is formed with a window portion 42 so that almost the entire game area PA can be viewed from the front. The window part 42 has a substantially elliptical shape, and a window panel 43 is fitted therein. The window panel 43 is formed of colorless and transparent with glass, but is not limited thereto, and may be formed of colorless and transparent with synthetic resin, and the game area PA is defined through the window panel 43 from the front of the pachinko machine 10. As long as it is visible, it may be colored and transparent.

窓部42の上方には表示発光部44が設けられている。また、遊技状態に応じた効果音などが出力される左右一対のスピーカ部45が設けられている。また、窓部42の下方には、手前側へ膨出した上側膨出部46と下側膨出部47とが上下に並設されている。上側膨出部46内側には上方に開口した上皿46aが設けられており、下側膨出部47内側には同じく上方に開口した下皿47aが設けられている。上皿46aは、裏パックユニット15に設けられた払出装置より払い出された遊技球を一旦貯留し、一列に整列させながら遊技球発射機構側へ導くための機能を有する。また、下皿47aは、上皿46a内にて余剰となった遊技球を貯留する機能を有する。   A display light emitting unit 44 is provided above the window unit 42. In addition, a pair of left and right speaker units 45 are provided for outputting sound effects corresponding to the gaming state. Further, below the window portion 42, an upper bulging portion 46 and a lower bulging portion 47 bulging toward the front side are arranged in parallel in the vertical direction. An upper pan 46 a that opens upward is provided inside the upper bulging portion 46, and a lower pan 47 a that also opens upward is provided inside the lower bulging portion 47. The upper plate 46a has a function of temporarily storing the game balls paid out from the payout device provided in the back pack unit 15 and guiding them to the game ball launching mechanism side while aligning them in a row. In addition, the lower tray 47a has a function of storing game balls that become surplus in the upper tray 46a.

内枠13の背面側には、主制御装置と、音声発光制御装置と、表示制御装置とが搭載されている。また、裏パックユニット15には、払出装置を含む払出機構部と、払出制御装置と、電源・発射制御装置とが搭載されている。以下、パチンコ機10の電気的な構成について説明する。   On the back side of the inner frame 13, a main control device, a sound emission control device, and a display control device are mounted. The back pack unit 15 is equipped with a payout mechanism including a payout device, a payout control device, and a power source / launch control device. Hereinafter, the electrical configuration of the pachinko machine 10 will be described.

<パチンコ機10の電気的構成>
図5は、パチンコ機10の電気的構成を示すブロック図である。
<Electric configuration of pachinko machine 10>
FIG. 5 is a block diagram showing an electrical configuration of the pachinko machine 10.

<主制御装置50>
主制御装置50は、遊技の主たる制御を司る主制御基板51を具備している。なお、主制御装置50において主制御基板51などを収容する基板ボックスに対して、その開放の痕跡を残すための痕跡手段を付与する又はその開放の痕跡を残すための痕跡構造を設けておくようにしてもよい。当該痕跡手段としては、基板ボックスを構成する複数のケース体を分離不能に結合するとともにその分離に際して所定部位の破壊を要する結合部(カシメ部)の構成や、引き剥がしにして粘着層が接着対象に残ることで剥がされたことの痕跡を残す封印シールを複数のケース体間の境界を跨ぐようにして貼り付ける構成が考えられる。また、痕跡構造としては、基板ボックスを構成する複数のケース体間の境界に対して接着剤を塗布する構成が考えられる。
<Main controller 50>
The main control device 50 includes a main control board 51 that controls the main game. In the main control device 50, a trace box for giving a trace of the opening or a trace structure for leaving the trace of the opening is provided to the board box that accommodates the main control board 51 or the like. It may be. As the trace means, a plurality of case bodies constituting the substrate box are unseparably coupled, and a configuration of a coupling portion (caulking portion) that requires destruction of a predetermined part at the time of separation, or an adhesive layer is attached by peeling off. A configuration is conceivable in which a seal seal that leaves a trace of being peeled off by being left is attached so as to straddle the boundary between a plurality of case bodies. Moreover, as a trace structure, the structure which apply | coats an adhesive agent with respect to the boundary between the some case bodies which comprise a board | substrate box can be considered.

主制御基板51には、MPU52が搭載されている。MPU52には、当該MPU52により実行される各種の制御プログラムや固定値データを記憶したROM53と、そのROM53内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM54と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。   An MPU 52 is mounted on the main control board 51. The MPU 52 includes a ROM 53 that stores various control programs executed by the MPU 52 and fixed value data, and a memory that temporarily stores various data when the control program stored in the ROM 53 is executed. A RAM 54, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, and the like are incorporated.

なお、ROM53として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。具体的には、NOR型キャッシュメモリが用いられている。但し、これに限定されることはなく、ランダムアクセスが可能であれば、ROM53として用いるメモリの種類は任意である。また、制御及び演算部分と、ROM53と、RAM54とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。   The ROM 53 is a storage means (that is, a non-volatile storage means) that can be randomly accessed when reading a control program or fixed value data and does not require external power supply for storage retention. Specifically, a NOR type cache memory is used. However, the present invention is not limited to this, and the type of memory used as the ROM 53 is arbitrary as long as random access is possible. In addition, the configuration in which the control and calculation portion, the ROM 53, and the RAM 54 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions may be configured as separate chips. It is good also as a structure currently mounted.

MPU52には、入力ポート及び出力ポートがそれぞれ設けられている。MPU52の入力側には、電源・発射制御装置57が接続されている。電源・発射制御装置57は、例えば、遊技場等における商用電源(外部電源)に接続されている。そして、その商用電源から供給される外部電力に基づいて主制御基板51に動作電力を供給する。ちなみに、当該動作電力は主制御基板51だけでなく、払出制御装置55や後述する表示制御装置70といった他の機器にも供給される。   The MPU 52 is provided with an input port and an output port. A power source / fire control device 57 is connected to the input side of the MPU 52. The power source / launch control device 57 is connected to, for example, a commercial power source (external power source) in a game hall or the like. Then, operating power is supplied to the main control board 51 based on the external power supplied from the commercial power source. Incidentally, the operating power is supplied not only to the main control board 51 but also to other devices such as the payout control device 55 and the display control device 70 described later.

なお、MPU52と電源・発射制御装置57との電力経路上に停電監視基板を設けてもよい。この場合、当該停電監視基板により停電の発生が監視され、停電の発生が確認された場合にはMPU52に対して停電信号が送信されるようにすることで、MPU52において停電時用の処理を実行することが可能となる。   A power failure monitoring board may be provided on the power path between the MPU 52 and the power source / launch control device 57. In this case, the occurrence of a power failure is monitored by the power failure monitoring board, and when the occurrence of a power failure is confirmed, a power failure signal is transmitted to the MPU 52 so that the MPU 52 executes processing for a power failure. It becomes possible to do.

また、MPU52の入力側には、図示しない各種センサが接続されている。当該各種センサの一部として、一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34及びスルーゲート35といった入賞対応入球部に対して1対1で設けられた検知センサが含まれており、MPU52において各入球部への入賞判定(入球判定)が行われる。また、MPU52では第1作動口33及び第2作動口34への入賞に基づいて大当たり発生抽選及び大当たり結果種別抽選を実行するとともに、各遊技回のリーチ発生抽選や表示継続期間の決定抽選を実行する。   Various sensors (not shown) are connected to the input side of the MPU 52. As a part of the various sensors, detection provided in a one-to-one manner with respect to a winning-corresponding pitching portion such as a general winning opening 31, a special prize winning device 32, a first operating opening 33, a second operating opening 34, and a through gate 35 A sensor is included, and the MPU 52 performs a winning determination (entering determination) for each entering part. In addition, the MPU 52 performs a jackpot generation lottery and a jackpot result type lottery based on winnings to the first operation port 33 and the second operation port 34, and also performs a reach generation lottery and a display continuation time determination lottery for each game time. To do.

ここで、MPU52にて各種抽選を行うための構成について説明する。   Here, a configuration for performing various lotteries in the MPU 52 will be described.

MPU52は遊技に際し各種カウンタ情報を用いて、大当たり発生抽選、特図表示部37aの表示の設定、図柄表示装置41の図柄表示の設定、普図表示部38aの表示の設定などを行うこととしており、具体的には、図6に示すように、大当たり発生抽選に使用する当たり乱数カウンタC1と、確変大当たり結果や通常大当たり結果等の大当たり種別を判定する際に使用する大当たり種別カウンタC2と、図柄表示装置41が外れ変動する際のリーチ発生抽選に使用するリーチ乱数カウンタC3と、当たり乱数カウンタC1の初期値設定に使用する乱数初期値カウンタCINIと、特図表示部37a及び図柄表示装置41における変動表示時間を決定する変動種別カウンタCSとを用いることとしている。さらに、第2作動口34の普電役物34aを電役開放状態とするか否かの抽選に使用する普電役物開放カウンタC4を用いることとしている。なお、これら各カウンタC1〜C3,CINI,CS,C4は、抽選カウンタ用バッファ54aに設けられている。   The MPU 52 uses lots of counter information during the game to perform jackpot occurrence lottery, display setting of the special symbol display unit 37a, symbol display setting of the symbol display device 41, display setting of the general symbol display unit 38a, and the like. Specifically, as shown in FIG. 6, a hit random number counter C1 used for jackpot occurrence lottery, a jackpot type counter C2 used for determining a jackpot type such as a probabilistic jackpot result or a normal jackpot result, In the reach random number counter C3 used for the reach generation lottery when the display device 41 fluctuates and fluctuates, the random number initial value counter CINI used for setting the initial value of the hit random number counter C1, the special figure display unit 37a and the symbol display device 41 The variation type counter CS that determines the variation display time is used. Furthermore, the universal electric utility release counter C4 used for the lottery of whether or not the electric utility item 34a of the second working port 34 is set to the electric utility open state is used. The counters C1 to C3, CINI, CS, and C4 are provided in the lottery counter buffer 54a.

各カウンタC1〜C3,CINI,CS,C4は、その更新の都度前回値に1が加算され、最大値に達した後「0」に戻るループカウンタとなっている。当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3に対応した情報は、第1作動口33又は第2作動口34への入賞が発生した場合に、取得情報記憶手段としての保留格納エリア54bに格納される。   Each of the counters C1 to C3, CINI, CS, and C4 is a loop counter that adds 1 to the previous value every time it is updated and returns to “0” after reaching the maximum value. The information corresponding to the winning random number counter C1, the big hitting type counter C2 and the reach random number counter C3 is stored in an on-hold storage area 54b as an acquisition information storage means when a winning to the first operating port 33 or the second operating port 34 occurs. Stored in

保留格納エリア54bは、保留用エリアREと、実行エリアAEとを備えている。保留用エリアREは、第1保留エリアRE1、第2保留エリアRE2、第3保留エリアRE3及び第4保留エリアRE4を備えており、第1作動口33又は第2作動口34への入賞履歴に合わせて、当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報が保留情報として、いずれかの保留エリアRE1〜RE4に格納される。   The holding storage area 54b includes a holding area RE and an execution area AE. The holding area RE includes a first holding area RE1, a second holding area RE2, a third holding area RE3, and a fourth holding area RE4. In the winning history to the first operating port 33 or the second operating port 34, In addition, the numerical information of the hit random number counter C1, the big hit type counter C2 and the reach random number counter C3 is stored as hold information in any of the hold areas RE1 to RE4.

第1保留エリアRE1〜第4保留エリアRE4には、第1作動口33又は第2作動口34への入賞が複数回連続して発生した場合に、第1保留エリアRE1→第2保留エリアRE2→第3保留エリアRE3→第4保留エリアRE4の順に各数値情報が時系列的に格納されていく。このように4つの保留エリアRE1〜RE4が設けられていることにより、第1作動口33又は第2作動口34への遊技球の入賞履歴が最大4個まで保留記憶されるようになっている。なお、保留記憶可能な数は、4個に限定されることはなく任意であり、2個、3個又は5個以上といったように他の複数であってもよく、単数であってもよい。実行エリアAEは、特図表示部37aの変動表示を開始する際に、保留用エリアREの第1保留エリアRE1に格納された各値を移動させるためのエリアであり、1遊技回の開始に際しては実行エリアAEに記憶されている各種数値情報に基づいて、当否判定などが行われる。   In the first reservation area RE1 to the fourth reservation area RE4, when a winning to the first operation port 33 or the second operation port 34 is continuously generated a plurality of times, the first reservation area RE1 → the second reservation area RE2 The numerical information is stored in time series in the order of the third reserved area RE3 → the fourth reserved area RE4. By providing the four holding areas RE1 to RE4 as described above, up to four game balls winning histories to the first operating port 33 or the second operating port 34 are stored and stored. . Note that the number that can be reserved and stored is not limited to four, but may be any other number such as two, three, or five or more. The execution area AE is an area for moving each value stored in the first holding area RE1 of the holding area RE when starting the variable display of the special figure display section 37a. Is determined based on various numerical information stored in the execution area AE.

各カウンタについて詳しくは、当たり乱数カウンタC1は、例えば0〜599の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。特に当たり乱数カウンタC1が1周した場合、その時点の乱数初期値カウンタCINIの値が当該当たり乱数カウンタC1の初期値として読み込まれる。なお、乱数初期値カウンタCINIは、当たり乱数カウンタC1と同様のループカウンタである(値=0〜599)。当たり乱数カウンタC1は定期的に更新され、遊技球が第1作動口33又は第2作動口34に入賞したタイミングで保留格納エリア54bに格納される。   Specifically, each counter is configured such that the hit random number counter C1 is incremented by 1 in the range of, for example, 0 to 599, and returns to “0” after reaching the maximum value. In particular, when the winning random number counter C1 makes one round, the value of the initial random number counter CINI at that time is read as the initial value of the winning random number counter C1. The random number initial value counter CINI is a loop counter similar to the winning random number counter C1 (value = 0 to 599). The winning random number counter C1 is periodically updated and stored in the holding storage area 54b at the timing when the game ball wins the first operation port 33 or the second operation port 34.

大当たり当選となる乱数の値は、ROM53に当否テーブルとして記憶されている。当否テーブルとしては、低確率モード用の当否テーブルと、高確率モード用の当否テーブルとが設定されている。つまり、本パチンコ機10は、当否抽選手段における抽選モードとして、低確率モードと高確率モードとが設定されている。   The random number value for winning the jackpot is stored in the ROM 53 as a success / failure table. As the success / failure table, a success / failure table for the low probability mode and a success / failure table for the high probability mode are set. That is, in the pachinko machine 10, the low probability mode and the high probability mode are set as the lottery modes in the success / failure lottery means.

上記抽選に際して低確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は2個である。一方、上記抽選に際して高確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は20個である。なお、低確率モードよりも高確率モードの方の当選確率が高くなるのであれば、上記当選となる乱数の数は任意である。   In the gaming state in which the winning / failing table for the low probability mode is referred to at the time of the lottery, the number of random numbers that win the jackpot is two. On the other hand, in the gaming state in which the winning / failing table for the high probability mode is referred to at the time of the lottery, the number of random numbers that will win the jackpot is 20. If the winning probability in the high probability mode is higher than that in the low probability mode, the number of random numbers to be won is arbitrary.

大当たり種別カウンタC2は、0〜29の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。大当たり種別カウンタC2は定期的に更新され、遊技球が第1作動口33又は第2作動口34に入賞したタイミングで保留格納エリア54bに格納される。   The jackpot type counter C2 is configured so that one by one is added in order within a range of 0 to 29 and returns to “0” after reaching the maximum value. The jackpot type counter C2 is periodically updated and stored in the holding storage area 54b at the timing when the game ball wins the first operation port 33 or the second operation port 34.

本パチンコ機10では、複数の大当たり結果が設定されている。これら複数の大当たり結果は、(1)開閉実行モードにおける特電入賞装置32の開閉制御の態様、(2)開閉実行モード終了後の当否抽選手段における抽選モード、(3)開閉実行モード終了後の第2作動口34の普電役物34aにおけるサポートモード、という3つの条件に差異を設けることにより、複数の大当たり結果が設定されている。   In the pachinko machine 10, a plurality of jackpot results are set. The plurality of jackpot results are as follows: (1) a mode of opening / closing control of the special prize winning device 32 in the opening / closing execution mode, (2) lottery mode in the winning lottery means after completion of the opening / closing execution mode, and (3) first after the end of the opening / closing execution mode. A plurality of jackpot results are set by making a difference in the three conditions of the support mode in the general electric utility 34a of the two operation ports 34.

開閉実行モードにおける特電入賞装置32の開閉制御の態様としては、開閉実行モードが開始されてから終了するまでの間における特電入賞装置32への入賞の発生頻度が相対的に高低となるように高頻度入賞モードと低頻度入賞モードとが設定されている。具体的には、高頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口の開閉が15回行われるとともに、1回の開放は30secが経過するまで又は大入賞口への入賞個数が10個となるまで継続される。一方、低頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口の開閉が2回行われるとともに、1回の開放は0.2secが経過するまで又は大入賞口への入賞個数が6個となるまで継続される。   As an aspect of the opening / closing control of the special electricity prize winning device 32 in the opening / closing execution mode, the occurrence frequency of winning in the special electricity prize winning device 32 from the start to the end of the opening / closing execution mode is relatively high. A frequency winning mode and a low frequency winning mode are set. Specifically, in the high-frequency winning mode, the opening / closing of the large winning opening is performed 15 times from the start to the end of the opening / closing execution mode, and one opening is performed until 30 seconds elapses or winning in the large winning opening Continue until the number reaches 10. On the other hand, in the low-frequency winning mode, the opening / closing of the big prize opening is performed twice from the start to the end of the opening / closing execution mode, and one opening is performed until 0.2 sec elapses or the number of winning prizes in the big winning opening Continue until there are six.

本パチンコ機10では、発射操作装置28が遊技者により操作されている状況では、0.6secに1個の遊技球が遊技領域に向けて発射されるように遊技球発射機構58が駆動制御される。これに対して、低頻度入賞モードでは、上記のとおり1回の大入賞口の開放時間は0.2secとなっている。つまり、低頻度入賞モードでは、遊技球の発射周期よりも1回の大入賞口の開放時間が短くなっている。したがって、低頻度入賞モードにかかる開閉実行モードでは実質的に遊技球の入賞が発生しない。   In the present pachinko machine 10, when the launch operation device 28 is operated by the player, the game ball launching mechanism 58 is driven and controlled so that one game ball is launched toward the game area every 0.6 sec. The On the other hand, in the low frequency winning mode, the opening time of one large winning opening is 0.2 sec as described above. That is, in the low-frequency winning mode, the time for opening a single big winning opening is shorter than the game ball firing cycle. Therefore, in the opening / closing execution mode according to the low frequency winning mode, the winning of the game ball does not substantially occur.

なお、高頻度入賞モード及び低頻度入賞モードにおける大入賞口の開閉回数、1回の開放に対する開放制限時間及び1回の開放に対する開放制限個数は、高頻度入賞モードの方が低頻度入賞モードよりも、開閉実行モードが開始されてから終了するまでの間における特電入賞装置32への入賞の発生頻度が高くなるのであれば、上記の値に限定されることはなく任意である。具体的には、高頻度入賞モードの方が低頻度入賞モードよりも、開閉回数が多い、1回の開放に対する開放制限時間が長い又は1回の開放に対する開放制限個数が多く設定されていればよい。   It should be noted that the number of times of opening / closing the large winning opening in the high frequency winning mode and the low frequency winning mode, the opening time limit for opening once, and the opening limit number for opening once are higher in the high frequency winning mode than in the low frequency winning mode. However, the value is not limited to the above value as long as the frequency of occurrence of winning in the special electric prize winning device 32 from the start to the end of the opening / closing execution mode increases. Specifically, if the high frequency winning mode has a larger number of opening and closing times than the low frequency winning mode, the opening limit time for one opening is longer, or if the opening limit number for one opening is set to be larger. Good.

但し、高頻度入賞モードと低頻度入賞モードとの間での特典の差異を明確にする上では、低頻度入賞モードにかかる開閉実行モードでは、実質的に特電入賞装置32への入賞が発生しない構成とするとよい。例えば、高頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも短く設定する一方、低頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも長く設定する構成としてもよい。また、遊技球の発射間隔及び1回の大入賞口の開放時間が上記のものでなかったとしても、低頻度入賞モードでは、前者よりも後者の方が短くなるように設定することで、実質的に特電入賞装置32への入賞が発生しない構成を容易に実現することができる。   However, in order to clarify the difference in privilege between the high-frequency winning mode and the low-frequency winning mode, in the open / close execution mode according to the low-frequency winning mode, a prize to the special electricity winning device 32 does not substantially occur. It may be configured. For example, in the high-frequency winning mode, the product of the launch period of the game ball and the open limit number is set shorter than the open limit time for one release, while in the low-frequency winning mode, It is good also as a structure which sets the product of the launching period of a game ball and the open limit number longer than open limit time. In addition, even if the launch interval of the game balls and the opening time of one big prize opening are not as described above, in the low frequency winning mode, the latter is set to be shorter than the former. In particular, it is possible to easily realize a configuration in which no prize is awarded to the special electric prize winning device 32.

第2作動口34の普電役物34aにおけるサポートモードとしては、遊技領域に対して同様の態様で遊技球の発射が継続されている状況で比較した場合に、第2作動口34の普電役物34aが単位時間当たりに開放状態となる頻度が相対的に高低となるように、低頻度サポートモードと高頻度サポートモードとが設定されている。   As a support mode for the general electric utility 34a of the second operating port 34, when compared with a situation in which a game ball is continuously being emitted in the same manner with respect to the gaming area, The low frequency support mode and the high frequency support mode are set so that the frequency at which the accessory 34a is opened per unit time is relatively high.

具体的には、低頻度サポートモードと高頻度サポートモードとでは、普電役物開放カウンタC4を用いた電動役物開放抽選における電役開放状態当選となる確率は同一(例えば、共に4/5)となっているが、高頻度サポートモードでは低頻度サポートモードよりも、電役開放状態当選となった際に普電役物34aが開放状態となる回数が多く設定されており、さらに1回の開放時間が長く設定されている。この場合、高頻度サポートモードにおいて電役開放状態当選となり普電役物34aの開放状態が複数回発生する場合において、1回の開放状態が終了してから次の開放状態が開始されるまでの閉鎖時間は、1回の開放時間よりも短く設定されている。さらにまた、高頻度サポートモードでは低頻度サポートモードよりも、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で最低限確保される確保時間として短い時間が選択されるように設定されている。   Specifically, in the low-frequency support mode and the high-frequency support mode, the probability of winning the electric utility open state in the electric utility open lottery using the general electric utility open counter C4 is the same (for example, both 4/5 However, in the high frequency support mode, the number of times that the power utility 34a is in the open state is set more frequently than in the low frequency support mode. The opening time is set longer. In this case, in the high-frequency support mode, when the electrified open state is won and the open state of the general utility 34a occurs a plurality of times, from the end of one open state to the start of the next open state The closing time is set shorter than one opening time. Furthermore, in the high frequency support mode, a shorter time is secured as a minimum secured time after the next electric character opening lottery is performed after the electric character object opening lottery is performed than in the low frequency support mode. Is set to be selected.

上記のように高頻度サポートモードでは、低頻度サポートモードよりも第2作動口34への入賞が発生する確率が高くなる。換言すれば、低頻度サポートモードでは、第2作動口34よりも第1作動口33への入賞が発生する確率が高くなるが、高頻度サポートモードでは、第1作動口33よりも第2作動口34への入賞が発生する確率が高くなる。そして、第2作動口34への入賞が発生した場合には、所定個数の遊技球の払出が実行されるため、高頻度サポートモードでは、遊技者は持ち球をあまり減らさないようにしながら遊技を行うことができる。   As described above, in the high frequency support mode, the probability of winning a prize to the second operation port 34 is higher than in the low frequency support mode. In other words, in the low frequency support mode, there is a higher probability of winning the first operating port 33 than in the second operating port 34, but in the high frequency support mode, the second operation is performed more than in the first operating port 33. The probability of winning a prize in the mouth 34 is increased. When a winning is made to the second operation port 34, a predetermined number of game balls are paid out. Therefore, in the high frequency support mode, the player plays a game while not reducing the number of possessed balls so much. It can be carried out.

なお、高頻度サポートモードを低頻度サポートモードよりも単位時間当たりに電役開放状態となる頻度を高くする上での構成は、上記のものに限定されることはなく、例えば電動役物開放抽選における電役開放状態当選となる確率を高くする構成としてもよい。また、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間(例えば、スルーゲート35への入賞に基づき普図表示部38aにて実行される変動表示の時間)が複数種類用意されている構成においては、高頻度サポートモードでは低頻度サポートモードよりも、短い確保時間が選択され易い又は平均の確保時間が短くなるように設定されていてもよい。さらには、開放回数を多くする、開放時間を長くする、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間を短くする(すなわち、普図表示部38aにおける1回の変動表示時間を短くする)、係る確保時間の平均時間を短くする及び当選確率を高くするのうち、いずれか1条件又は任意の組合せの条件を適用することで、低頻度サポートモードに対する高頻度サポートモードの有利性を高めてもよい。   The configuration for increasing the frequency at which the high frequency support mode is set to the power release state per unit time as compared with the low frequency support mode is not limited to the above-described configuration, for example, the electric component release lottery It is good also as a structure which makes high the probability that it will be elected in the electric character open state in. In addition, a secured time (e.g., based on a winning to the through gate 35 in the normal map display unit 38a) that is secured after the next electrification opening lottery is performed after the electrification opening lottery In a configuration in which a plurality of types of variable display time) are prepared, the high frequency support mode is set so that a short securing time is easily selected or the average secure time is shorter than the low frequency support mode. It may be. Further, the number of times of opening is increased, the opening time is lengthened, and the secured time that is secured when the next electric winning combination opening lottery is performed after the first electric winning combination releasing lottery is shortened (that is, Apply one of the conditions or any combination of conditions among shortening the average time of the reserved time and increasing the winning probability. Thus, the advantage of the high frequency support mode over the low frequency support mode may be increased.

大当たり種別カウンタC2に対する遊技結果の振分先は、ROM53に振分テーブルとして記憶されている。そして、かかる振分先として、通常大当たり結果と、明示2R確変大当たり結果と、15R確変大当たり結果とが設定されている。   The game result distribution destination for the big hit type counter C2 is stored in the ROM 53 as a distribution table. As the distribution destinations, a normal jackpot result, an explicit 2R probability variation jackpot result, and a 15R probability variation jackpot result are set.

通常大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが低確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。但し、この高頻度サポートモードは、移行後において遊技回数が終了基準回数(具体的には、100回)に達した場合に低頻度サポートモードに移行する。換言すれば、通常大当たり結果は、通常大当たり状態へ遊技状態を移行させる大当たり結果である。   The normal jackpot result is a jackpot result in which the opening / closing execution mode becomes the high-frequency winning mode, and after the opening / closing execution mode ends, the winning / not-lotting mode becomes the low probability mode and the support mode becomes the high-frequency support mode. However, the high-frequency support mode shifts to the low-frequency support mode when the number of games reaches the end reference number (specifically, 100 times) after the shift. In other words, the normal jackpot result is a jackpot result for shifting the gaming state to the normal jackpot state.

明示2R確変大当たり結果は、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、明示2R確変大当たり結果は、明示2R確変大当たり状態へ遊技状態を移行させる大当たり結果である。   The explicit 2R probability variation jackpot result is a jackpot result in which the open / close execution mode becomes the low-frequency winning mode, and after the open / close execution mode ends, the success / failure lottery mode becomes the high probability mode and the support mode becomes the high-frequency support mode. . These high-probability mode and high-frequency support mode are continued until the lottery result in the success / failure lottery becomes a big hit state win and shifts to the big win state by that. In other words, the explicit 2R probability variation jackpot result is a jackpot result for shifting the gaming state to the explicit 2R probability variation jackpot state.

15R確変大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、15R確変大当たり結果は、15R確変大当たり状態へ遊技状態を移行させる大当たり結果である。   The 15R probability variation jackpot result is a jackpot result in which the opening / closing execution mode becomes the high-frequency winning mode, and after the opening / closing execution mode ends, the success / failure lottery mode becomes the high probability mode and the support mode becomes the high-frequency support mode. These high-probability mode and high-frequency support mode are continued until the lottery result in the success / failure lottery becomes a big hit state win and shifts to the big win state by that. In other words, the 15R probability variation jackpot result is a jackpot result for shifting the gaming state to the 15R probability variation jackpot state.

なお、上記各遊技状態との関係で通常遊技状態とは、当否抽選モードが低確率モードであり、サポートモードが低頻度サポートモードである状態をいう。   Note that the normal gaming state in relation to the above gaming states refers to a state in which the winning / losing lottery mode is the low probability mode and the support mode is the low frequency support mode.

振分テーブルでは、「0〜29」の大当たり種別カウンタC2の値のうち、「0〜9」が通常大当たり結果に対応しており、「10〜14」が明示2R確変大当たり結果に対応しており、「15〜29」が15R確変大当たり結果に対応している。   In the distribution table, among the values of the jackpot type counter C2 of “0 to 29”, “0 to 9” corresponds to the normal jackpot result, and “10 to 14” corresponds to the explicit 2R probability variable jackpot result. “15 to 29” corresponds to the 15R probability variation jackpot result.

上記のように、確変大当たり結果として、明示2R確変大当たり結果が設定されていることにより、確変大当たり結果の態様が多様化する。すなわち、2種類の確変大当たり結果を比較した場合、遊技者にとっての有利度合いは、開閉実行モードにおいて高頻度入賞モードとなり且つサポートモードでは高頻度サポートモードとなる15R確変大当たり結果が最も高く、開閉実行モードにおいて低頻度入賞モードとなるもののサポートモードでは高頻度サポートモードとなる明示2R確変大当たり結果が最も低くなる。これにより、遊技の単調化が抑えられ、遊技への注目度を高めることが可能となる。   As described above, since the explicit 2R probability variation jackpot result is set as the probability variation jackpot result, the modes of the probability variation jackpot result are diversified. That is, when two types of probability variation jackpot results are compared, the advantage for the player is that the 15R probability variation jackpot result, which is the high-frequency winning mode in the opening / closing execution mode and the high-frequency support mode in the support mode, is the highest. Although the mode is the low-frequency winning mode, the support mode has the lowest explicit 2R probability variation jackpot result that is the high-frequency support mode. Thereby, monotonization of a game is suppressed and it becomes possible to raise the attention degree to a game.

なお、確変大当たり結果の一種として、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードがそれまでのモードに維持されることとなる非明示2R確変大当たり結果が含まれていてもよい。この場合、確変大当たり結果のさらなる多様化が図られる。   As a kind of probability variation jackpot result, the open / close execution mode becomes the low-frequency winning mode, and after the open / close execution mode ends, the winning / failing lottery mode becomes the high probability mode, and the support mode is maintained in the previous mode. The resulting implicit 2R probability variation jackpot result may be included. In this case, further diversification of the probabilistic jackpot results is achieved.

さらにまた、当否抽選における外れ結果の一種として、低頻度入賞モードの開閉実行モードに移行するとともに、その終了後において当否抽選モード及びサポートモードの移行が発生しない特別外れ結果が含まれていてもよい。上記のような非明示2R確変大当たり結果と当該特別外れ結果との両方が設定されている構成においては、開閉実行モードが低頻度入賞モードに移行すること、及びサポートモードがそれまでのモードに維持されることで共通しているのに対して、当否抽選モードの移行態様が異なっていることにより、例えば通常遊技状態において非明示2R確変大当たり結果又は特別外れ結果の一方が発生した場合に、それが実際にいずれの結果に対応しているのかを遊技者に予測させることが可能となる。   Furthermore, as a kind of losing result in the winning / losing lottery, there may be included a special losing result that shifts to the opening / closing execution mode of the low-frequency winning mode and that does not shift to the winning / losing lottery mode and the support mode after the completion. . In the configuration in which both the above-described non-explicit 2R probability variation jackpot result and the special outlier result are set, the switching execution mode shifts to the low-frequency winning mode, and the support mode is maintained in the previous mode. However, if one of the results of non-explicit 2R probability change jackpot or special outage occurs in the normal gaming state, for example, it will be It is possible to cause the player to predict which result actually corresponds to.

リーチ乱数カウンタC3は、例えば0〜238の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。リーチ乱数カウンタC3は定期的に更新され、遊技球が第1作動口33又は第2作動口34に入賞したタイミングで保留格納エリア54bに格納される。   The reach random number counter C3 is, for example, incremented by 1 within a range of 0 to 238, and returns to “0” after reaching the maximum value. The reach random number counter C3 is periodically updated and stored in the holding storage area 54b at the timing when the game ball wins the first operation port 33 or the second operation port 34.

ここで、本パチンコ機10には、図柄表示装置41における表示演出の一種として期待演出が設定されている。期待演出とは、図柄の変動表示を行うことが可能な図柄表示装置41を備え、特電入賞装置32の開閉実行モードが高頻度入賞モードとなる遊技回では変動表示後の停止表示結果が特別表示結果となる遊技機において、図柄表示装置41における図柄の変動表示が開始されてから停止表示結果が導出表示される前段階で、前記特別表示結果となり易い変動表示状態であると遊技者に思わせるための表示状態をいう。   Here, in the pachinko machine 10, an expected effect is set as a kind of display effect in the symbol display device 41. Expected effects include a symbol display device 41 that can perform variable display of symbols, and in game times in which the opening / closing execution mode of the special electricity winning device 32 is the high-frequency winning mode, the stop display result after the variable display is specially displayed. In the resulting gaming machine, the player is assumed to be in the variable display state in which the special display result is likely to be obtained before the stop display result is derived and displayed after the variable display of the symbol on the symbol display device 41 is started. The display state for this purpose.

期待演出には、上記リーチ表示と、当該リーチ表示が発生する前段階などにおいてリーチ表示の発生や特別表示結果の発生を期待させるための予告表示との2種類が設定されている。   In the expected effect, two types are set: the reach display and a notice display for expecting the occurrence of reach display or the generation of a special display result at a stage before the reach display occurs.

リーチ表示には、図柄表示装置41の表示面Pに表示される複数の図柄列のうち一部の図柄列について図柄を停止表示させることで、高頻度入賞モードの発生に対応した大当たり図柄の組合せが成立する可能性があるリーチ図柄の組合せを表示し、その状態で残りの図柄列において図柄の変動表示を行う表示状態が含まれる。また、上記のようにリーチ図柄の組合せを表示した状態で、残りの図柄列において図柄の変動表示を行うとともに、その背景画像において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものや、リーチ図柄の組合せを縮小表示させる又は非表示とした上で、表示面Pの略全体において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものが含まれる。   In the reach display, a combination of jackpot symbols corresponding to the occurrence of the high-frequency winning mode is achieved by stopping and displaying symbols for some of the symbol sequences displayed on the display surface P of the symbol display device 41. A display state is displayed in which combinations of reach symbols that are likely to be established are displayed, and in that state, symbols in the remaining symbol rows are displayed in a variable manner. In addition, in the state where the combination of reach symbols is displayed as described above, the variation display of symbols is performed in the remaining symbol columns, and a reach effect is performed by displaying a predetermined character or the like as a moving image in the background image. In addition, there is included a technique for performing a reach effect by displaying a predetermined character or the like as a moving image on substantially the entire display surface P after reducing or not displaying a combination of reach symbols.

図柄の変動表示に係るリーチ表示について具体的には、図柄の変動表示を終了させる前段階として、図柄表示装置41の表示面P内の予め設定された有効ライン上に、高頻度入賞モードの発生に対応した大当たり図柄の組合せが成立する可能性のあるリーチ図柄の組合せを停止表示させることによりリーチラインを形成させ、当該リーチラインが形成されている状況下において最終停止図柄列により図柄の変動表示を行うことである。   More specifically, the reach display related to the symbol variation display is performed, and as a stage before the symbol variation display is terminated, the high-frequency winning mode is generated on the preset effective line in the display surface P of the symbol display device 41. A reach line is formed by stopping and displaying a combination of reach symbols that may have a combination of jackpot symbols corresponding to, and in the situation where the reach line is formed, the symbol change display by the last stop symbol sequence Is to do.

図4の表示内容について具体的に説明すると、最初に上段の図柄列Z1において図柄の変動表示が終了され、さらに下段の図柄列Z3において図柄の変動表示が終了された状態において、いずれかの有効ラインL1〜L5に同一の数字が付された主図柄が停止表示されることでリーチラインが形成され、当該リーチラインが形成されている状況化において中段の図柄列Z2において図柄の変動表示が行われることでリーチ表示となる。そして、高頻度入賞モードが発生する場合には、リーチラインを形成している主図柄と同一の数字が付された主図柄がリーチライン上に停止表示されるようにして中段の図柄列Z2における図柄の変動表示が終了される。   The display contents of FIG. 4 will be described in detail. In the state where the symbol variation display is first ended in the upper symbol row Z1 and the symbol variation display is further terminated in the lower symbol row Z3, any effective A reach line is formed by stopping and displaying the main symbols having the same numbers on the lines L1 to L5, and in the situation where the reach line is formed, the symbol variation display is performed in the middle symbol row Z2. Reach display. When the high-frequency winning mode occurs, the main symbol with the same number as the main symbol forming the reach line is stopped and displayed on the reach line in the middle symbol row Z2. The symbol variation display is terminated.

予告表示には、図柄表示装置41の表示面Pにおいて図柄の変動表示が開始されてから、全ての図柄列Z1〜Z3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列Z1〜Z3上の図柄とは別にキャラクタを表示させる態様が含まれる。また、背景画像をそれまでの態様とは異なる所定の態様とするものや、図柄列Z1〜Z3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。かかる予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示の行われる場合の方がリーチ表示の行われない場合よりも高確率で発生するように設定されている。   In the notice display, in a situation where the symbols are variably displayed in all the symbol columns Z1 to Z3 after the symbol variation display is started on the display surface P of the symbol display device 41, or in some symbol columns. In a situation where symbols are variably displayed in a plurality of symbol rows, a mode in which a character is displayed separately from the symbols on the symbol rows Z1 to Z3 is included. Moreover, what makes a background image the predetermined aspect different from the previous aspect, and what makes the symbol on the symbol sequence Z1-Z3 the predetermined aspect different from the previous aspect are also included. Such a notice display can occur in any game times when reach display is performed and when reach display is not performed, but the case where reach display is performed is higher than the case where reach display is not performed. It is set to occur with probability.

リーチ表示は、開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行される。また、開閉実行モードに移行しない遊技回では、ROM53のリーチ用テーブル記憶エリアに記憶されたリーチ用テーブルを参照して、所定のタイミングで取得したリーチ乱数カウンタC3がリーチ表示の発生に対応している場合に実行される。一方、予告表示を行うか否かの決定は、主制御装置50において行うのではなく、音声発光制御装置60において行われる。   The reach display is executed regardless of the value of the reach random number counter C3 in the game times that shift to the opening / closing execution mode. In the game times that do not shift to the opening / closing execution mode, the reach random number counter C3 obtained at a predetermined timing is referred to the reach table stored in the reach table storage area of the ROM 53 in response to the occurrence of the reach display. It is executed when On the other hand, the determination as to whether or not to perform the notice display is performed not by the main controller 50 but by the sound emission controller 60.

変動種別カウンタCSは、例えば0〜198の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。変動種別カウンタCSは、特図表示部37aにおける変動表示時間と、図柄表示装置41における図柄の変動表示時間とをMPU52において決定する上で用いられる。変動種別カウンタCSは、後述するタイマ割込み処理が1回実行される毎に1回更新され、後述するメイン処理の残余時間内でも繰り返し更新される。そして、特図表示部37aにおける変動表示の開始時及び図柄表示装置41による図柄の変動開始時における変動パターン決定に際して変動種別カウンタCSのバッファ値が取得される。なお、変動表示時間の決定に際しては、ROM53の変動表示時間テーブル記憶エリアに予め記憶されている変動表示時間テーブルが参照される。   For example, the variation type counter CS is incremented one by one within a range of 0 to 198, for example, and reaches a maximum value and then returns to “0”. The variation type counter CS is used when the MPU 52 determines the variation display time in the special symbol display unit 37a and the symbol variation display time in the symbol display device 41. The variation type counter CS is updated once every time a timer interrupt process, which will be described later, is executed once, and is repeatedly updated even within the remaining time of the main process, which will be described later. Then, the buffer value of the variation type counter CS is acquired when the variation pattern is determined at the start of variation display in the special symbol display unit 37a and at the time of symbol variation start by the symbol display device 41. In determining the variable display time, the variable display time table stored in advance in the variable display time table storage area of the ROM 53 is referred to.

普電役物開放カウンタC4は、例えば、0〜250の範囲内で順に1ずつ加算され、最大値に達した後「0」に戻る構成となっている。普電役物開放カウンタC4は定期的に更新され、スルーゲート35に遊技球が入賞したタイミングで電役保留エリア54cに格納される。そして、所定のタイミングにおいて、その格納された普電役物開放カウンタC4の値によって普電役物34aを開放状態に制御するか否かの抽選が行われる。   For example, the utility power release counter C4 is incremented by 1 in the range of 0 to 250, and returns to “0” after reaching the maximum value. The general electric utility release counter C4 is periodically updated and stored in the electric utility reservation area 54c at the timing when a game ball wins the through gate 35. Then, at a predetermined timing, a lottery is performed as to whether or not to control the general utility 34a to the open state based on the stored value of the general utility release counter C4.

MPU52の出力側には、払出制御装置55が接続されているとともに、電源・発射制御装置57が接続されている。払出制御装置55には、例えば、上記入賞対応入球部への入賞判定結果に基づいて賞球コマンドが送信される。払出制御装置55は、主制御装置50から受信した賞球コマンドに基づいて、払出装置56により賞球や貸し球の払出制御を行う。電源・発射制御装置57には、発射操作装置28が操作されていることに基づいて発射許可コマンドが送信される。電源・発射制御装置57は、主制御装置50から受信した発射許可コマンドに基づいて、遊技球発射機構58を駆動させ遊技球を遊技領域に向けて発射させる。   A payout control device 55 is connected to the output side of the MPU 52, and a power source / launch control device 57 is also connected. For example, a payout ball command is transmitted to the payout control device 55 based on a winning determination result to the winning-corresponding winning portion. The payout control device 55 performs payout control of prize balls and rental balls by the payout device 56 based on the prize ball command received from the main control device 50. A firing permission command is transmitted to the power / fire control device 57 based on the operation of the firing operation device 28. Based on the launch permission command received from the main controller 50, the power / launch controller 57 drives the game ball launch mechanism 58 to launch the game ball toward the game area.

また、MPU52の出力側には、特図表示部37a及び普図表示部38aが接続されており、これら特図表示部37a及び普図表示部38aの表示制御がMPU52により直接行われる。つまり、各遊技回に際しては、MPU52において特図表示部37aの表示制御が実行される。また、普電役物34aを開放状態とするか否かの抽選結果を明示する場合に、MPU52において普図表示部38aの表示制御が実行される。   Further, a special figure display unit 37 a and a general map display unit 38 a are connected to the output side of the MPU 52, and display control of the special figure display unit 37 a and the general map display unit 38 a is directly performed by the MPU 52. That is, at each game round, the display control of the special figure display unit 37a is executed in the MPU 52. In addition, when the lottery result indicating whether or not to open the electric utility item 34a is clearly indicated, the MPU 52 performs display control of the normal display portion 38a.

MPU52の出力側には、特電入賞装置32の開閉扉を開閉動作させる特電入賞駆動部、及び第2作動口34の普電役物34aを開閉動作させる普電役物駆動部が接続されている。つまり、開閉実行モードにおいては大入賞口が開閉されるように、MPU52において特電入賞駆動部の駆動制御が実行される。また、普電役物34aの開放状態当選となった場合には、普電役物34aが開閉されるように、MPU52において普電役物駆動部の駆動制御が実行される。また、MPU52の出力側には、音声発光制御装置60が接続されており、当該音声発光制御装置60に対して演出用の各種コマンドを送信する。   Connected to the output side of the MPU 52 are a special electric prize driving unit that opens and closes the open / close door of the special electric prize device 32 and a universal electric component drive unit that opens and closes the electric utility item 34a of the second operating port 34. . That is, in the opening / closing execution mode, the MPU 52 performs drive control of the special electricity prize driving unit so that the special winning opening is opened and closed. In addition, when the power utility 34a is opened, the MPU 52 performs drive control of the power utility drive unit so that the power utility 34a is opened and closed. Further, the sound emission control device 60 is connected to the output side of the MPU 52, and various commands for effects are transmitted to the sound emission control device 60.

ここで、MPU52にて実行される処理について説明する。かかるMPU52の処理としては大別して、電源投入に伴い起動されるメイン処理と、定期的に(本実施の形態では4msec周期で)起動されるタイマ割込み処理とがある。   Here, processing executed by the MPU 52 will be described. The processing of the MPU 52 is roughly classified into main processing that is started when the power is turned on and timer interrupt processing that is started periodically (in this embodiment, at a cycle of 4 msec).

図7はメイン処理を示すフローチャートである。ステップS101では、電源投入ウェイト処理を実行する。当該電源投入ウェイト処理では、例えばメイン処理が起動されてからウェイト用の所定時間(具体的には1sec)が経過するまで次の処理に進行することなく待機する。かかる電源投入ウェイト処理の実行期間において図柄表示装置41の動作開始及び初期設定が完了することとなる。続くステップS102ではRAM54のアクセスを許可するとともに、ステップS103にてMPU52の内部機能レジスタの設定を行う。   FIG. 7 is a flowchart showing the main process. In step S101, power-on wait processing is executed. In the power-on wait process, for example, the process waits without progressing to the next process until a predetermined time for wait (specifically 1 sec) elapses after the main process is activated. The operation start and initial setting of the symbol display device 41 are completed during the execution period of the power-on wait process. In the subsequent step S102, access to the RAM 54 is permitted, and in step S103, the internal function register of the MPU 52 is set.

その後、ステップS104では、電源・発射制御装置57に設けられたRAM消去スイッチが手動操作されているか否かを判定し、続くステップS105では、RAM54の停電フラグに「1」がセットされているか否かを判定する。また、ステップS106ではチェックサムを算出するチェックサム算出処理を実行し、続くステップS107ではそのチェックサムが電源遮断時に保存したチェックサムと一致するか否か、すなわち記憶保持されたデータの有効性を判定する。   Thereafter, in step S104, it is determined whether or not the RAM erase switch provided in the power / fire control device 57 is manually operated. In subsequent step S105, whether or not “1” is set in the power failure flag of the RAM 54 is determined. Determine whether. In step S106, a checksum calculation process for calculating a checksum is executed. In subsequent step S107, whether or not the checksum matches the checksum stored when the power is turned off, that is, the validity of the stored data is checked. judge.

本パチンコ機10では、例えば遊技ホールの営業開始時など、電源投入時にRAMデータを初期化する場合にはRAM消去スイッチを押しながら電源が投入される。したがって、RAM消去スイッチが押されていれば、ステップS108の処理に移行する。また、電源遮断の発生情報が設定されていない場合や、チェックサムにより記憶保持されたデータの異常が確認された場合も同様にステップS108の処理に移行する。ステップS108では、RAM54をクリアする。その後、ステップS109に進む。   In the pachinko machine 10, for example, when RAM data is initialized when the power is turned on, such as when a game hall starts business, the power is turned on while the RAM erase switch is pressed. Therefore, if the RAM erase switch is pressed, the process proceeds to step S108. Similarly, when the information on occurrence of power shutdown is not set, or when an abnormality of data stored and held is confirmed by the checksum, the process proceeds to step S108. In step S108, the RAM 54 is cleared. Thereafter, the process proceeds to step S109.

一方、RAM消去スイッチが押されていない場合には、停電フラグに「1」がセットされていること、及びチェックサムが正常であることを条件に、ステップS108の処理を実行することなくステップS109に進む。ステップS109では、電源投入設定処理を実行する。電源投入設定処理では、停電フラグの初期化といったRAM54の所定のエリアを初期値に設定するとともに、現状の遊技状態を認識させるために現状の遊技状態に対応したコマンドを音声発光制御装置60に送信する。   On the other hand, if the RAM erase switch has not been pressed, step S109 is executed without executing step S108 on condition that the power failure flag is set to “1” and the checksum is normal. Proceed to In step S109, a power-on setting process is executed. In the power-on setting process, a predetermined area of the RAM 54 such as initialization of a power failure flag is set to an initial value, and a command corresponding to the current gaming state is transmitted to the sound emission control device 60 in order to recognize the current gaming state. To do.

その後、ステップS110〜ステップS113の残余処理に進む。つまり、MPU52はタイマ割込み処理を定期的に実行する構成であるが、1のタイマ割込み処理と次のタイマ割込み処理との間に残余時間が生じることとなる。この残余時間は各タイマ割込み処理の処理完了時間に応じて変動することとなるが、かかる不規則な時間を利用してステップS110〜ステップS113の残余処理を繰り返し実行する。この点、当該ステップS110〜ステップS113の残余処理は非定期的に実行される非定期処理であると言える。   Then, it progresses to the residual process of step S110-step S113. That is, the MPU 52 is configured to periodically execute the timer interrupt process, but a remaining time is generated between one timer interrupt process and the next timer interrupt process. The remaining time varies depending on the processing completion time of each timer interrupt process, but the remaining processes in steps S110 to S113 are repeatedly executed using such irregular time. In this regard, it can be said that the remaining processes in steps S110 to S113 are non-periodic processes that are performed irregularly.

残余処理では、まずステップS110にて、タイマ割込み処理の発生を禁止するために割込み禁止の設定を行う。続くステップS111では、乱数初期値カウンタCINIの更新を行う乱数初期値更新処理を実行するとともに、ステップS112にて変動種別カウンタCSの更新を行う変動用カウンタ更新処理を実行する。これらの更新処理では、RAM54の対応するカウンタから現状の数値情報を読み出し、その読み出した数値情報を1加算する処理を実行した後に、読み出し元のカウンタに上書きする処理を実行する。この場合、カウンタ値が最大値に達した際それぞれ「0」にクリアする。その後、ステップS113にて、タイマ割込み処理の発生を禁止している状態から許可する状態へ切り換える割込み許可の設定を行う。ステップS113の処理を実行したら、ステップS110に戻り、ステップS110〜ステップS113の処理を繰り返す。   In the remaining process, first, in step S110, an interrupt prohibition setting is performed in order to prohibit the generation of the timer interrupt process. In the subsequent step S111, a random number initial value update process for updating the random number initial value counter CINI is executed, and a change counter update process for updating the change type counter CS is executed in step S112. In these update processes, the current numerical information is read from the corresponding counter of the RAM 54, the process of adding 1 to the read numerical information is executed, and then the process of overwriting the read-out counter is executed. In this case, each counter value is cleared to “0” when it reaches the maximum value. Thereafter, in step S113, an interrupt permission setting for switching from a state in which the generation of the timer interrupt process is prohibited to a state in which the timer interrupt process is permitted is performed. If the process of step S113 is performed, it will return to step S110 and will repeat the process of step S110-step S113.

次に、図8のフローチャートを参照しながらタイマ割込み処理を説明する。タイマ割込み処理は定期的(例えば4msec周期)に実行される。まずステップS201にて停電情報記憶処理を実行する。停電情報記憶処理では、停電監視基板から電源遮断の発生に対応した停電信号を受信しているか否かを監視し、停電の発生を特定した場合には停電時処理を実行する。   Next, timer interrupt processing will be described with reference to the flowchart of FIG. The timer interrupt process is executed periodically (for example, at a cycle of 4 msec). First, in step S201, a power failure information storage process is executed. In the power outage information storage process, it is monitored whether or not a power outage signal corresponding to the occurrence of power interruption is received from the power outage monitoring board. If the occurrence of a power outage is specified, the process during power outage is executed.

続くステップS202では抽選用乱数更新処理を実行する。抽選用乱数更新処理では、当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び普電役物開放カウンタC4の更新を実行する。具体的には、当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び普電役物開放カウンタC4から現状の数値情報を順次読み出し、それら読み出した数値情報をそれぞれ1加算する処理を実行した後に、読み出し元のカウンタに上書きする処理を実行する。この場合、カウンタ値が最大値に達した際それぞれ「0」にクリアする。その後、ステップS203ではステップS111と同様に乱数初期値更新処理を実行するとともに、ステップS204にてステップS112と同様に変動用カウンタ更新処理を実行する。   In subsequent step S202, a lottery random number update process is executed. In the lottery random number update process, the winning random number counter C1, the big hit type counter C2, the reach random number counter C3, and the universal utility release counter C4 are updated. Specifically, the current numerical information is sequentially read from the hit random number counter C1, the big hit type counter C2, the reach random number counter C3, and the general electric utility release counter C4, and a process of adding 1 to each of the read numerical information is executed. Later, a process of overwriting the reading source counter is executed. In this case, each counter value is cleared to “0” when it reaches the maximum value. Thereafter, in step S203, the random number initial value update process is executed in the same manner as in step S111, and in step S204, the variation counter update process is executed in the same manner as in step S112.

続くステップS205では、不正用の監視対象として設定されている所定の事象が発生しているか否かを監視する不正検知処理を実行する。当該不正検知処理では、複数種類の事象の発生を監視し、所定の事象が発生していることを確認することで、RAM54に設けられた遊技停止用フラグに「1」をセットする。   In subsequent step S205, a fraud detection process for monitoring whether or not a predetermined event set as a fraud monitoring target has occurred is executed. In the fraud detection process, occurrence of a plurality of types of events is monitored, and by confirming that a predetermined event has occurred, “1” is set to a game stop flag provided in the RAM 54.

続くステップS206では、上記遊技停止用フラグに「1」がセットされているか否かを判定することで、遊技の進行を停止している状態であるか否かを判定する。ステップS206にて否定判定をした場合に、ステップS207以降の処理を実行する。   In the subsequent step S206, it is determined whether or not the progress of the game is stopped by determining whether or not “1” is set in the game stop flag. If a negative determination is made in step S206, the processing after step S207 is executed.

ステップS207では、ポート出力処理を実行する。ポート出力処理では、前回のタイマ割込み処理において出力情報の設定が行われている場合に、その出力情報に対応した出力を各種駆動部に行うための処理を実行する。例えば、特電入賞装置32を開放状態に切り換えるべき情報が設定されている場合には特電入賞駆動部への駆動信号の出力を開始させ、閉鎖状態に切り換えるべき情報が設定されている場合には当該駆動信号の出力を停止させる。また、第2作動口34の普電役物34aを開放状態に切り換えるべき情報が設定されている場合には普電役物駆動部への駆動信号の出力を開始させ、閉鎖状態に切り換えるべき情報が設定されている場合には当該駆動信号の出力を停止させる。   In step S207, port output processing is executed. In the port output process, when output information has been set in the previous timer interrupt process, a process for performing output corresponding to the output information to various drive units is executed. For example, when information for switching the special electricity prize winning device 32 to the open state is set, output of the drive signal to the special electricity prize driving unit is started, and when information to switch to the closed state is set, Stop driving signal output. In addition, when the information for switching the power utility 34a of the second working port 34 to the open state is set, the output of the drive signal to the power utility drive unit is started and the information to be switched to the closed state. Is set, the output of the drive signal is stopped.

続くステップS208では、読み込み処理を実行する。読み込み処理では、停電信号及び入賞信号以外の信号の読み込みを実行し、その読み込んだ情報を今後の処理にて利用するために記憶する。   In a succeeding step S208, a reading process is executed. In the reading process, signals other than the power failure signal and the winning signal are read, and the read information is stored for use in future processing.

続くステップS209では入賞検知処理を実行する。当該入賞検知処理では、各入賞検知センサから受信している信号を読み込むとともに、一般入賞口31、特電入賞装置32、第1作動口33、第2作動口34及びスルーゲート35への入賞の有無を特定する処理を実行する。   In subsequent step S209, a winning detection process is executed. In the winning detection process, a signal received from each winning detection sensor is read, and whether or not there is a winning in the general winning port 31, the special electric winning device 32, the first operating port 33, the second operating port 34, and the through gate 35. Execute the process to identify.

続くステップS210では、RAM54に設けられている複数種類のタイマカウンタの数値情報をまとめて更新するためのタイマ更新処理を実行する。この場合、記憶されている数値情報が減算されて更新されるタイマカウンタを集約して扱う構成であるが、減算式のタイマカウンタの更新及び加算式のタイマカウンタの更新の両方を集約して行う構成としてもよい。   In the subsequent step S210, timer update processing for updating the numerical information of a plurality of types of timer counters provided in the RAM 54 is executed. In this case, the timer counter that is updated by subtracting the stored numerical information is handled in an integrated manner. However, both the updating of the subtracting timer counter and the updating of the adding timer counter are performed collectively. It is good also as a structure.

続くステップS211では、遊技球の発射制御を行うための発射制御処理を実行する。発射操作装置28への発射操作が継続されている状況では、既に説明したとおり、所定の発射周期である0.6secに1個の遊技球が発射される。   In the subsequent step S211, a launch control process for controlling the launch of the game ball is executed. In a situation where the launch operation to the launch operation device 28 is continued, as described above, one game ball is launched at a predetermined launch period of 0.6 sec.

続くステップS212では、入力状態監視処理として、ステップS208の読み込み処理にて読み込んだ情報に基づいて、各入賞検知センサの断線確認や、遊技機本体12や前扉枠14の開放確認を行う。   In the subsequent step S212, as input state monitoring processing, disconnection confirmation of each winning detection sensor and opening confirmation of the gaming machine main body 12 and the front door frame 14 are performed based on the information read in the reading processing in step S208.

続くステップS213では、遊技回の実行制御及び開閉実行モードの実行制御を行うための特図特電制御処理を実行する。当該特図特電制御処理では、保留格納エリア54bに記憶されている保留情報の数が上限数未満である状況で第1作動口33又は第2作動口34への入賞が発生した場合に、その時点における当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報を保留情報として、保留格納エリア54bに時系列的に格納していく処理を実行する。また、特図特電制御処理では、遊技回中及び開閉実行モード中ではなく且つ保留情報が記憶されていることを条件に、その保留情報が大当たり当選に対応しているか否かを判定する当否判定処理、及び大当たり当選に対応している場合にはその保留情報がいずれの大当たり結果に対応しているのかを判定する振分判定処理を実行する。また、特図特電制御処理では、当否判定処理及び振分判定処理だけでなく、その保留情報が大当たり当選に対応していない場合には、その保留情報がリーチ発生に対応しているか否かを判定するリーチ判定処理を実行するとともに、その時点における変動種別カウンタCSの数値情報を利用して遊技回の継続時間を選択する処理を実行する。この場合、大当たり当選の有無、大当たり種別及びリーチ発生の有無に対応した変動表示時間テーブルをROM53から読み出し、その読み出した変動表示時間テーブルと、そのタイミングにおける変動種別カウンタCSの数値情報とから今回の遊技回の継続時間を決定する。そして、その決定した遊技回の継続時間の情報を含む変動用コマンドと、遊技結果の情報を含む種別コマンドとを、音声発光制御装置60に送信するとともに、特図表示部37aにおける絵柄の変動表示を開始させる。これにより、1遊技回が開始された状態となり、特図表示部37a及び図柄表示装置41にて遊技回用の演出が開始される。   In the subsequent step S213, a special figure special electric control process for performing execution control of the game times and execution control of the opening / closing execution mode is executed. In the special figure special power control process, when a winning to the first operating port 33 or the second operating port 34 occurs in a situation where the number of the holding information stored in the holding storage area 54b is less than the upper limit number, A process of storing the numerical information of the hit random number counter C1, the big hit type counter C2 and the reach random number counter C3 at the time as the hold information in the hold storage area 54b in time series is executed. Also, in the special figure special electric control process, whether or not the hold information corresponds to the big win is determined on the condition that the hold information is not stored during the game rotation and the opening / closing execution mode and is stored. If it corresponds to the process and the jackpot winning, a distribution determination process for determining which jackpot result the hold information corresponds to is executed. In addition, in the special figure special power control process, not only the success / failure determination process and the distribution determination process, but if the hold information does not correspond to the big win, whether the hold information corresponds to the occurrence of reach. A reach determination process is performed, and a process of selecting a game time duration using the numerical information of the variation type counter CS at that time is executed. In this case, the variable display time table corresponding to the presence / absence of jackpot winning, the type of jackpot, and the presence / absence of reach is read from the ROM 53, and the current variation display time table and the numerical information of the variation type counter CS at that timing are read from this time. Determine the duration of game times. Then, the variation command including information on the determined duration of the game times and the type command including information on the game result are transmitted to the sound emission control device 60, and the variation display of the pattern on the special figure display unit 37a is performed. To start. As a result, one game round is started, and an effect for game round is started on the special figure display unit 37a and the symbol display device 41.

また、特図特電制御処理では、1遊技回の実行中にはその遊技回の終了タイミングであるか否かを判定し、終了タイミングである場合には遊技結果に対応した表示を行った状態で、その遊技回を終了させる処理を実行する。この場合、遊技回を終了させるべきことを示す最終停止コマンドを音声発光制御装置60に送信する。また、特図特電制御処理では、遊技回の結果が開閉実行モードへの移行に対応した結果である場合には、当該開閉実行モードを開始させるための処理を実行する。この開始に際しては、開閉実行モードが開始されることを示すオープニングコマンドを音声発光制御装置60に送信する。また、特図特電制御処理では、各ラウンド遊技を開始させるための処理及び各ラウンド遊技を終了させるための処理を実行する。これら各処理に際して、ラウンド遊技が開始されることを示す開放コマンドを音声発光制御装置60に送信するとともに、ラウンド遊技が終了されることを示す閉鎖コマンドを音声発光制御装置60に送信する。また、特図特電制御処理では、開閉実行モードを終了させる場合にそのことを示すエンディングコマンドを音声発光制御装置60に送信するとともに、開閉実行モード後の当否抽選モードやサポートモードを設定するための処理を実行する。   Also, in the special figure special electric control process, during the execution of one game round, it is determined whether or not it is the end timing of the game round. If it is the end timing, the display corresponding to the game result is performed. Then, the process of ending the game round is executed. In this case, a final stop command indicating that the game round should be ended is transmitted to the sound emission control device 60. Further, in the special figure special electric control process, when the result of the game times is a result corresponding to the transition to the opening / closing execution mode, a process for starting the opening / closing execution mode is executed. At the start, an opening command indicating that the opening / closing execution mode is started is transmitted to the sound emission control device 60. In the special figure special electric control process, a process for starting each round game and a process for ending each round game are executed. In each of these processes, an open command indicating that the round game is started is transmitted to the sound emission control device 60, and a close command indicating that the round game is ended is transmitted to the sound light control device 60. Further, in the special figure special electric control process, when the opening / closing execution mode is ended, an ending command indicating that is sent to the sound emission control device 60, and the success / failure lottery mode and the support mode after the opening / closing execution mode are set. Execute the process.

タイマ割込み処理においてステップS213の特図特電制御処理を実行した後は、ステップS214にて普図普電制御処理を実行する。普図普電制御処理では、スルーゲート35への入賞が発生している場合に普図側の保留情報を取得するための処理を実行するとともに、普図側の保留情報が記憶されている場合にその保留情報について開放判定を行い、さらにその開放判定を契機として普図用の演出を行うための処理を実行する。また、開放判定の結果に基づいて、第2作動口34の普電役物34aを開閉させる処理を実行する。   After executing the special figure special electric control process of step S213 in the timer interruption process, the normal figure electric power control process is executed in step S214. In the ordinary map / electric power control process, when a winning to the through gate 35 is generated, a process for acquiring the retained information on the ordinary map side is executed and the retained information on the ordinary map side is stored. In addition, a release determination is performed on the hold information, and a process for performing an effect for a normal diagram is executed using the release determination as a trigger. Further, based on the result of the opening determination, a process for opening and closing the utility wire 34a of the second working port 34 is executed.

続くステップS215では、直前のステップS213及びステップS214の処理結果に基づいて、特図表示部37aに係る保留情報の増減個数を特図保留表示部37bに反映させるための出力情報の設定を行うとともに、普図表示部38aに係る保留情報の増減個数を普図保留表示部38bに反映させるための出力情報の設定を行う。また、ステップS215では、直前のステップS213及びステップS214の処理結果に基づいて、特図表示部37aの表示内容を更新させるための出力情報の設定を行うとともに、普図表示部38aの表示内容を更新させるための出力情報の設定を行う。   In the subsequent step S215, based on the processing results of the immediately preceding steps S213 and S214, output information is set for reflecting the increase / decrease number of the hold information related to the special figure display unit 37a in the special figure hold display unit 37b. The output information for reflecting the increase / decrease number of the hold information related to the general map display unit 38a to the general map hold display unit 38b is set. In step S215, the output information for updating the display content of the special figure display unit 37a is set based on the processing results of the immediately preceding steps S213 and S214, and the display content of the general map display unit 38a is set. Set the output information to be updated.

続くステップS216では、払出制御装置55から受信したコマンド及び信号の内容を確認し、その確認結果に対応した処理を行うための払出状態受信処理を実行する。また、ステップS217では、賞球コマンドを出力対象として設定するための払出出力処理を実行する。続くステップS218では、今回のタイマ割込み処理にて実行された各種処理の処理結果に応じた外部信号の出力の開始及び終了を制御するための外部情報設定処理を実行する。その後、本タイマ割込み処理を終了する。   In the subsequent step S216, the contents of the command and signal received from the payout control device 55 are confirmed, and a payout state receiving process for performing a process corresponding to the confirmation result is executed. In step S217, a payout output process for setting a prize ball command as an output target is executed. In the subsequent step S218, an external information setting process for controlling the start and end of the output of the external signal according to the processing results of the various processes executed in the current timer interrupt process is executed. Thereafter, the timer interrupt process is terminated.

<音声発光制御装置60>
次に、音声発光制御装置60について説明する。
<Audio emission control device 60>
Next, the sound emission control device 60 will be described.

音声発光制御装置60は、図5に示すように、MPU62が搭載された音声発光制御基板61を具備している。MPU62には、当該MPU62により実行される各種の制御プログラムや固定値データを記憶したROM63と、そのROM63内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM64と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。   As shown in FIG. 5, the sound emission control device 60 includes a sound emission control board 61 on which an MPU 62 is mounted. The MPU 62 includes a ROM 63 that stores various control programs executed by the MPU 62 and fixed value data, and a memory that temporarily stores various data when the control program stored in the ROM 63 is executed. A RAM 64, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, and the like are incorporated.

なお、ROM63として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。具体的には、NOR型キャッシュメモリが用いられている。但し、これに限定されることはなく、ランダムアクセスが可能であれば、ROM63として用いるメモリの種類は任意である。また、制御及び演算部分と、ROM63と、RAM64とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。   The ROM 63 is a storage means (that is, a non-volatile storage means) that can be randomly accessed when reading a control program or fixed value data and does not require external power supply for storage retention. Specifically, a NOR type cache memory is used. However, the present invention is not limited to this, and the type of memory used as the ROM 63 is arbitrary as long as random access is possible. In addition, a configuration in which the control and calculation portion, the ROM 63, and the RAM 64 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions may be configured as separate chips. It is good also as the structure mounted.

MPU62には、入力ポート及び出力ポートがそれぞれ設けられている。MPU62の入力側には主制御装置50が接続されているとともに、MPU62の出力側には表示発光部44及びスピーカ部45が接続されている。また、MPU62の入力側及び出力側の両方に対して、表示制御装置70の後述する表示CPU72が接続されている。つまり、MPU62は表示CPU72と双方向通信可能となるように接続されており、これらMPU62と表示CPU72との間でコマンドが双方向通信でやり取りされる。なお、当該双方向通信はシリアル通信で行われるが、これに限定されることはなくパラレル通信で行われる構成としてもよい。   The MPU 62 is provided with an input port and an output port. The main controller 50 is connected to the input side of the MPU 62, and the display light emitting unit 44 and the speaker unit 45 are connected to the output side of the MPU 62. Further, a display CPU 72 described later of the display control device 70 is connected to both the input side and the output side of the MPU 62. That is, the MPU 62 is connected to the display CPU 72 so as to be capable of bidirectional communication, and commands are exchanged between the MPU 62 and the display CPU 72 by bidirectional communication. The bidirectional communication is performed by serial communication, but is not limited thereto, and may be performed by parallel communication.

MPU62では、主制御装置50から送信された変動用コマンドを受信することで、遊技回用の演出を開始させる必要があることを認識し、遊技回用演出開始処理を実行する。また、主制御装置50から送信された終了コマンドを受信することで、遊技回用の演出を終了させる必要があることを認識し、遊技回用演出終了処理を実行する。また、主制御装置50から送信された大当たり演出用の各種コマンドを受信することで、大当たり演出を開始させる必要があること又は進行させる必要があることを認識し、大当たり演出用処理を実行する。   The MPU 62 recognizes that it is necessary to start an effect for game times by receiving the variation command transmitted from the main control device 50, and executes an effect start process for game times. In addition, by receiving the end command transmitted from the main control device 50, it is recognized that it is necessary to end the effect for the game turn, and the game turn effect end process is executed. Also, by receiving the various jackpot presentation commands transmitted from the main control device 50, it is recognized that the jackpot presentation needs to be started or advanced, and the jackpot presentation process is executed.

なお、MPU62において主制御装置50からコマンドを受信するとは、主制御装置50からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。   Note that the MPU 62 receiving a command from the main control device 50 is not limited to a configuration for directly receiving a command from the main control device 50, and includes a configuration for receiving a command relayed to a relay board.

遊技回用演出開始処理では、変動用コマンド及び種別コマンドの両コマンドに基づいて、該当遊技回の変動表示時間を把握する変動表示時間の把握処理と、リーチ表示の有無を把握するリーチ表示把握処理と、大当たり結果の有無を把握する大当たり結果発生の把握処理と、大当たり結果が発生する場合における大当たり種別を把握する大当たり種別の把握処理と、を実行する。また、リーチ表示把握処理、大当たり結果発生の把握処理及び大当たり種別の把握処理における把握結果に基づいて、本遊技回において図柄表示装置41の表示面Pに最終停止表示させる図柄の種類を決定する図柄種別把握処理を実行する。そして、上記各把握処理の結果に基づいて、変動表示時間の情報及び表示演出の種類の情報を含む変動パターンコマンドと、最終停止表示させる図柄の種類の情報を含む図柄指定コマンドを、表示制御装置70に送信する。   In the game turn production start process, based on both the change command and the type command, the change display time grasp process for grasping the change display time of the corresponding game turn and the reach display grasp process for grasping the presence or absence of reach display. And a jackpot result occurrence grasping process for grasping the presence / absence of the jackpot result and a jackpot type grasping process for grasping the jackpot type when the jackpot result occurs. In addition, based on the grasp results in the reach display grasping process, the jackpot result occurrence grasping process, and the jackpot type grasping process, the symbol for determining the kind of the symbol to be finally stopped and displayed on the display surface P of the symbol display device 41 in this game round. Execute type grasp processing. Then, based on the results of the above grasping processes, a display control device includes a change pattern command including information on the change display time and information on the type of display effect, and a design designation command including information on the type of design to be finally stopped and displayed. 70.

また、遊技回用演出開始処理では、上記各把握処理の他に、予告表示を行うか否かの予告表示抽選処理を実行する。この場合、当該抽選処理では、予告表示の種別抽選についても実行される。そして、予告表示の発生当選である場合には、予告表示の種別の情報を含む予告コマンドを、表示制御装置70に送信する。   In addition, in the game turn production start process, in addition to the above-described grasping processes, a notice display lottery process for determining whether or not to perform a notice display is executed. In this case, in the lottery process, the type lottery for the notice display is also executed. If it is determined that the notice display has been generated, a notice command including information on the type of notice display is transmitted to the display control device 70.

また、遊技回用演出開始処理では、上記各処理の処理結果に基づいて、遊技回用の表示発光テーブルと遊技回用の音声テーブルとをROM63から読み出す。遊技回用の表示発光テーブルにより、該当する遊技回の進行過程における表示発光部44の発光態様が規定される。また、遊技回用の音声テーブルにより、該当する遊技回の進行過程におけるスピーカ部45からの出力態様が規定される。   Further, in the game start effect starting process, the game light display light emission table and the game turn sound table are read from the ROM 63 based on the processing results of the above processes. The display light emission table for game times defines the light emission mode of the display light emitting unit 44 during the progress of the corresponding game times. In addition, an output mode from the speaker unit 45 in the progress process of the corresponding game round is defined by the game round voice table.

遊技回用演出終了処理では、現状の遊技回における表示発光部44の発光制御及びスピーカ部45の音声出力制御を終了する。また、当該遊技回用演出終了処理では、遊技回用演出を終了させるべき情報を含む終了コマンドを、表示制御装置70に送信する。   In the game round effect end process, the light emission control of the display light emitting unit 44 and the sound output control of the speaker unit 45 in the current game round are terminated. Further, in the game turn effect end process, an end command including information for ending the game turn effect is transmitted to the display control device 70.

大当たり演出用処理では、受信している大当たり演出用の各種コマンドに基づいて、オープニング時、各ラウンド時、各ラウンド間及びエンディング時などの演出態様を把握し、その把握結果に対応した大当たり演出用のコマンドを表示制御装置70に送信する。また、当該把握結果に基づいて、大当たり演出用の表示発光テーブルと大当たり演出用の音声テーブルとをROM63から読み出し、大当たり演出中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。   In the jackpot presentation process, based on the various commands for the jackpot presentation received, the presentation mode at the opening, at each round, between each round, and at the ending is grasped, and the jackpot presentation corresponding to the grasped result Is sent to the display control device 70. Further, based on the grasped result, the display light emission table for the jackpot effect and the sound table for the jackpot effect are read from the ROM 63, and the light emission mode of the display light emitting unit 44 and the sound output mode from the speaker unit 45 during the jackpot effect. Is specified.

<表示制御装置70>
次に、表示制御装置70について説明する。
<Display control device 70>
Next, the display control device 70 will be described.

表示制御装置70は、図5に示すように、表示CPU72と、ワークRAM73と、メモリモジュール74と、VRAM75と、ビデオディスプレイプロセッサ(VDP)76と、が搭載された表示制御基板71を備えている。   As shown in FIG. 5, the display control device 70 includes a display control board 71 on which a display CPU 72, a work RAM 73, a memory module 74, a VRAM 75, and a video display processor (VDP) 76 are mounted. .

表示CPU72は、表示制御装置70においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU72は表示制御基板71に搭載された入力ポート77に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート77を通じて表示CPU72に入力される。なお、表示CPU72において音声発光制御装置60からコマンドを受信するとは、音声発光制御装置60からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。   The display CPU 72 has a function as a main control unit in the display control device 70, and reads, interprets, and executes a control program and the like. Specifically, the display CPU 72 is connected to an input port 77 mounted on the display control board 71 via a bus, and various commands transmitted from the sound emission control device 60 are input to the display CPU 72 through the input port 77. Is done. Note that the display CPU 72 receiving a command from the sound emission control device 60 is not limited to a structure that directly receives a command from the sound light emission control device 60, and includes a structure that receives a command relayed to the relay board. It is.

表示CPU72は、バスを介してワークRAM73、メモリモジュール74及びVRAM75と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール74に記憶された各種データをワークRAM73に転送させる転送指示を行う。また、表示CPU72は、バスを介してVDP76と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置41に画像信号を出力させる描画指示を行う。以下、メモリモジュール74、ワークRAM73、VRAM75及びVDP76について説明する。   The display CPU 72 is connected to the work RAM 73, the memory module 74, and the VRAM 75 via a bus, and transfers various data stored in the memory module 74 to the work RAM 73 based on commands received from the sound emission control device 60. Instruct the transfer. Further, the display CPU 72 is connected to the VDP 76 via a bus, and performs a drawing instruction for causing the symbol display device 41 to output an image signal based on a command received from the sound emission control device 60. Hereinafter, the memory module 74, the work RAM 73, the VRAM 75, and the VDP 76 will be described.

メモリモジュール74は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、図柄表示装置41に表示される図柄やキャラクタなどのスプライトデータ、背景データ、及び動画像データなどを含む各種画像データを予め記憶している記憶手段である。当該メモリモジュール74は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置70における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール74は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。   The memory module 74 stores control data including a control program and fixed value data in advance, and includes sprite data such as symbols and characters displayed on the symbol display device 41, background data, and moving image data. It is a storage means for storing various image data in advance. The memory module 74 includes a non-volatile semiconductor memory that does not require external power supply for storage. Incidentally, although the storage capacity is 4 Gbits, this storage capacity is arbitrary as long as the control in the display control device 70 is executed well. Further, the memory module 74 is used as a non-write and read-only memory (ROM) when the pachinko machine 10 is used.

ここで、各スプライトデータは、キャラクタの外形や模様を規定するビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照されるカラーパレットテーブルとの組合せを少なくとも含んでいる。また、背景データは、静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。動画像データについては、後に詳細に説明する。   Here, each sprite data includes at least a combination of bitmap format data that defines the outline and pattern of the character and a color palette table that is referred to when determining the display color at each pixel of the bitmap image. Yes. The background data is stored and held as JPEG format data in a state where still image data is compressed. The moving image data will be described in detail later.

ワークRAM73は、メモリモジュール74から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM73は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置70における制御が良好に実行されるのであれば任意である。また、ワークRAM73は、パチンコ機10の使用に際して、読み書き両用として用いられる。   The work RAM 73 is storage means for temporarily storing the control data read and transferred from the memory module 74 and temporarily storing flags and the like. The work RAM 73 includes a volatile semiconductor memory that requires external power supply for storage and retention, and in detail, a DRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as SRAM may be used. The storage capacity is 1 Gbit, but the storage capacity is arbitrary as long as the control in the display control device 70 is executed well. The work RAM 73 is used for both reading and writing when the pachinko machine 10 is used.

ワークRAM73には、表示CPU72からメモリモジュール74へのデータ転送指示に基づき、当該メモリモジュール74から制御用データが転送される。そして、表示CPU72は、ワークRAM73に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。   Based on a data transfer instruction from the display CPU 72 to the memory module 74, control data is transferred from the memory module 74 to the work RAM 73. The display CPU 72 reads the control data transferred to the work RAM 73 into an internal memory area (register group) as necessary, and executes various processes.

VRAM75は、図柄表示装置41に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM75は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置70における制御が良好に実行されるのであれば任意である。また、当該VRAM75は、パチンコ機10の使用に際して、読み書き両用として用いられる。   The VRAM 75 is a storage unit for temporarily storing various data necessary for image output to the symbol display device 41. The VRAM 75 includes a volatile semiconductor memory that requires external power supply for storage and holding, and in detail, an SDRAM is used as the semiconductor memory. However, it is not limited to SDRAM, and other RAM such as DRAM, SRAM or dual port RAM may be used. The storage capacity is 2 Gbits, but the storage capacity is arbitrary as long as the control in the display control device 70 is satisfactorily executed. The VRAM 75 is used for both reading and writing when the pachinko machine 10 is used.

VRAM75は展開用バッファ81を備えており、展開用バッファ81には、VDP76からメモリモジュール74へのデータ転送指示に基づき、当該メモリモジュール74から画像データが転送される。また、VRAM75には、VDP76により描画データが作成されるフレームバッファ82が設けられている。なお、VRAM75がVDP76に内蔵されていてもよい。   The VRAM 75 includes a development buffer 81, and image data is transferred from the memory module 74 to the development buffer 81 based on a data transfer instruction from the VDP 76 to the memory module 74. The VRAM 75 is provided with a frame buffer 82 in which drawing data is created by the VDP 76. The VRAM 75 may be built in the VDP 76.

VDP76は、表示CPU72からの描画指示に基づき、展開用バッファ81に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置41に対して描画を行う画像生成デバイスであり、図柄表示装置41において液晶表示部41aを駆動制御するように組み込まれた画像処理デバイス41bを操作する一種の描画回路である。VDP76はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。   The VDP 76 is an image generation device that performs drawing on the symbol display device 41 by specifically processing data stored in the development buffer 81 based on a drawing instruction from the display CPU 72. Yes, it is a kind of drawing circuit that operates an image processing device 41b incorporated in the symbol display device 41 so as to drive and control the liquid crystal display unit 41a. Since the VDP 76 is an IC chip, it is also called a “drawing chip”, and the substance of the VDP 76 should be said to be a microcomputer chip with a drawing-dedicated firmware.

詳細には、VDP76は、制御部91と、レジスタ92と、動画デコーダ93と、表示回路94と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU72用のI/F95及びVRAM75用のI/F96と接続されている。   Specifically, the VDP 76 includes a control unit 91, a register 92, a moving picture decoder 93, and a display circuit 94. These circuits are connected to each other via a bus, and are also connected to an I / F 95 for the display CPU 72 and an I / F 96 for the VRAM 75.

VDP76では、表示CPU72から送信された描画指示情報としての描画リストをレジスタ92に記憶させる。レジスタ92に描画リストが記憶されることにより、制御部91では描画リストに従ったプログラムが起動されて予め定められた処理が実行される。なお、制御部91が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリを制御部91に内蔵させ、当該制御プログラムと描画リストの内容とによって制御部91が所定の処理を実行する構成としてもよい。また、メモリモジュール74から制御プログラムを事前に読み出す構成としてもよい。   The VDP 76 stores a drawing list as drawing instruction information transmitted from the display CPU 72 in the register 92. When the drawing list is stored in the register 92, the control unit 91 starts a program according to the drawing list and executes a predetermined process. In addition, it is good also as a structure by which all the control programs for the control part 91 to operate | move are provided with a drawing list, the memory which memorize | stored the control program previously is built in the control part 91, the content of the said control program and a drawing list, and Thus, the control unit 91 may execute a predetermined process. Alternatively, the control program may be read from the memory module 74 in advance.

上記処理として、制御部91は、メモリモジュール74に記憶されている画像データをVRAM75の展開用バッファ81に読み出す。また、制御部91は、展開用バッファ81に読み出された画像データを用いて(又は加工することにより)、フレームバッファ82に1フレーム分の描画データを作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置41の表示面Pにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるために必要なデータのことをいう。   As the above process, the control unit 91 reads the image data stored in the memory module 74 into the expansion buffer 81 of the VRAM 75. Further, the control unit 91 creates drawing data for one frame in the frame buffer 82 by using (or processing) the image data read out to the development buffer 81. The drawing data for one frame refers to data necessary for displaying an image at one update timing in a configuration in which an image on the display surface P of the symbol display device 41 is updated at a predetermined update timing. Say.

ここで、フレームバッファ82には、複数のフレーム領域82a,82bが設けられている。具体的には、第1フレーム領域82aと、第2フレーム領域82bとが設けられている。これら各フレーム領域82a,82bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域82a,82bにはそれぞれ、液晶表示部41a(すなわち表示面P)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。   Here, the frame buffer 82 is provided with a plurality of frame regions 82a and 82b. Specifically, a first frame region 82a and a second frame region 82b are provided. Each of the frame regions 82a and 82b is set to a capacity capable of storing drawing data for one frame. Specifically, each of the frame regions 82a and 82b includes a large number of unit areas corresponding to the dots (pixels) of the liquid crystal display unit 41a (that is, the display surface P) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color to display. More specifically, a full color method is employed, and 256 colors can be set for each of R (red), G (green), and B (blue) in each dot. Corresponding to this, in each unit area, 1 byte (8 bits) is assigned to each RGB color. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。   Note that the present invention is not limited to the full-color method, and for example, in a configuration that can display only 256 colors in each dot, the storage capacity required to store color information in each unit area may be 1 byte.

フレームバッファ82に第1フレーム領域82a及び第2フレーム領域82bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置41への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ82として、ダブルバッファ方式が採用されている。   Since the first frame area 82a and the second frame area 82b are provided in the frame buffer 82, drawing on the symbol display device 41 is executed using drawing data created in one frame area. The creation of drawing data to be used in the future is executed for other frame regions. That is, a double buffer system is adopted as the frame buffer 82.

表示回路94では、第1フレーム領域82a又は第2フレーム領域82bに作成された描画データに基づいて液晶表示部41aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路94に接続された出力ポート78を介して図柄表示装置41に出力される。詳細には、出力対象のフレーム領域82a,82bから表示回路94へ描画データが転送される。その転送された描画データは図柄表示装置41の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置41の各ドットに対応した画像信号が生成されて出力される。なお、表示回路94からは水平同期信号又は垂直同期信号などの同期信号も出力される。また、動画デコーダ93では、VRAM75の展開用バッファ81に転送された動画像データのデコードを実行する。   In the display circuit 94, an image signal corresponding to each dot of the liquid crystal display unit 41a is generated based on the drawing data created in the first frame region 82a or the second frame region 82b, and the image signal is sent to the display circuit 94. The signal is output to the symbol display device 41 through the connected output port 78. Specifically, the drawing data is transferred from the frame areas 82 a and 82 b to be output to the display circuit 94. The transferred drawing data is converted into gradation data by adjusting the resolution by a scaler (not shown) so as to correspond to the resolution of the symbol display device 41. Based on the gradation data, an image signal corresponding to each dot of the symbol display device 41 is generated and output. Note that the display circuit 94 also outputs a synchronization signal such as a horizontal synchronization signal or a vertical synchronization signal. The moving picture decoder 93 decodes the moving image data transferred to the expansion buffer 81 of the VRAM 75.

<音声発光制御装置60のMPU62の処理構成>
次に、音声発光制御装置60のMPU62(以下、音光側MPU62という)にて実行される処理について説明する。図9は音光側MPU62にて比較的短い周期(例えば4msec)で繰り返し実行されるタイマ割込み処理を示すフローチャートである。
<Processing Configuration of MPU 62 of Sound Emission Control Device 60>
Next, processing executed by the MPU 62 (hereinafter referred to as the sound light side MPU 62) of the sound emission control device 60 will be described. FIG. 9 is a flowchart showing a timer interrupt process repeatedly executed at a relatively short period (for example, 4 msec) by the sound light side MPU 62.

まずステップS301にて、主制御装置50のMPU52(以下、主側MPU52という)から受信したコマンドに対応した処理を行うための主側コマンド対応処理を実行する。続くステップS302では、図柄表示装置41の表示制御の内容を表示CPU72に指示するためのコマンド選択処理を実行する。   First, in step S301, a main-side command handling process is executed to perform a process corresponding to a command received from the MPU 52 (hereinafter referred to as the main-side MPU 52) of the main controller 50. In the subsequent step S302, command selection processing for instructing the display CPU 72 of the contents of display control of the symbol display device 41 is executed.

その後、ステップS303にて、表示発光部44の発光制御を行うための発光制御処理を実行する。当該発光制御処理では、上記ステップS301の主側コマンド対応処理にて読み出された制御パターンテーブルに従って表示発光部44の発光制御を行う。また、ステップS304では、スピーカ部45の音出力制御を行うための音出力制御処理を実行する。当該音出力制御処理では、上記ステップS301の主側コマンド対応処理にて読み出された制御パターンテーブルに従ってスピーカ部45の音出力制御を行う。その後、ステップS305にてポインタ更新処理を実行する。ポインタ更新処理では、現状の制御パターンテーブルのポインタ情報を次のポインタ情報に更新する。また、ステップS306では、表示CPU72から受信したコマンドに対応した処理を行うための表示側コマンド対応処理を実行する。   Thereafter, in step S303, a light emission control process for performing light emission control of the display light emitting unit 44 is executed. In the light emission control process, the light emission control of the display light emitting unit 44 is performed in accordance with the control pattern table read out in the main command corresponding process in step S301. In step S304, sound output control processing for performing sound output control of the speaker unit 45 is executed. In the sound output control process, the sound output control of the speaker unit 45 is performed according to the control pattern table read out in the main-side command handling process in step S301. Thereafter, pointer update processing is executed in step S305. In the pointer update process, the pointer information in the current control pattern table is updated to the next pointer information. In step S306, a display-side command handling process for executing a process corresponding to the command received from the display CPU 72 is executed.

<主側コマンド対応処理>
図10は、タイマ割込み処理(図9)のステップS301にて実行される主側コマンド対応処理を示すフローチャートである。
<Main command processing>
FIG. 10 is a flowchart showing the main-side command response process executed in step S301 of the timer interrupt process (FIG. 9).

主側MPU52から変動用コマンド及び種別コマンドを受信している場合(ステップS401:YES)、遊技結果の記憶処理を実行する(ステップS402)。具体的には、種別コマンドに含まれている情報から、今回の遊技回の開始に際して主側MPU52にて決定された当否抽選及び振分抽選の結果がいずれであるかの情報を特定し、その特定した情報をRAM64に書き込む。   When the variation command and the type command are received from the main MPU 52 (step S401: YES), a game result storing process is executed (step S402). Specifically, from the information included in the type command, information on which is the result of the lottery determination or the distribution lottery determined by the main MPU 52 at the start of the current game round is specified, The specified information is written into the RAM 64.

続くステップS403では、予告抽選処理を実行する。予告抽選処理では、今回の遊技回において図柄表示装置41にて予告表示を行わせるか否かを抽選により決定する。かかる予告表示としては、既に説明したとおり、図柄表示装置41にて図柄の変動表示が開始されてから、全ての図柄列Z1〜Z3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列Z1〜Z3上の図柄とは別にキャラクタを表示させる態様とするものや、背景画面をそれまでの態様とは異なる所定の態様とするものや、図柄列Z1〜Z3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。当該予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示が行われる場合の方がリーチ表示が行われない場合よりも高確率で発生するように設定されている。また、予告抽選処理では、いずれかの大当たり結果に対応した遊技回の方が、外れ結果に対応した遊技回に比べ、予告表示が発生し易く、さらに出現率の低い予告表示が発生し易くなるように予告抽選を行う。   In a succeeding step S403, a notice lottery process is executed. In the notice lottery process, it is determined by lottery whether or not to make a notice display on the symbol display device 41 in the current game round. As the notice display, as already described, since the symbol display on the symbol display device 41 is started, the symbols are variably displayed on all symbol columns Z1 to Z3, or a part of the notice display is displayed. In a situation where symbols are displayed in a variable manner in a plurality of symbol sequences, a mode in which a character is displayed separately from the symbols on the symbol columns Z1 to Z3, and a background screen as a previous mode Includes a different predetermined mode, and a pattern on the symbol row Z1 to Z3 having a predetermined mode different from the previous mode. The notice display may occur in any game times when reach display is performed and when reach display is not performed, but the case where reach display is performed is higher than the case where reach display is not performed. It is set to occur with probability. In addition, in the notice lottery process, the game times corresponding to any of the jackpot results are more likely to generate a notice display and more likely to generate a notice display having a lower appearance rate than the game times corresponding to the missed result. A lottery will be conducted.

続くステップS404では、停止図柄決定処理を実行する。停止図柄決定処理では、今回の遊技回の遊技結果が通常大当たり結果及び15R確変大当たり結果のいずれかであれば、一の有効ラインL1〜L5上に同一の図柄の組合せが成立する停止結果に対応した情報を、今回の停止結果の情報として決定する。この場合、同一の奇数図柄の組合せは15R確変大当たり結果の場合に選択される一方、同一の偶数図柄の組合せは通常大当たり結果及び15R確変大当たり結果のいずれにおいても選択され得る。なお、同一の図柄の組合せが停止表示される有効ラインL1〜L5は抽選などによってランダムに決定される。また、通常大当たり結果であっても同一の奇数図柄の組合せが選択され得る構成としてもよい。   In the subsequent step S404, stop symbol determination processing is executed. In the stop symbol determination process, if the game result of the current game round is either a normal jackpot result or a 15R probability variable jackpot result, it corresponds to a stop result in which the same symbol combination is established on one effective line L1 to L5 The determined information is determined as information on the current stop result. In this case, the same odd symbol combination is selected for the 15R probability variation jackpot result, while the same even symbol combination can be selected for both the normal jackpot result and the 15R probability variation jackpot result. Note that the effective lines L1 to L5 on which the same symbol combination is stopped and displayed are randomly determined by lottery or the like. Moreover, it is good also as a structure which can select the combination of the same odd symbol even if it is a normal jackpot result.

停止図柄決定処理では、今回の遊技回の遊技結果が明示2R確変大当たり結果であれば、全ての有効ラインL1〜L5上に同一図柄の組合せが成立しない停止結果であって、一の有効ラインL1〜L5上に特定の図柄の組合せ(「3・4・1」)が成立する停止結果に対応した情報を、今回の停止結果の情報として決定する。この場合、有効ラインL1〜L5は抽選などによってランダムに決定される。   In the stop symbol determination process, if the game result of the current game round is an explicit 2R probability variation jackpot result, it is a stop result in which the combination of the same symbols is not established on all the effective lines L1 to L5, and one effective line L1 Information corresponding to the stop result in which a specific symbol combination (“3 · 4 · 1”) is established on L5 is determined as information on the current stop result. In this case, the effective lines L1 to L5 are randomly determined by lottery or the like.

停止図柄決定処理では、今回の遊技回の遊技結果が外れ結果であれば、変動用コマンドの内容からリーチ表示の有無を特定する。そして、リーチ表示が発生する場合には、全ての有効ラインL1〜L5上に同一図柄の組合せ及び上記特定の図柄の組合せが成立しない停止結果であって、一又は二の有効ラインL1〜L5上にリーチ図柄の組合せが成立する停止結果に対応した情報を、今回の停止結果の情報として決定する。一方、リーチ表示が発生しない場合には、全ての有効ラインL1〜L5上に同一図柄の組合せ及び上記特定の図柄の組合せが成立しない停止結果であって、全ての有効ラインL1〜L5上にリーチ図柄の組合せが成立しない停止結果に対応した情報を、今回の停止結果の情報として決定する。   In the stop symbol determination process, if the game result of the current game round is an out-of-game result, the presence or absence of reach display is specified from the contents of the change command. And when reach display occurs, it is a stop result in which the combination of the same symbols and the combination of the above specific symbols are not established on all the effective lines L1 to L5, and on one or two effective lines L1 to L5 Information corresponding to a stop result in which a combination of reach symbols is established is determined as information on the current stop result. On the other hand, when reach display does not occur, it is a stop result in which the combination of the same symbols and the specific symbol combination are not established on all the effective lines L1 to L5, and reach on all the effective lines L1 to L5. Information corresponding to the stop result in which the symbol combination is not established is determined as information on the current stop result.

続くステップS405では、今回の遊技回の演出パターンを決定するための処理を実行する。当該処理では、今回受信している変動用コマンドの内容から遊技回の継続時間の情報を特定するとともに、当該継続時間の情報、上記ステップS402にて特定した遊技結果の情報、上記ステップS403における予告抽選処理の抽選結果の情報、及び上記ステップS404にて決定した停止結果の情報の組合せに対応した演出パターンを選択する。この演出パターンの選択に際しては、ROM63に設けられたパターン決定用テーブルを参照し、今回の上記継続時間の情報、上記遊技結果の情報、上記予告抽選処理の抽選結果の情報、及び上記停止結果の情報に対応した制御パターンテーブルのROM63におけるアドレスを特定し、そのアドレスの特定結果に基づいて当該制御パターンテーブルをROM63から読み出してRAM64に書き込む。   In subsequent step S405, processing for determining the effect pattern of the current game time is executed. In this process, the information on the duration of the game times is specified from the contents of the variation command received this time, the information on the duration, the information on the game result specified in step S402, and the advance notice in step S403. The effect pattern corresponding to the combination of the lottery result information of the lottery process and the stop result information determined in step S404 is selected. When selecting the production pattern, the pattern determination table provided in the ROM 63 is referred to, the current duration information, the game result information, the lottery result information of the advance notice lottery process, and the stop result An address in the ROM 63 of the control pattern table corresponding to the information is specified, and the control pattern table is read from the ROM 63 and written in the RAM 64 based on the result of specifying the address.

図11を参照しながら制御パターンテーブルについて、より具体的に説明する。なお、図11は15R確変大当たり結果となる場合に選択され得る制御パターンテーブルの一例である。   The control pattern table will be described more specifically with reference to FIG. FIG. 11 is an example of a control pattern table that can be selected when a 15R probability variation jackpot result is obtained.

図11に示すように制御パターンテーブルには、対象となる遊技回の継続時間に対応したフレーム数分のポインタ情報が設定されており、各ポインタ情報に対応させて、タスクの内容の情報と、コマンド出力の有無の情報と、追加データの情報とが設定されている。   As shown in FIG. 11, in the control pattern table, pointer information for the number of frames corresponding to the duration of the target game time is set, and information on the contents of the task, corresponding to each pointer information, Information on presence / absence of command output and information on additional data are set.

タスクの内容の情報は今回の遊技回に対応した発光制御及び音出力制御を行うために設定されている情報であり、当該タスクの内容の情報を一切反映させないような情報が追加データとして設定されない限り、各フレームにおいてタスクの内容の情報に応じた態様で表示発光部44の発光制御が行われるとともにスピーカ部45の音出力制御が行われる。   The task content information is information set to perform light emission control and sound output control corresponding to the current game round, and information that does not reflect the task content information at all is not set as additional data As long as each frame, the light emission control of the display light emitting unit 44 is performed and the sound output control of the speaker unit 45 is performed in a manner according to the information of the task contents.

図11に示す制御パターンテーブルについて具体的には、「0」のポインタ情報に変動開始時のデータが設定されており、「200」のポインタ情報に予告演出開始時のデータが設定されており、「300」のポインタ情報に予告演出終了時のデータが設定されており、「400」のポインタ情報にノーマルリーチ開始時のデータが設定されており、「700」のポインタ情報に、スーパーリーチ開始時のデータが設定されており、「1000」のポインタ情報に、確定演出開始時のデータが設定されており、「1400」のポインタ情報に、変動終了時のデータが設定されている。これら各ポインタ情報は、演出の開始、演出の切り換わり、及び演出の終了といった区切りタイミングに対応している。また、これら以外のポインタ情報には、区切りタイミング間の発光制御及び音出力制御を可能とするためのデータが設定されている。   Specifically, with respect to the control pattern table shown in FIG. 11, data at the start of variation is set in the pointer information “0”, and data at the start of the notice effect is set in the pointer information “200”. Data at the end of the notice effect is set in the pointer information “300”, data at the start of normal reach is set in the pointer information “400”, and data at the start of super reach is set in the pointer information “700”. Data is set, data at the time of starting the definite effect is set in the pointer information “1000”, and data at the end of the variation is set in the pointer information “1400”. Each piece of the pointer information corresponds to a delimiter timing such as the start of the effect, the change of the effect, and the end of the effect. Further, in the pointer information other than these, data for enabling light emission control and sound output control between the division timings is set.

コマンド出力の有無の情報は、音光側MPU62から表示CPU72へのコマンドの出力の有無、及びそのコマンドの種類を示す情報である。制御パターンテーブルに従って表示CPU72へのコマンド出力が行われることで、図柄表示装置41における画像の内容と、表示発光部44における発光内容と、スピーカ部45における音出力内容とを関連付けることが可能となる。つまり、図柄表示装置41における動画の内容に応じて、表示発光部44にて光の演出が実行されるとともに、スピーカ部45にて音出力の演出が実行される。   The information on the presence / absence of command output is information indicating the presence / absence of command output from the sound light side MPU 62 to the display CPU 72 and the type of the command. By outputting a command to the display CPU 72 according to the control pattern table, it is possible to associate the content of the image in the symbol display device 41, the content of light emission in the display light emitting unit 44, and the content of sound output in the speaker unit 45. . That is, according to the content of the moving image in the symbol display apparatus 41, the display light emission part 44 performs the light effect, and the speaker part 45 executes the sound output effect.

図11に示す制御パターンテーブルについて具体的には、タスクの内容において変動開始時のデータが設定されている「0」のポインタ情報に対して、コマンドデータが設定されている。したがって、遊技回の変動開始時には、音光側MPU62から表示CPU72へのコマンド送信に基づき、表示CPU72において表示制御が開始される。また、タスクの内容において、予告演出開始時のデータ、ノーマルリーチ開始時のデータ、スーパーリーチ開始時のデータ、確定演出開始時のデータ及び変動終了時のデータのそれぞれが設定されている各ポインタ情報、具体的には、「200」、「400」、「700」、「1000」、「1400」の各ポインタ情報に対して、コマンドデータが設定されている。したがって、主側MPU52から変動用コマンド及び種別コマンドが送信されるという所定の開始契機が発生したことにより開始される遊技回用の演出の範囲内において、遊技回用の演出に含まれる演出区分の種類が変化する場合には、音光側MPU62から表示CPU72へのコマンド送信に基づき、表示CPU72において新たな演出区分に対応する表示制御が開始される。   Specifically, for the control pattern table shown in FIG. 11, command data is set for the pointer information of “0” in which data at the start of variation is set in the task content. Therefore, at the start of the change of game times, display control is started in the display CPU 72 based on command transmission from the sound light side MPU 62 to the display CPU 72. Also, in the contents of the task, each pointer information in which each of the data at the start of the notice effect, the data at the start of normal reach, the data at the start of the super reach, the data at the start of the confirmed effect and the data at the end of the variation Specifically, command data is set for each pointer information of “200”, “400”, “700”, “1000”, and “1400”. Therefore, within the range of effects for the game times that start when a predetermined start trigger occurs that the variation command and the type command are transmitted from the main MPU 52, the effect divisions included in the effects for the game times are When the type changes, display control corresponding to the new effect section is started in the display CPU 72 based on command transmission from the sound light side MPU 62 to the display CPU 72.

追加データの情報は、制御パターンテーブルの初期設定としてはブランクとして設定されており、報知の実行指示があった場合などに追加データへの書き込み処理が実行される。追加データへの書き込みが行われた場合には、当該追加データに書き込まれている情報がタスクの内容に元々設定されていた情報よりも優先される。例えば、報知として所定の文字を画像として表示することに対応した追加データが設定されている場合には、当該文字画像が、タスクの内容に対応した画像上に追加されるように画像表示がなされる。   The information of the additional data is set as a blank as the initial setting of the control pattern table, and the writing process to the additional data is executed when a notification execution instruction is given. When the additional data is written, the information written in the additional data has priority over the information originally set in the task content. For example, when additional data corresponding to displaying a predetermined character as an image is set as a notification, the image is displayed so that the character image is added on the image corresponding to the content of the task. The

なお、制御パターンテーブルは遊技回用の演出以外にも、開閉実行モード用の演出や、遊技回用の演出及び開閉実行モード用の演出のいずれも実行されていない状況における演出に対応させて設けられている。このように様々な状況に対応させて制御パターンテーブルが設定されていることにより、音光側MPU62に動作電力が供給されている状況では何らかの制御パターンテーブルがRAM64に読み出された状態となっている。   The control pattern table is provided corresponding to the effects in the situation where the effects for the opening / closing execution mode and the effects for the game times and the effects for the opening / closing execution mode are not executed in addition to the effects for the game times. It has been. Since the control pattern table is set corresponding to various situations as described above, some control pattern table is read out to the RAM 64 in a situation where the operating light is supplied to the sound light side MPU 62. Yes.

主側コマンド対応処理(図10)の説明に戻り、ステップS406では主側MPU52から報知実行コマンドを受信しているか否かを判定する。報知実行コマンドは、主側MPU52のタイマ割込み処理(図8)におけるステップS205の不正検知処理にて、不正用の監視対象として設定されている所定の事象が発生していることが特定された場合に出力されるとともに、ステップS212の入力状態監視処理にて、遊技機本体12又は前扉枠14が開放状態であることが特定された場合にも出力される。報知実行コマンドには報知対象の内容に対応したデータが含まれるため、音光側MPU62は受信した報知実行コマンドから報知対象の内容を特定することが可能である。   Returning to the description of the main-side command handling process (FIG. 10), it is determined in step S406 whether or not a notification execution command has been received from the main-side MPU 52. The notification execution command is specified in the fraud detection process of step S205 in the timer interrupt process (FIG. 8) of the main MPU 52 that the predetermined event set as the fraud monitoring target has occurred. And also when the gaming machine main body 12 or the front door frame 14 is specified to be open in the input state monitoring process in step S212. Since the notification execution command includes data corresponding to the content of the notification target, the sound light side MPU 62 can specify the content of the notification target from the received notification execution command.

報知実行コマンドを受信している場合(ステップS406:YES)、報知開始用の設定処理を実行する(ステップS407)。報知開始用の設定処理では、現状設定されている制御パターンテーブルにおける現状のポインタ情報以降の追加データに、今回の報知実行コマンドに対応した報知を実行するためのデータを設定する。例えば、不正を検知したことに対応した報知実行コマンドを受信している場合には、不正報知を表示発光部44及びスピーカ部45にて行うためのデータを追加データとして設定する。また、遊技機本体12の開放といったパチンコ機10の状態変化に対応した報知実行コマンドを受信している場合には、状態報知を表示発光部44及びスピーカ部45にて行うためのデータを追加データとして設定する。これにより、表示発光部44及びスピーカ部45にて不正報知又は状態報知が実行される。なお、報知実行コマンドを受信した後であって報知解除コマンドを受信する前に、実行対象とする制御パターンテーブルが変更された場合にはその新たに変更された制御パターンテーブルの追加データに対して、直前の制御パターンテーブルの追加データに設定されていた内容と同様の内容の報知用データが設定される。これにより、報知の実行を継続することが可能となる。   When the notification execution command has been received (step S406: YES), the notification start setting process is executed (step S407). In the notification start setting process, data for executing notification corresponding to the current notification execution command is set in additional data after the current pointer information in the currently set control pattern table. For example, when a notification execution command corresponding to detection of fraud is received, data for performing fraud notification on the display light emitting unit 44 and the speaker unit 45 is set as additional data. Further, when a notification execution command corresponding to a state change of the pachinko machine 10 such as opening of the gaming machine main body 12 is received, data for performing the state notification by the display light emitting unit 44 and the speaker unit 45 is added data. Set as. Thereby, the display light emitting unit 44 and the speaker unit 45 execute unauthorized notification or status notification. If the control pattern table to be executed is changed after receiving the notification execution command and before receiving the notification release command, the additional data of the newly changed control pattern table The notification data having the same content as that set in the additional data of the immediately preceding control pattern table is set. Thereby, it is possible to continue the notification.

その後、ステップS408にて、今回受信した報知実行コマンドの内容に対応した報知実行コマンドを表示CPU72に送信する。これにより、報知実行コマンドに対応した報知画像が図柄表示装置41にて表示されるように、表示CPU72にて表示制御が実行される。   Thereafter, in step S408, a notification execution command corresponding to the content of the notification execution command received this time is transmitted to the display CPU 72. Thereby, the display control is executed by the display CPU 72 so that the notification image corresponding to the notification execution command is displayed on the symbol display device 41.

ステップS409では、主側MPU52から報知解除コマンドを受信しているか否かを判定する。報知解除コマンドは、主側MPU52のタイマ割込み処理(図8)におけるステップS205の不正検知処理にて、所定の事象が発生している状態が解除されたことが特定された場合に出力されるとともに、ステップS212の入力状態監視処理にて、遊技機本体12又は前扉枠14が開放されている状態から閉鎖されたことが特定された場合にも出力される。   In step S409, it is determined whether a notification release command is received from the main MPU 52 or not. The notification release command is output when it is determined in the fraud detection process of step S205 in the timer interrupt process (FIG. 8) of the main MPU 52 that the state in which the predetermined event has occurred is released. This is also output when it is specified in the input state monitoring process in step S212 that the gaming machine main body 12 or the front door frame 14 is closed.

報知解除コマンドを受信している場合(ステップS409:YES)、報知解除用の設定処理を実行する(ステップS410)。報知解除用の設定処理では、現状設定されている制御パターンテーブルにおける現状のポインタ情報以降の追加データを「0」クリアする。これにより、表示発光部44及びスピーカ部45にて実行されている不正報知又は状態報知が解除される。その後、ステップS411にて、報知解除コマンドを表示CPU72に送信する。これにより、図柄表示装置41における報知画像の表示が終了される。   When the notification release command has been received (step S409: YES), notification release setting processing is executed (step S410). In the notification release setting process, the additional data after the current pointer information in the currently set control pattern table is cleared to “0”. As a result, the unauthorized notification or status notification executed by the display light emitting unit 44 and the speaker unit 45 is canceled. Thereafter, in step S411, a notification release command is transmitted to the display CPU 72. Thereby, the display of the notification image on the symbol display device 41 is terminated.

主側コマンド対応処理では、上記各処理以外にも、ステップS412にてその他の対応処理を実行する。その他の対応処理では、例えば、主側MPU52から最終停止コマンドを受信している場合には遊技回用の演出を終了させるための処理を実行する。また、主側MPU52からオープニングコマンドを受信している場合に開閉実行モード用の演出を実行するための制御パターンテーブルを読み出し、主側MPU52からエンディングコマンドを受信している場合には開閉実行モード用の演出を終了させるための処理を実行する。また、遊技回用の演出及び開閉実行モード用の演出のいずれもが実行されていない状況においては、待機中演出を実行するための制御パターンテーブルを読み出す。   In the main-side command handling process, in addition to the above processes, other handling processes are executed in step S412. In other handling processing, for example, when a final stop command is received from the main MPU 52, processing for ending the effect for game times is executed. When the opening command is received from the main MPU 52, the control pattern table for executing the effect for the opening / closing execution mode is read, and when the ending command is received from the main MPU 52, the opening / closing execution mode is used. The process for ending the production is executed. Further, in a situation where neither the game-turn effect or the opening / closing execution mode effect is executed, the control pattern table for executing the standby effect is read.

<コマンド選択処理>
次に、タイマ割込み処理(図9)のステップS302にて実行されるコマンド選択処理について説明する。コマンド選択処理の説明に先立ち、音光側MPU62から表示CPU72に送信されるコマンドの内容について説明する。図12は当該コマンドの内容を説明するための説明図である。
<Command selection processing>
Next, the command selection process executed in step S302 of the timer interrupt process (FIG. 9) will be described. Prior to the description of the command selection process, the contents of the command transmitted from the sound light side MPU 62 to the display CPU 72 will be described. FIG. 12 is an explanatory diagram for explaining the contents of the command.

音光側MPU62から表示CPU72に送信されるコマンドは、複数バイトのデータ構成となっている。具体的には、図12(a)〜図12(c)に示すように、第1コマンドデータCD1と、第2コマンドデータCD2と、第3コマンドデータCD3とを有している。第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3は同一のバイト数となっており、具体的にはそれぞれ1バイトとなっている。但し、これに限定されることはなく各コマンドデータCD1〜CD3のそれぞれが複数バイトである構成としてもよい。   The command transmitted from the sound light side MPU 62 to the display CPU 72 has a data structure of a plurality of bytes. Specifically, as shown in FIGS. 12A to 12C, the first command data CD1, the second command data CD2, and the third command data CD3 are included. The first command data CD1, the second command data CD2, and the third command data CD3 have the same number of bytes, specifically 1 byte each. However, the present invention is not limited to this, and each command data CD1 to CD3 may have a plurality of bytes.

第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3のそれぞれは、上位2ビットが識別用ビットとしての機能を有し、残りの6ビットがデータ用ビットとしての機能を有する。識別用ビットには自身のコマンドデータが第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3のうちいずれであるのかを示すデータが設定される。具体的には、第1コマンドデータCD1の識別用ビットには図12(a)に示すように「01」が設定されており、第2コマンドデータCD2の識別用ビットには図12(b)に示すように「10」が設定されており、第3コマンドデータCD3の識別用ビットには図12(c)に示すように「11」が設定されている。   In each of the first command data CD1, the second command data CD2, and the third command data CD3, the upper 2 bits have a function as identification bits, and the remaining 6 bits have a function as data bits. In the identification bit, data indicating whether its own command data is the first command data CD1, the second command data CD2, or the third command data CD3 is set. Specifically, “01” is set in the identification bit of the first command data CD1, as shown in FIG. 12A, and the identification bit of the second command data CD2 is set in FIG. As shown in FIG. 12, “10” is set, and “11” is set in the identification bit of the third command data CD3 as shown in FIG.

データ用ビットには、音光側MPU62から表示CPU72への指示内容に対応したデータが設定される。第1コマンドデータCD1のデータ用ビットには、指示内容のうち大枠の内容として第1種別の種類を表示CPU72に特定させるためのデータが設定される。具体的には、演出の実行を指示するコマンドであれば、遊技回用の演出、開閉実行モード用の演出及び待機中演出において実行される演出の種類のデータが設定されるとともに、報知の実行を指示するコマンドであれば、不正報知及び状態報知のうちいずれが実行対象であるかを示すデータが設定される。   In the data bit, data corresponding to the instruction content from the sound light side MPU 62 to the display CPU 72 is set. In the data bit of the first command data CD1, data for causing the display CPU 72 to specify the type of the first type as the outline content of the instruction content is set. Specifically, in the case of a command for instructing execution of an effect, data on the type of effect executed in the effect for game times, the effect for the opening / closing execution mode, and the effect in standby is set and the notification is executed. If it is a command instructing, data indicating which of fraud notification and status notification is an execution target is set.

第2コマンドデータCD2のデータ用ビットには、第1コマンドデータCD1により指定された第1種別の種類に含まれる第2種別の種類を表示CPU72に特定させるためのデータが設定される。また、第3コマンドデータCD3のデータ用ビットには、第2コマンドデータCD2により指定された第2種別の種類に含まれる第3種別の種類を表示CPU72に特定させるためのデータが設定される。   In the data bit of the second command data CD2, data for causing the display CPU 72 to specify the second type included in the first type specified by the first command data CD1 is set. Further, in the data bit of the third command data CD3, data for causing the display CPU 72 to specify the third type included in the second type specified by the second command data CD2 is set.

図13の説明図を参照しながら、演出の実行を指示するコマンドを例に挙げて、各コマンドデータCD1〜CD3によりどのような内容が指示されるのかについて説明する。   With reference to the explanatory diagram of FIG. 13, taking as an example a command for instructing execution of an effect, what contents are instructed by each of the command data CD1 to CD3 will be described.

既に説明したとおり、本パチンコ機10では、遊技回用の演出として予告表示が発生し得る。予告表示は、図柄表示装置41にて全ての図柄列Z1〜Z3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において行われる演出であり、リーチ表示が行われる場合の方が行われない場合よりも予告表示が発生し易く、さらに大当たり結果に対応した遊技回の方が外れ結果に対応した遊技回に比べ予告表示が発生し易い。当該予告表示は複数種類設定されており、その一部として、ステップアップ予告及び会話予告が設定されている。   As already explained, in this pachinko machine 10, a notice display can be generated as an effect for game times. The notice display is performed when the symbols are displayed in a variable manner in all the symbol rows Z1 to Z3 on the symbol display device 41, or in some symbol rows and the symbols are variably displayed in a plurality of symbol rows. It is an effect that is performed in a situation where there is a notice display more easily than when the reach display is not performed, and the game times corresponding to the jackpot result are the game times corresponding to the losing result In comparison, the notice display is more likely to occur. A plurality of types of notice display are set, and a step-up notice and a conversation notice are set as a part thereof.

ステップアップ予告は段階的に実行される演出であり、実行対象となる段階数、演出の実行に際して表示される文字の表示色、及び表示対象となる予告キャラクタの種類の組合せによって、リーチ表示が行われる期待度及び大当たり結果が発生する期待度が示唆される。また、会話予告は第1予告キャラクタと第2予告キャラクタとの間で会話が行われているような表示が行われる演出であり、実行対象となる会話の内容、当該会話の文字の表示色、及び表示対象となる第1予告キャラクタ及び第2予告キャラクタの種類の組合せによって、リーチ表示が行われる期待度及び大当たり結果が発生する期待度が示唆される。   A step-up notice is an effect that is executed in stages, and a reach display is performed depending on the combination of the number of stages to be executed, the display color of characters displayed when the effect is executed, and the type of the notice character to be displayed. The degree of expectation that will be generated and the degree of expectation that the jackpot result will occur are suggested The conversation notice is an effect in which a display is made as if a conversation is being performed between the first notice character and the second notice character, and the content of the conversation to be executed, the display color of the character of the conversation, The combination of the types of the first notice character and the second notice character to be displayed suggests the degree of expectation that the reach display is performed and the degree of expectation that the jackpot result is generated.

第1コマンドデータCD1が16進数で表した場合において「41」である場合、ステップアップ予告に対応している。ステップアップ予告の場合、第2コマンドデータCD2によって、段階数、文字色及び予告キャラクタのいずれが指示対象であるのかが指示され、第3コマンドデータCD3によって、第2コマンドデータCD2により指示されている指示対象の具体的な内容が指示される。この場合、1種類のコマンドによって指示される内容は、ステップアップ予告に含まれる複数種類の第2種別の内容のうち1種類のみである。つまり、ステップアップ予告を実行する場合には、段階数、文字色及び予告キャラクタのそれぞれの種類を表示CPU72に指示する必要があるが、1種類のコマンドによっては1種類の第2種別の内容のみが指示される。したがって、ステップアップ予告の実行を指示する場合には、各コマンドデータCD1〜CD3を含むコマンドを、第2種別の内容の種類分、具体的には3種類送信する必要がある。音光側MPU62は、ステップアップ予告の実行を指示すべく3種類のコマンドの送信を完了した場合、1バイトの終了コマンドを表示CPU72に送信する。終了コマンドは、他のコマンドにおいて使用されないデータ構成となっている。具体的には16進数で「FF」となっている。表示CPU72は、終了コマンドを受信した場合、今回の指示対象となっているコマンド群の送信が完了したことを特定する。これにより、ステップ予告の実行を指示するために第1〜第3コマンドデータCD1〜CD3からなるコマンドが複数種類送信される構成であったとしても、それらコマンドの全ての受信が完了したことを表示CPU72において明確に把握することが可能となる。   When the first command data CD1 is expressed as a hexadecimal number and is “41”, it corresponds to a step-up notice. In the case of step-up notice, the second command data CD2 indicates which of the number of stages, the character color, or the notice character is to be indicated, and the third command data CD3 indicates the second command data CD2. The specific contents of the instruction target are instructed. In this case, the content instructed by one type of command is only one type among the plurality of types of second type content included in the step-up notice. That is, when executing the step-up notice, it is necessary to instruct the display CPU 72 of the number of stages, the character color, and the kind of notice character. However, depending on one kind of command, only one type of second type content is required. Is instructed. Therefore, in order to instruct the execution of the step-up notice, it is necessary to transmit the commands including the command data CD1 to CD3 for the content type of the second type, specifically three types. The sound light side MPU 62 transmits a 1-byte end command to the display CPU 72 when the transmission of the three types of commands is instructed to execute the step-up notice. The end command has a data structure that is not used in other commands. Specifically, it is “FF” in hexadecimal. When receiving the end command, the display CPU 72 specifies that the transmission of the command group that is the current instruction target is completed. As a result, even if a plurality of types of commands composed of the first to third command data CD1 to CD3 are transmitted in order to instruct execution of the step advance notice, it is displayed that all reception of these commands has been completed. The CPU 72 can clearly grasp it.

第1コマンドデータCD1が16進数で表した場合において「42」である場合、会話予告に対応している。会話予告の場合、第2コマンドデータCD2によって、会話の内容、文字色、第1予告キャラクタ及び第2予告キャラクタのいずれが指示対象であるのかが指示され、第3コマンドデータCD3によって、第2コマンドデータCD2により指示されている指示対象の具体的な内容が指示される。この場合、会話予告の場合もステップアップ予告の場合と同様に、1種類のコマンドによって指示される内容は、会話予告に含まれる複数種類の第2種別の内容のうち1種類のみである。つまり、会話予告を実行する場合には、会話の内容、文字色、第1予告キャラクタ及び第2予告キャラクタのそれぞれの種類を表示CPU72に指示する必要があるが、1種類のコマンドによっては1種類の第2種別の内容のみが指示される。したがって、会話予告の実行を指示する場合には、各コマンドデータCD1〜CD3を含むコマンドを、第2種別の内容の種類分、具体的には4種類送信する必要がある。音光側MPU62は、会話予告の実行を指示すべく4種類のコマンドの送信を完了した場合、ステップアップ予告の場合と同様に、1バイトの終了コマンドを表示CPU72に送信する。これにより、会話予告の実行を指示するために第1〜第3コマンドデータCD1〜CD3からなるコマンドが複数種類送信される構成であったとしても、それらコマンドの全ての受信が完了したことを表示CPU72において明確に把握することが可能となる。また、ステップアップ予告と会話予告とで音光側MPU62から送信されるコマンドの総数が相違しているとしても各演出に対応したコマンドの全ての送信が完了した場合に終了コマンドが送信されることで、各演出に対応したコマンドの全ての受信が完了したことを表示CPU72において明確に把握することが可能となる。   When the first command data CD1 is expressed as a hexadecimal number and is “42”, it corresponds to the conversation notice. In the case of a conversation notice, the second command data CD2 instructs the content of the conversation, the character color, which of the first notice character and the second notice character is to be designated, and the second command data CD3 designates the second command. The specific contents of the instruction target indicated by the data CD2 are instructed. In this case, as in the case of the step-up notice, in the case of the conversation notice, only one type of content is designated by one type of command among a plurality of types of second type contents included in the conversation notice. In other words, when executing the conversation notice, it is necessary to instruct the display CPU 72 of the content of the conversation, the character color, and the first notice character and the second notice character, but one kind of command is used for one kind. Only the contents of the second type are instructed. Therefore, in order to instruct execution of the conversation notice, it is necessary to transmit the commands including the command data CD1 to CD3 for the content type of the second type, specifically four types. The sound light side MPU 62 transmits a 1-byte end command to the display CPU 72 as in the case of the step-up notification when transmission of the four types of commands is completed in order to instruct execution of the conversation notification. As a result, even when a plurality of types of commands including the first to third command data CD1 to CD3 are transmitted in order to instruct execution of the conversation notice, it is displayed that all the commands have been received. The CPU 72 can clearly grasp it. In addition, even if the total number of commands transmitted from the sound light side MPU 62 is different between the step-up notice and the conversation notice, an end command is transmitted when transmission of all commands corresponding to each effect is completed. Thus, the display CPU 72 can clearly grasp that the reception of all the commands corresponding to each effect has been completed.

なお、他の演出の実行指示に際しても複数種類の第2種別の内容を指示すべく、所定の演出の実行を指示するコマンドの送信に際しては複数種類のコマンドが送信されるとともに、それらコマンドの送信が完了した場合には終了コマンドが送信される。また、第2種別の内容が1種類のみの演出も存在しているが、かかる演出の実行を指示する場合には各コマンドデータCD1〜CD3を含む1種類のコマンドを送信するとともにその送信が完了した場合に終了コマンドを送信する。また、音光側MPU62は演出の実行指示用のコマンドだけでなく報知の実行指示用のコマンドを送信する場合にも最終的に終了コマンドを送信する。これにより、表示CPU72は終了コマンドを受信したか否かで、所定の指示を行うための音光側MPU62からのコマンドの受信が完了したか否かを把握することが可能となる。   In order to indicate the contents of a plurality of types of second types even when instructing the execution of other effects, a plurality of types of commands are transmitted when a command for instructing execution of a predetermined effect is transmitted. When is completed, an end command is transmitted. In addition, there is an effect in which the content of the second type is only one type, but when instructing the execution of the effect, one type of command including each command data CD1 to CD3 is transmitted and the transmission is completed. If it does, send an end command. The sound light side MPU 62 finally transmits an end command not only when a command for instructing execution of an effect but also a command for instructing execution of a notification is transmitted. Thereby, the display CPU 72 can grasp whether or not the reception of the command from the sound light side MPU 62 for giving a predetermined instruction is completed depending on whether or not the end command is received.

所定期間において実行される予告表示の実行内容を音光側MPU62が表示CPU72に指示する場合、当該予告表示に含まれる第2段階の内容に対応させて、第1〜第3コマンドデータCD1〜CD3からなるコマンドが複数種類送信される。これにより、第2段階の種類数を増減させる場合や、第2段階の内容を変更する場合であっても、対応する第2段階の単位でコマンドの変更を行えばよいため、コマンドの設定の容易化が図られる。   When the sound-side MPU 62 instructs the display CPU 72 to execute the contents of the notice display executed in a predetermined period, the first to third command data CD1 to CD3 are associated with the contents of the second stage included in the notice display. Multiple types of commands are sent. As a result, even when the number of types in the second stage is increased or decreased, or even when the contents of the second stage are changed, it is sufficient to change the command in units of the corresponding second stage. Simplification is achieved.

また、このように第2種別の内容に1対1で対応させて複数種類のコマンドを送信する構成とすることにより、一のコマンドがノイズの影響などで伝送途中にデータが書き換えられたとしても、その影響を1種類の第2種別の内容に留めることが可能となる。   In addition, by adopting a configuration in which a plurality of types of commands are transmitted in a one-to-one correspondence with the contents of the second type in this way, even if one command is rewritten during transmission due to the influence of noise, etc. It is possible to limit the influence to the content of one type of the second type.

複数のコマンドデータCD1〜CD3によって段階的に指示内容を決定付ける構成とすることで、音光側MPU62から表示CPU72に指示する内容が多様化する場合であっても、パチンコ機10の設計段階におけるコマンドの設計の容易化が図られる。   By adopting a configuration in which the instruction contents are determined step by step by a plurality of command data CD1 to CD3, even when the contents instructed from the sound light side MPU 62 to the display CPU 72 are diversified, in the design stage of the pachinko machine 10 Command design can be facilitated.

また、ステップアップ予告の実行を指示するためのコマンドにおいて第2コマンドデータCD2として利用されるデータは、会話予告の実行を指示するためのコマンドにおける第2コマンドデータCD2としてそのまま利用され、同様に、ステップアップ予告の実行を指示するためのコマンドにおいて第3コマンドデータCD3として利用されるデータは、会話予告の実行を指示するためのコマンドにおける第3コマンドデータCD3としてそのまま利用される。これら各コマンドデータCD1〜CD3として利用されるデータはROM63に予め記憶されているが、上記のように第2コマンドデータCD2として利用されるデータ、及び第3コマンドデータCD3として利用されるデータが、複数種類のコマンドにおいて共通して利用される構成であることにより、ROM63においてコマンド用のデータを記憶するのに必要なデータ容量を抑えることが可能となる。   The data used as the second command data CD2 in the command for instructing execution of the step-up notice is used as it is as the second command data CD2 in the command for instructing execution of the conversation notice. The data used as the third command data CD3 in the command for instructing execution of the step-up notice is used as it is as the third command data CD3 in the command for instructing execution of the conversation notice. The data used as each of the command data CD1 to CD3 is stored in the ROM 63 in advance, but the data used as the second command data CD2 and the data used as the third command data CD3 are as described above. Since the configuration is used in common for a plurality of types of commands, it is possible to suppress the data capacity required to store command data in the ROM 63.

以下、上記コマンドを送信するために音光側MPU62にて実行されるコマンド選択処理について、図14のフローチャートを参照しながら説明する。   Hereinafter, command selection processing executed by the sound light side MPU 62 in order to transmit the command will be described with reference to the flowchart of FIG.

制御パターンテーブルにおける現状のポインタ情報に対応したエリアに、表示CPU72へのコマンドの送信タイミングを示すデータが設定されている場合(ステップS501:YES)、当該制御パターンテーブルから今回の送信タイミングにおけるコマンドの種類数を読み出し、その種類数に対応する値をRAM64に設けられたコマンド種類数カウンタにセットする(ステップS502)。その後、制御パターンテーブルにおける現状のポインタ情報に対応したエリアにて指示されているROM63のコマンド用エリアのアドレスデータであって、現状のコマンド種類数カウンタの値に対応したアドレスデータを特定する。そして、その特定したアドレスデータに従って、第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3をROM63から読み出し(ステップS503〜ステップS505)、それら読み出した各コマンドデータCD1〜CD3をコマンド送信対象用エリアとしてRAM64に設けられたリングバッファにセットする(ステップS506)。音光側MPU62はタイマ割込み処理(図9)とは別に定期的(例えば1msec)に起動される送信割込み処理にて、リングバッファにセットされているコマンドを順次読み出して表示CPU72に送信する。この場合、リングバッファにセットされたタイミングが早いコマンドから順に送信する。   When data indicating the transmission timing of the command to the display CPU 72 is set in the area corresponding to the current pointer information in the control pattern table (step S501: YES), the command at the current transmission timing is determined from the control pattern table. The number of types is read, and a value corresponding to the number of types is set in a command type number counter provided in the RAM 64 (step S502). After that, the address data of the command area of the ROM 63 designated in the area corresponding to the current pointer information in the control pattern table, and the address data corresponding to the value of the current command type counter is specified. Then, in accordance with the specified address data, the first command data CD1, the second command data CD2, and the third command data CD3 are read from the ROM 63 (steps S503 to S505), and the command data CD1 to CD3 are read out. The target area is set in a ring buffer provided in the RAM 64 (step S506). The sound light side MPU 62 sequentially reads out the commands set in the ring buffer and transmits them to the display CPU 72 in transmission interrupt processing that is started periodically (for example, 1 msec) separately from the timer interrupt processing (FIG. 9). In this case, the commands set in the ring buffer are transmitted in order from the earliest timing.

その後、コマンド種類数カウンタの値を1減算し(ステップS507)、その1減算後におけるコマンド種類数カウンタの値が「0」となっているか否かを判定する(ステップS508)。「0」となっていない場合には、更新後のコマンド種類数カウンタの値に対応したコマンドについてステップS503〜ステップS506の処理を実行する。「0」となっている場合にはステップS509にて、ROM63から終了コマンドを読み出して上記リングバッファにセットする。   Thereafter, 1 is subtracted from the value of the command type number counter (step S507), and it is determined whether or not the value of the command type number counter after the 1 subtraction is “0” (step S508). If it is not “0”, the processing from step S503 to step S506 is executed for the command corresponding to the value of the updated command type number counter. If it is “0”, in step S509, an end command is read from the ROM 63 and set in the ring buffer.

<表示CPU72の処理構成>
次に、表示CPU72にて実行される処理について説明する。図15は表示CPU72にて予め定められた周期、具体的には20msec周期で繰り返し起動されるV割込み処理を示すフローチャートである。
<Processing configuration of display CPU 72>
Next, processing executed by the display CPU 72 will be described. FIG. 15 is a flowchart showing the V interrupt process that is repeatedly activated by the display CPU 72 at a predetermined cycle, specifically, at a cycle of 20 msec.

なお、VDP76は図柄表示装置41に1フレーム分の画像信号を出力する場合、表示面Pの左上の隅角部分にあるドットから画像信号の出力を始めて、当該ドットを一端に含む横ライン上に並ぶドットに対して順次画像信号を出力するとともに、各横ラインに対して上から順に左から右のドットへと画像信号を出力する。そして、表示面Pの右下の隅角部分にあるドットに対して最後に画像信号を出力する。この場合に、VDP76は当該最後のドットに対して画像信号を出力したタイミングで、表示CPU72へV割込み信号を出力して1フレームの画像の更新が完了したことを表示CPU72に認識させる。このV割込み信号の出力周期は20msecとなっている。この点、V割込み処理は、V割込み信号の受信に同期して起動されると見なすこともできる。但し、V割込み信号を受信していなくても、前回のV割込み処理が起動されてから20msecが経過している場合には、新たにV割込み処理が起動される。   When the image signal for one frame is output to the symbol display device 41, the VDP 76 starts outputting the image signal from the dot at the upper left corner of the display surface P, and on the horizontal line including the dot at one end. Image signals are sequentially output for the arranged dots, and image signals are output from the left to the right dots in order from the top for each horizontal line. Then, an image signal is finally output for the dots in the lower right corner portion of the display surface P. In this case, the VDP 76 outputs a V interrupt signal to the display CPU 72 at the timing when the image signal is output with respect to the last dot, so that the display CPU 72 recognizes that the update of one frame image has been completed. The output period of this V interrupt signal is 20 msec. In this regard, the V interrupt processing can be regarded as being started in synchronization with reception of the V interrupt signal. However, even if the V interrupt signal is not received, the V interrupt process is newly started when 20 msec has elapsed since the previous V interrupt process was started.

V割込み処理では、まずステップS601にてコマンド解析処理を実行する。コマンド解析処理では、図16(a)のフローチャートに示すように、ステップS701にて、音光側MPU62から新たなコマンドを受信しているか否かを判定する。表示CPU72は音光側MPU62からストローブ信号を受信した場合、その時点で実行されている処理が何であったとしても最優先でコマンド割込み処理を起動し、入力ポート77にて受信しているコマンドを、ワークRAM73に設けられたコマンド格納バッファ101に格納する。   In the V interrupt processing, first, command analysis processing is executed in step S601. In the command analysis process, as shown in the flowchart of FIG. 16A, it is determined in step S701 whether a new command has been received from the sound light side MPU 62 or not. When the display CPU 72 receives a strobe signal from the sound side MPU 62, the command interrupt processing is started with the highest priority regardless of the processing being executed at that time, and the command received at the input port 77 is displayed. And stored in the command storage buffer 101 provided in the work RAM 73.

コマンド格納バッファ101について詳細には、図16(b)に示すように、第1未処理エリア102と、第2未処理エリア103と、第3未処理エリア104とを備えている。各未処理エリア102〜104はそれぞれ、コマンド格納エリア102a〜102e,103a〜103e,104a〜104eを5個備えている。各コマンド格納エリア102a〜102e,103a〜103e,104a〜104eはそれぞれ、第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる1種類のコマンドを格納することが可能となるように3バイトのデータ構成となっている。また、各未処理エリア102〜104に設けられているコマンド格納エリア102a〜102e,103a〜103e,104a〜104eの数は、音光側MPU62から演出の実行指示又は報知の実行指示が1回行われる場合に送信されるコマンドの最大種類数以上となっている。これにより、各未処理エリア102〜104のそれぞれにおいて1回の演出の実行指示に際して送信されるコマンド群及び1回の報知の実行指示に際して送信されるコマンド群を格納することが可能となる。また、未処理エリア102〜104の数は、表示CPU72にて未処理の状態で待機し得るコマンド群の最大数以上となっている。これにより、未処理のコマンド群が待機し得る構成において、コマンド群に対応した処理の実行漏れを防止することが可能となる。   More specifically, the command storage buffer 101 includes a first unprocessed area 102, a second unprocessed area 103, and a third unprocessed area 104, as shown in FIG. Each of the unprocessed areas 102 to 104 includes five command storage areas 102a to 102e, 103a to 103e, and 104a to 104e. Each of the command storage areas 102a to 102e, 103a to 103e, and 104a to 104e can store one type of command including the first command data CD1, the second command data CD2, and the third command data CD3. The data structure is 3 bytes. In addition, the number of command storage areas 102a to 102e, 103a to 103e, and 104a to 104e provided in each of the unprocessed areas 102 to 104 is such that the execution instruction for the production or the notification execution instruction is performed once from the sound light side MPU 62. The maximum number of commands sent when Thereby, in each of the unprocessed areas 102 to 104, it is possible to store a command group transmitted in response to a single execution instruction for execution and a command group transmitted in response to a single notification execution instruction. The number of unprocessed areas 102 to 104 is equal to or greater than the maximum number of command groups that can stand by in the unprocessed state in the display CPU 72. As a result, in a configuration in which an unprocessed command group can stand by, it is possible to prevent execution omission of processing corresponding to the command group.

コマンド割込み処理では、終了コマンドを前回受信してからコマンドを新たに受信した場合、第1未処理エリア102に未処理のコマンド群が格納されていない場合には第1未処理エリア102にそのコマンドを格納し、第1未処理エリア102に未処理のコマンド群が格納されている場合には第2未処理エリア103にそのコマンドを格納し、第2未処理エリア103に未処理のコマンド群が格納されている場合には第3未処理エリア104にそのコマンドを格納する。そして、終了コマンドを受信するまではコマンドを受信する度に、格納対象とした未処理エリアのコマンド格納エリアに対するコマンド格納処理を順次実行する。終了コマンドを受信した場合には、コマンド格納対象の未処理エリアを次の順番のエリアに設定する。なお、コマンド割込み処理ではコマンドを格納する処理を実行した場合、未処理エリア102〜104においていずれのコマンド格納エリア102a〜102e,103a〜103e,104a〜104eにコマンドが格納されているのかを特定可能とするためのデータ設定を行う。   In the command interruption process, when a command is newly received since the end command was received last time, and an unprocessed command group is not stored in the first unprocessed area 102, the command is stored in the first unprocessed area 102. And when the unprocessed command group is stored in the first unprocessed area 102, the command is stored in the second unprocessed area 103, and the unprocessed command group is stored in the second unprocessed area 103. If stored, the command is stored in the third unprocessed area 104. Until the end command is received, each time a command is received, command storage processing for the command storage area of the unprocessed area to be stored is sequentially executed. When the end command is received, the unprocessed area for storing the command is set as the next sequential area. In the command interruption process, when a process for storing a command is executed, it is possible to specify in which of the command storage areas 102a to 102e, 103a to 103e, and 104a to 104e the command is stored in the unprocessed areas 102 to 104. Set the data to

コマンド解析処理(図16(a))の説明に戻り、ステップS701では未処理エリア102〜104へのコマンドの格納が新たに開始されたか否かを判定する。ステップS701にて肯定判定をした場合には、コマンド群の受信中であるか否かを表示CPU72にて特定するためにワークRAM73に設けられた受信中フラグに「1」をセットする。ステップS702の処理を実行した場合、又は受信中フラグに「1」がセットされている場合(ステップS703:YES)、ステップS704にて終了コマンドを受信したか否かを判定する。終了コマンドを受信している場合(ステップS704:YES)、ワークRAM73に設けられた未処理カウンタの値を1加算するとともに(ステップS705)、受信中フラグを「0」クリアする(ステップS706)。   Returning to the description of the command analysis processing (FIG. 16A), in step S701, it is determined whether or not storage of commands in the unprocessed areas 102 to 104 has been newly started. If an affirmative determination is made in step S701, “1” is set to a receiving flag provided in the work RAM 73 in order to specify in the display CPU 72 whether or not a command group is being received. When the process of step S702 is executed, or when the receiving flag is set to “1” (step S703: YES), it is determined whether an end command is received in step S704. If an end command has been received (step S704: YES), the value of the unprocessed counter provided in the work RAM 73 is incremented by 1 (step S705), and the receiving flag is cleared to “0” (step S706).

V割込み処理(図15)の説明に戻り、ステップS601にてコマンド解析処理を実行した後は、ワークRAM73の未処理カウンタの値が1以上であることを条件として(ステップS602:YES)、ステップS603にてコマンド対応処理を実行し、ステップS604にて未処理カウンタの値を1減算する。コマンド対応処理について図17のフローチャートを参照しながら詳細に説明する。   Returning to the description of the V interrupt process (FIG. 15), after the command analysis process is executed in step S601, the value of the unprocessed counter in the work RAM 73 is 1 or more (step S602: YES). In step S603, command response processing is executed. In step S604, the value of the unprocessed counter is decremented by one. The command handling process will be described in detail with reference to the flowchart of FIG.

まず今回の処理対象のコマンドの読み出し処理を実行する(ステップS801)。具体的には、ワークRAM73のコマンド格納バッファ101における第1未処理エリア102に格納されているコマンドをワークRAM73の処理対象コマンド用のエリアに書き込む。なお、当該書き込みを実行した場合には、コマンド格納バッファ101において第2未処理エリア103の各データを第1未処理エリア102に上書きした後に、第3未処理エリア104の各データを第2未処理エリア103に上書きする。   First, a process for reading a command to be processed this time is executed (step S801). Specifically, the command stored in the first unprocessed area 102 in the command storage buffer 101 of the work RAM 73 is written in the area for the command to be processed in the work RAM 73. When the writing is executed, each data in the third unprocessed area 104 is written to the second unprocessed area 104 after the data in the second unprocessed area 103 is overwritten on the first unprocessed area 102 in the command storage buffer 101. The processing area 103 is overwritten.

その後、今回の処理対象のコマンドの種類数に対応した値をワークRAM73に設けられた処理対象カウンタにセットする(ステップS802)。その後、今回の処理対象のコマンドにおける第1コマンドデータCD1に対応した参照テーブルをメモリモジュール74から読み出す(ステップS803)。参照テーブルは、第1コマンドデータCD1のデータ内容に1対1で対応させて設けられており、処理対象のコマンドに対応した画像表示を図柄表示装置41にて実行するための表示パターンテーブルを特定するためのデータが設定されている。   Thereafter, a value corresponding to the number of types of commands to be processed this time is set in a processing target counter provided in the work RAM 73 (step S802). Thereafter, the reference table corresponding to the first command data CD1 in the command to be processed this time is read from the memory module 74 (step S803). The reference table is provided in a one-to-one correspondence with the data content of the first command data CD1, and specifies a display pattern table for executing image display corresponding to the command to be processed on the symbol display device 41. Data to do is set.

ステップアップ予告に対応したデータが第1コマンドデータCD1に設定されている場合の参照テーブルRTについて、図18の説明図を参照しながら説明する。   The reference table RT when the data corresponding to the step-up notice is set in the first command data CD1 will be described with reference to the explanatory diagram of FIG.

参照テーブルRTには、ステップアップ予告において全ての第2種別の種類について生じ得る全ての第3種別の種類の組合せに1対1で対応させて実行対象テーブルのアドレスが設定されている。例えば、第2種別の種類が「段階数」である場合における第3種別の種類が「2」であり、第2種別の種類が「文字色」である場合における第3種別の種類が「赤色」であり、第2種別の種類が「予告キャラクタ」である場合における第3種別の種類が「第24キャラクタ」である場合、参照テーブルRTにおいて第2段階赤24テーブルのアドレスが実行対象テーブルのアドレスとして設定されている。   In the reference table RT, the addresses of the execution target tables are set in a one-to-one correspondence with all combinations of the third type types that can occur for all the second type types in the step-up notice. For example, when the type of the second type is “number of stages”, the type of the third type is “2”, and when the type of the second type is “character color”, the type of the third type is “red”. When the second type is “notice character” and the third type is “24th character”, the address of the second stage red 24 table in the reference table RT is the address of the execution target table. It is set as an address.

実行対象テーブルは、音光側MPU62からの1回のコマンド群の送信に対応した動画を図柄表示装置41の表示面Pに表示させる場合において、画像の各更新タイミングにおける1フレーム分の画像を表示させるのに必要な処理が定められた情報群である。実行対象テーブルには、当該実行対象テーブルによる動画の表示期間に含まれる更新タイミングの数分のポインタ情報が設定されているとともに、各ポインタ情報のそれぞれに対応させて当該ポインタ情報に対応した更新タイミングにおける画像の表示を可能とするためのデータが設定されている。   The execution target table displays an image for one frame at each update timing of the image when displaying a moving image corresponding to one command group transmission from the sound light side MPU 62 on the display surface P of the symbol display device 41. This is a group of information in which processing necessary for making it happen is determined. In the execution target table, pointer information corresponding to the number of update timings included in the moving image display period of the execution target table is set, and the update timing corresponding to the pointer information is associated with each pointer information. Data for enabling the display of an image is set.

コマンド対応処理(図17)の説明に戻り、ステップS803にて参照テーブルを読み出した後は、ステップS801にてワークRAM73の処理対象コマンドのエリアに書き込んだコマンドのうち、現状の処理対象カウンタの値に対応したコマンドを読み出し、そのコマンドにおける第2コマンドデータCD2及び第3コマンドデータCD3の組合せに対応したデータを表示CPU72のレジスタに書き込む(ステップS804)。処理対象カウンタの値は、第1未処理エリア102のコマンド格納エリア102a〜102eと1対1で対応しており、ステップS804では、現状の処理対象カウンタの値に対応したコマンド格納エリアから処理対象コマンド用のエリアに書き込まれたコマンドを上記データの読み出し対象とする。   Returning to the description of the command handling process (FIG. 17), after reading the reference table in step S803, the value of the current process target counter among the commands written in the process target command area of the work RAM 73 in step S801. And the data corresponding to the combination of the second command data CD2 and the third command data CD3 in the command is written in the register of the display CPU 72 (step S804). The value of the processing target counter has a one-to-one correspondence with the command storage areas 102a to 102e of the first unprocessed area 102. The command written in the command area is set as the data read target.

ステップS804の処理を実行した後はステップS805にて処理対象カウンタの値を1減算する。そして、ステップS806にて、その1減算後の処理対象カウンタの値が「0」となっているか否かを判定する。「0」となっていない場合には、更新後の処理対象カウンタの値に対応したコマンドについてステップS804の処理を実行する。「0」となっている場合には、ステップS807にて実行対象テーブルの読み出し処理を実行する。当該読み出し処理では、ステップS804にて表示CPU72のレジスタに読み出したデータに対応した実行対象テーブルのアドレスを、ステップS803にて読み出した参照テーブルから特定し、メモリモジュール74におけるその特定したアドレスのエリアに記憶されている実行対象テーブルをワークRAM73に読み出す。これにより、処理対象のコマンドに対応した実行対象テーブルの読み出しが完了し、当該処理対象のコマンドに対応した動画を図柄表示装置41にて表示させることが可能となる。   After executing the processing in step S804, the value of the processing target counter is decremented by 1 in step S805. In step S806, it is determined whether or not the value of the processing target counter after the 1 subtraction is “0”. If it is not “0”, the process of step S804 is executed for the command corresponding to the updated processing target counter value. If it is “0”, an execution target table read process is executed in step S807. In the read process, the address of the execution target table corresponding to the data read to the register of the display CPU 72 in step S804 is specified from the reference table read in step S803, and the area of the specified address in the memory module 74 is specified. The stored execution target table is read into the work RAM 73. Thereby, the reading of the execution target table corresponding to the command to be processed is completed, and the moving image corresponding to the command to be processed can be displayed on the symbol display device 41.

ちなみに、遊技回用の演出、開閉実行モード用の演出及び待機演出といった演出を実行するための実行対象テーブルに基づく表示制御が実行されている状況で、不正報知又は状態報知を実行するための実行対象テーブルが読み出される場合、既に読み出されている演出用の実行対象テーブルをワークRAM73に記憶保持しながら報知用の実行対象テーブルをワークRAM73に読み出す。そして、後述するタスク処理(図19)ではそれら実行対象テーブルの両方に対応した画像の表示を可能とする演算処理を実行し、後述するポインタ更新処理(ステップS607)ではそれら実行対象テーブルの各ポインタ情報の更新を行う。   Incidentally, execution for executing fraud notification or status notification in a situation where display control based on an execution target table for executing effects such as effects for game times, effects for opening / closing execution mode and standby effects is being executed. When the target table is read, the notification execution target table is read to the work RAM 73 while the work execution target table that has already been read is stored in the work RAM 73. Then, in task processing (FIG. 19) described later, arithmetic processing that enables display of images corresponding to both of the execution target tables is executed, and in pointer update processing (step S607) described later, each pointer of the execution target tables. Update information.

V割込み処理(図15)の説明に戻り、ステップS603のコマンド対応処理にて、不正報知用又は状態報知用の実行対象テーブルが新たにセットされた場合(ステップS605:YES)、又は不正報知用又は状態報知用の実行対象テーブルが新たにセットされていない場合(ステップS605:NO)であってもワークRAM73に設けられた演算完了フラグに「1」がセットされている場合(ステップS606:YES)、ステップS607にて、ポインタ更新処理を実行するとともに、演算完了フラグを「0」クリアする。ポインタ更新処理では、現状の実行対象テーブルのポインタ情報を次の更新タイミングに対応したポインタ情報に更新する。なお、コマンド対応処理(ステップS603)にて実行対象テーブルが新たにセットされた直後のステップS607では、最初の更新タイミングに対応したポインタ情報となるように当該ポインタ情報の更新処理を実行する。演算完了フラグは、一の更新タイミングに対応した画像を表示させるための各種演算処理が、V割込み処理の前回の処理実行回において完了しているか否かを表示CPU72にて特定するためのフラグである。   Returning to the description of the V interrupt process (FIG. 15), if the execution target table for fraud notification or status notification is newly set in the command response process in step S603 (step S605: YES), or for fraud notification Alternatively, even when the state notification execution target table is not newly set (step S605: NO), “1” is set in the calculation completion flag provided in the work RAM 73 (step S606: YES). In step S607, pointer update processing is executed, and the calculation completion flag is cleared to “0”. In the pointer update process, the pointer information of the current execution target table is updated to pointer information corresponding to the next update timing. In step S607 immediately after the execution target table is newly set in the command corresponding process (step S603), the pointer information update process is executed so that the pointer information corresponds to the first update timing. The calculation completion flag is a flag for specifying in the display CPU 72 whether or not various calculation processes for displaying an image corresponding to one update timing have been completed in the previous process execution time of the V interrupt process. is there.

ステップS607の処理を実行した後は、ステップS608にてタスク処理を実行する。タスク処理では、今回の更新タイミングに対応した1フレーム分の画像を表示させるために、VDP76に描画指示を行う上で必要なパラメータの演算を行う。パラメータとして具体的には、メモリモジュール74において制御対象の画像データが記憶されているエリアのアドレス情報、VRAM75において制御対象の画像データを転送するエリアのアドレス情報、制御対象の画像データを用いて描画データを作成すべき対象のフレーム領域82a,82bの情報、作成対象のフレーム領域82a,82bにおいて制御対象の画像データを書き込む際の座標の情報、当該画像データを書き込む際のスケールの情報、及び当該画像データを書き込む際の一律α値(半透明値)の情報が含まれている。   After executing the processing in step S607, task processing is executed in step S608. In the task processing, in order to display an image for one frame corresponding to the current update timing, calculation of parameters necessary for giving a drawing instruction to the VDP 76 is performed. Specifically, the drawing is performed using the address information of the area where the image data to be controlled is stored in the memory module 74, the address information of the area to which the image data to be controlled is transferred in the VRAM 75, and the image data to be controlled. Information on the target frame regions 82a and 82b for which data is to be created, information on the coordinates when writing the control target image data in the target frame regions 82a and 82b, information on the scale when writing the image data, and Information on a uniform α value (translucent value) when writing image data is included.

その後、ステップS609にて描画リスト出力処理を実行する。描画リスト出力処理では、今回の処理回に係る更新タイミングに対応した1フレーム分の画像を表示させるための描画リストを作成し、その作成した描画リストをVDP76に送信する。この場合、当該描画リストでは、直前のタスク処理にて把握された画像が描画対象となり、さらに当該タスク処理にて更新したパラメータ情報が合わせて設定される。VDP76では、この描画リストに従ってVRAM75のフレーム領域82a,82bに描画データを作成する。このVDP76における処理については後に詳細に説明する。   Thereafter, a drawing list output process is executed in step S609. In the drawing list output process, a drawing list for displaying an image of one frame corresponding to the update timing related to the current processing time is created, and the created drawing list is transmitted to the VDP 76. In this case, in the drawing list, an image grasped in the immediately preceding task process is set as a drawing target, and parameter information updated in the task process is set together. In the VDP 76, drawing data is created in the frame areas 82a and 82b of the VRAM 75 according to this drawing list. The processing in the VDP 76 will be described in detail later.

ステップS608のタスク処理について図19のフローチャートを参照しながら説明する。まずステップS901では、ワークRAM73に設けられた遅延中フラグに「1」がセットされているか否かを判定する。タスク処理では、詳細は後述するように背景用演算処理、演出用演算処理及び図柄用演算処理といった各種演算処理を実行する。この場合、図柄表示装置41に表示させる個別画像の数、個別画像の種類及び個別画像の表示態様によって各種演算処理の実行に要する期間が変動する。そして、期間が変動した結果、タスク処理において全ての演算処理の実行が完了するまでに、V割込み処理の次の処理回を開始すべきタイミングとなることが起こり得る。この場合に、V割込み処理の実行を待機すると、音光側MPU62からのコマンド送信に対して表示CPU72において迅速に対処することができなくなってしまう。そこで、タスク処理の実行途中にV割込み処理の次の処理回を開始すべきタイミングとなった場合には、タスク処理をそのまま続行するのではなく、V割込み処理の新たな処理回を開始する構成となっている。但し、V割込み処理の新たな処理回を開始する場合には、その時点におけるタスク処理の演算結果を記憶保持し、その新たな処理回のV割込み処理におけるタスク処理にてその演算途中から演算処理を再開することで、一の更新タイミング分の演算処理が実行されないままとなってしまわないようにしている。これにより、例えば所定の個別画像を表示させるためのパラメータの更新が前回の更新値からの差分により制御される構成においてパラメータの更新が1回飛んでしまいその後のパラメータの更新が正確に行えなくなってしまうといった不都合の発生を抑制することが可能となる。遅延中フラグは、上記のようにタスク処理における各種演算処理の実行が一旦中断されて遅延されている状況であるか否かを表示CPU72にて特定するためのフラグである。なお、個別画像とは、背景データといった静止画像データにより規定される一の静止画像や、図柄スプライトデータといったスプライトデータにより規定される一のスプライトのことである。   The task processing in step S608 will be described with reference to the flowchart in FIG. First, in step S901, it is determined whether or not “1” is set in the in-delay flag provided in the work RAM 73. In the task process, various calculation processes such as a background calculation process, an effect calculation process, and a symbol calculation process are executed as will be described in detail later. In this case, the period required for executing various arithmetic processes varies depending on the number of individual images to be displayed on the symbol display device 41, the type of individual images, and the display mode of the individual images. As a result of the fluctuation of the period, it may occur that the next processing time of the V interrupt processing should be started before the execution of all the arithmetic processing is completed in the task processing. In this case, when waiting for the execution of the V interrupt process, the display CPU 72 cannot quickly cope with the command transmission from the sound light side MPU 62. Therefore, when it is time to start the next processing time of the V interrupt processing during the execution of the task processing, the task processing is not continued as it is, but a new processing time of the V interrupt processing is started. It has become. However, when starting a new processing time of the V interrupt processing, the operation result of the task processing at that time is stored and held, and the arithmetic processing is performed from the middle of the operation in the task processing of the V interrupt processing of the new processing time. By restarting, the calculation processing for one update timing is not left unexecuted. As a result, for example, in a configuration in which the parameter update for displaying a predetermined individual image is controlled by the difference from the previous update value, the parameter update is skipped once, and the subsequent parameter update cannot be performed accurately. It is possible to suppress the occurrence of inconvenience such as. The in-delay flag is a flag for specifying in the display CPU 72 whether or not the execution of various arithmetic processes in the task process is temporarily suspended and delayed as described above. The individual image refers to one still image defined by still image data such as background data and one sprite defined by sprite data such as symbol sprite data.

遅延中フラグに「1」がセットされていない場合(ステップS901:NO)、制御開始用の設定処理を実行する(ステップS902)。制御開始用の設定処理では、まず現状設定されている実行対象テーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM73において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータ情報を設定する。   When “1” is not set in the delay flag (step S901: NO), a setting process for starting control is executed (step S902). In the control start setting process, first, based on the currently set execution target table, it is determined whether or not there is an individual image to be controlled in the current processing round. If it exists, the work RAM 73 searches for an empty buffer area for performing various calculations in controlling the individual image, and corresponds to the individual image grasped as the control start target on a one-to-one basis. Reserve a free buffer area. Further, initialization processing is executed for all the reserved empty buffer areas, and parameter information for starting control according to the individual image is set for the initialized empty buffer areas.

続くステップS903では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。   In subsequent step S903, the control update target is grasped. This control update target is an individual image for which the control start process has been completed, and an individual image that may be included in an image for one frame after the current processing time.

その後、ステップS904にてV割込み処理の新たな起動を許可し、直後のステップS905にてV割込み処理の新たな起動を禁止した後に、背景用演算処理を実行する(ステップS906)。背景用演算処理では、背景の画像を構成することとなる最背面用の静止画像や背景用スプライトのうち今回の制御更新対象を把握する。また、その把握した制御更新対象について、仮想2次元平面における座標、回転角度、スケール、一律α値及びαデータ指定などといった描画リストを作成する上で必要な各種パラメータ情報を演算して導き出す。そして、その導き出した各種パラメータ情報を、ワークRAM73において各個別画像に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。   After that, a new activation of the V interrupt process is permitted in step S904, and after the new activation of the V interrupt process is prohibited in the immediately subsequent step S905, the background calculation process is executed (step S906). In the background calculation process, the current control update target is grasped among the rearmost still image and the background sprite constituting the background image. Further, for the grasped control update target, various parameter information necessary for creating a drawing list such as coordinates in the virtual two-dimensional plane, rotation angle, scale, uniform α value and α data designation is calculated and derived. Then, the control information is updated by writing the derived various parameter information in an area secured in the work RAM 73 corresponding to each individual image.

その後、ステップS907にてV割込み処理の新たな起動を許可し、直後のステップS908にてV割込み処理の新たな起動を禁止した後に、演出用演算処理を実行する(ステップS909)。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる演出の画像を構成する演出スプライトのうち今回の制御更新対象を把握する。また、その把握した制御更新対象について、上記各種パラメータ情報を導き出す。そして、その導き出した各種パラメータ情報を、ワークRAM73において各個別画像に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。   Thereafter, new activation of the V interrupt process is permitted in step S907, and new activation of the V interrupt process is prohibited in step S908 immediately thereafter, and then the effect calculation process is executed (step S909). In the effect calculation process, the current control update target is grasped among effect sprites constituting an effect image to be displayed in various effects such as reach display, notice display, and jackpot effect. Further, the various parameter information is derived for the grasped control update target. Then, the control information is updated by writing the derived various parameter information in an area secured in the work RAM 73 corresponding to each individual image.

その後、ステップS910にてV割込み処理の新たな起動を許可し、直後のステップS911にてV割込み処理の新たな起動を禁止した後に、図柄用演算処理を実行する(ステップS912)。図柄用演算処理では、各遊技回において変動表示の対象となる図柄のうち、今回の制御更新対象を把握する。また、その把握した制御更新対象について、上記各種パラメータ情報を導き出す。そして、その導き出した各種パラメータ情報を、ワークRAM73において各個別画像に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。   After that, a new activation of the V interrupt process is permitted in step S910, and after a new activation of the V interrupt process is prohibited in the immediately following step S911, the symbol calculation process is executed (step S912). In the symbol computation process, the current control update target is grasped from symbols subject to variable display in each game round. Further, the various parameter information is derived for the grasped control update target. Then, the control information is updated by writing the derived various parameter information in an area secured in the work RAM 73 corresponding to each individual image.

ちなみに、ステップS906、ステップS909及びステップS912の各演算処理では、個別画像の各種パラメータ情報を画像更新タイミングとなる度に、特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、個別画像の種類に応じて定められている。また、図柄用演算処理では、不正報知用又は状態報知用の実行対象テーブルがワークRAM73に読み出されている場合、当該実行対象テーブルに対応した報知画像を表示するための演算処理を実行するとともにその報知画像を表示するための報知スプライト、及び当該報知スプライトに適用する各種パラメータ情報を導出する。   Incidentally, in each calculation process of step S906, step S909, and step S912, animation data set so as to change various parameter information of the individual image according to a specific pattern every time the image update timing comes. This animation data is determined according to the type of individual image. In the symbol calculation process, when the execution table for fraud notification or state notification is read to the work RAM 73, the calculation process for displaying a notification image corresponding to the execution target table is executed. A notification sprite for displaying the notification image and various parameter information applied to the notification sprite are derived.

その後、ステップS913にて、ワークRAM73に設けられた演算完了フラグに「1」をセットする。演算完了フラグは、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理をそれぞれ1回ずつ実行したことを表示CPU72にて特定するためのフラグである。   Thereafter, in step S913, “1” is set to a calculation completion flag provided in the work RAM 73. The calculation completion flag is a flag for the display CPU 72 to specify that the background calculation process in step S906, the effect calculation process in step S909, and the symbol calculation process in step S912 are each performed once.

その後、ステップS914にて描画指示対象の把握処理を実行する。描画指示対象の把握処理では、上記ステップS906、ステップS909及びステップS912の各演算処理により制御更新対象となった各個別画像のうち、今回の描画データの作成指示に係る1フレーム分の画像に含まれる個別画像を把握する処理を実行する。当該把握は、各種個別画像の座標、回転角度及びスケールの情報とを参照して予め定められた演算を実行することで行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。このように描画リストにて指定する個別画像を、制御開始済みの全ての個別画像とするのではなく、表示対象の個別画像のみとすることで、VDP76において表示対象の個別画像を選別する必要がなく、また選別しないとしても表示対象ではない個別画像について無駄に描画処理を行う必要がなくなる。これにより、VDP76の処理負荷の低減が図られる。   Thereafter, a drawing instruction target grasping process is executed in step S914. In the drawing instruction target grasping process, among the individual images that have been controlled and updated by the calculation processes in steps S906, S909, and S912, the drawing instruction object is included in the image for one frame related to the current drawing data creation instruction. The process which grasps | ascertains the individual image to be performed is performed. The grasp is performed by executing a predetermined calculation with reference to coordinates, rotation angles, and scale information of various individual images. The individual image grasped here is set as a drawing target in the drawing list. In this way, it is necessary to select individual images to be displayed in the VDP 76 by making the individual images specified in the drawing list not only all individual images for which control has been started, but only individual images to be displayed. In addition, even if it is not selected, there is no need to perform drawing processing for individual images that are not display targets. Thereby, the processing load of the VDP 76 can be reduced.

ここで、V割込み処理の新たな処理回が開始された場合には当該V割込み処理の新たな起動が禁止されることとなるが、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理が実行される前の各タイミングで、V割込み処理の新たな起動が許可される(ステップS904、ステップS907及びステップS910)。これにより、ステップS904、ステップS907又はステップS910が実行された時点でV割込み処理の新たな処理回の開始タイミングとなっている場合、すなわち今回のV割込み処理が開始されてから既に20msecが経過している場合には、タスク処理がその時点で中断されて、V割込み処理の新たな処理回が開始されて上述したステップS601の処理を開始する。これにより、V割込み処理の新たな処理回の開始タイミングとなっているにも関わらずV割込み処理の新たな処理回の開始が待機されている期間を短くすることが可能となる。   Here, when a new processing time of the V interrupt process is started, the new activation of the V interrupt process is prohibited, but the background calculation process in step S906 and the effect calculation process in step S909 are prohibited. In addition, new activation of the V interrupt process is permitted at each timing before the symbol calculation process of step S912 is executed (steps S904, S907, and S910). As a result, when step S904, step S907, or step S910 is executed, the start timing of the new V interrupt processing is reached, that is, 20 msec has already elapsed since the start of the current V interrupt processing. If so, the task process is interrupted at that time, and a new process time of the V interrupt process is started, and the process of step S601 described above is started. As a result, it is possible to shorten the period in which the start of the new processing time of the V interrupt processing is awaited in spite of the start timing of the new processing time of the V interrupt processing.

但し、このようにV割込み処理の新たな処理回が開始される場合であっても、今回のタスク処理におけるそれまでの処理結果に対応したデータはそのまま記憶保持される。また、この場合、ワークRAM73に設けられた中断時用アドレスエリア111に、当該V割込み処理の新たな処理回が開始される直前に実行されていた処理に対応したアドレスデータが書き込まれる。中断時用アドレスエリア111に書き込まれたアドレスデータが、新たな処理回のV割込み処理におけるタスク処理の開始に際して参照されることで、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。   However, even if a new processing time of the V interrupt processing is started in this way, data corresponding to the processing result up to this time in the task processing is stored and held as it is. Further, in this case, address data corresponding to the process executed immediately before the start of the new processing time of the V interrupt process is written in the interruption address area 111 provided in the work RAM 73. The address data written in the interruption address area 111 is referred to at the start of task processing in the V interrupt processing of a new processing time, so that execution of processing is resumed from the timing at which interruption occurred in the previous task processing. It becomes possible to do.

また、ステップS904、ステップS907及びステップS910にてV割込み処理の新たな起動を許可した場合、ステップS905、ステップS908及びステップS911にてその新たな起動を禁止した後にステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理を実行する。これにより、各種演算処理の実行途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。各種演算処理の実行途中でV割込み処理の新たな処理回が開始されると、記憶保持すべき演算途中のデータのデータ量が極端に多くなってしまうことが想定され、さらにV割込み処理の新たな処理回において演算途中の状態に復帰する場合におけるアドレスデータの内容も複雑なものとなってしまうおそれがある。これに対して、各種演算処理が開始される前にV割込み処理の新たな起動を禁止することで、各種演算処理の途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。   Further, when the new activation of the V interrupt process is permitted in step S904, step S907, and step S910, the background calculation process in step S906 is performed after the new activation is prohibited in step S905, step S908, and step S911. The effect calculation process in step S909 and the symbol calculation process in step S912 are executed. Thereby, it is possible to prevent a new processing time of the V interrupt processing from being started during the execution of various arithmetic processing. If a new processing time of V interrupt processing is started during the execution of various arithmetic processing, it is assumed that the amount of data in the middle of the operation to be stored will be extremely large. The content of the address data when returning to a state in the middle of processing in a complicated processing time may be complicated. On the other hand, by prohibiting new activation of the V interrupt process before various arithmetic processes are started, a new processing time of the V interrupt process is not started in the middle of various arithmetic processes. It becomes possible.

タスク処理の実行途中でV割込み処理の新たな処理回が開始された場合には、ステップS913にて演算完了フラグに「1」をセットする処理を実行することなく、V割込み処理(図15)のステップS601の処理が開始されることとなる。そうすると、演算完了フラグに「1」がセットされていないとしてステップS606にて否定判定をする。この場合、ステップS610にてワークRAM73の遅延中フラグに「1」をセットする。   If a new processing time of the V interrupt process is started during the execution of the task process, the V interrupt process (FIG. 15) is executed without executing the process of setting “1” to the calculation completion flag in step S913. The process of step S601 is started. Then, a negative determination is made in step S606, assuming that “1” is not set in the calculation completion flag. In this case, “1” is set to the in-delay flag of the work RAM 73 in step S610.

遅延中フラグに「1」がセットされている場合、その後のタスク処理(図19)ではステップS901にて肯定判定をする。この場合、遅延中フラグを「0」クリアした後に(ステップS915)、ワークRAM73の中断時用アドレスエリア111からアドレスデータを読み出すことで、前回のタスク処理においてV割込み処理の新たな処理回が開始される直前に実行していた処理にジャンプする(ステップS916)。これにより、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。   When “1” is set in the delay flag, an affirmative determination is made in step S901 in the subsequent task processing (FIG. 19). In this case, after the delay flag is cleared to “0” (step S 915), the address data is read from the interruption address area 111 of the work RAM 73, thereby starting a new processing time of the V interrupt processing in the previous task processing. The process jumps to the process that was being executed immediately before (step S916). As a result, the execution of the process can be resumed from the timing when the interruption occurred in the previous task process.

V割込み処理(図15)においては、ステップS606にて否定判定をした場合、さらに遅延コマンドを音光側MPU62に送信する(ステップS611)。遅延コマンドには、現状の実行対象テーブルにおけるポインタ情報のデータが含まれる。音光側MPU62において遅延コマンドを受信した場合の処理は、タイマ割込み処理(図9)におけるステップS306の表示側コマンド対応処理にて実行される。   In the V interrupt process (FIG. 15), when a negative determination is made in step S606, a delay command is further transmitted to the sound light side MPU 62 (step S611). The delay command includes pointer information data in the current execution target table. The process when the sound light side MPU 62 receives the delay command is executed in the display side command corresponding process in step S306 in the timer interrupt process (FIG. 9).

具体的には、図20のフローチャートに示すように、遅延コマンドを受信した場合(ステップS1001:YES)、今回受信した遅延コマンドから実行対象テーブルのポインタ情報を読み出す(ステップS1002)。その後、音声発光制御装置60のRAM64に読み出されている制御パターンテーブルのポインタ情報と、上記遅延コマンドから読み出したポインタ情報とに基づいて、表示CPU72において更新タイミングの遅延が発生したことに対応する遅延分のポインタ範囲を算出する(ステップS1003)。   Specifically, as shown in the flowchart of FIG. 20, when a delay command is received (step S1001: YES), pointer information of the execution target table is read from the currently received delay command (step S1002). Thereafter, the display CPU 72 corresponds to the occurrence of the update timing delay based on the pointer information of the control pattern table read to the RAM 64 of the sound emission control device 60 and the pointer information read from the delay command. The pointer range for the delay is calculated (step S1003).

制御パターンテーブルには、表示CPU72へのコマンドの出力タイミングが設定されているため、表示CPU72における現状の実行対象テーブルに対応する演出の実行指示を行ったタイミングのポインタ情報を導出することが可能である。また、音光側MPU62において制御パターンテーブルのポインタ情報が更新される周期と、表示CPU72において実行対象テーブルのポインタ情報が更新される周期とは相違しているものの、これら周期は予め定められた周期で概ね一定となる。音光側MPU62は、制御パターンテーブルの現状のポインタ情報から表示CPU72にてタスク処理の中断が発生していない場合における実行対象テーブルの本来のポインタ情報を導出することが可能である。そして、その導出したポインタ情報と、表示CPU72の遅延コマンドから把握したポインタ情報との差分から、音光側MPU62における制御の進行具合と表示CPU72における制御の進行具合とを一致させるのに必要な、制御パターンテーブルのポインタ情報の減算値を導出することが可能である。   Since the output timing of the command to the display CPU 72 is set in the control pattern table, it is possible to derive the pointer information at the timing when the execution instruction of the effect corresponding to the current execution target table in the display CPU 72 is given. is there. Further, although the cycle in which the pointer information in the control pattern table is updated in the sound light side MPU 62 is different from the cycle in which the pointer information in the execution target table is updated in the display CPU 72, these cycles are predetermined cycles. It becomes almost constant. The sound light side MPU 62 can derive the original pointer information of the execution target table when the task processing is not interrupted in the display CPU 72 from the current pointer information of the control pattern table. Then, from the difference between the derived pointer information and the pointer information grasped from the delay command of the display CPU 72, it is necessary to match the progress of control in the sound light side MPU 62 with the progress of control in the display CPU 72. It is possible to derive a subtraction value of the pointer information of the control pattern table.

ステップS1004では、その導出した減算値を、制御パターンテーブルの現状のポインタ情報から減算することにより、当該ポインタ情報の調整処理を実行する。これにより、表示CPU72にてタスク処理の中断が発生して実行対象テーブルのポインタ情報の更新が遅延されたとしても、音光側MPU62における制御パターンテーブルのポインタ情報をその遅延が発生している実行対象テーブルのポインタ情報と対応させることが可能となる。   In step S1004, the derived subtraction value is subtracted from the current pointer information in the control pattern table to execute adjustment processing of the pointer information. As a result, even if the task processing is interrupted in the display CPU 72 and the update of the pointer information in the execution target table is delayed, the pointer information in the control pattern table in the sound light side MPU 62 is delayed. It is possible to correspond to the pointer information of the target table.

タスク処理との関係で実行対象テーブルのポインタ情報の調整が行われる様子について図21のタイムチャートを参照しながら説明する。図21(a)はV割込み処理の起動タイミングを示し、図21(b)はタスク処理の実行期間を示し、図21(c)は実行対象テーブルのポインタ情報の更新タイミングを示し、図21(d)は遅延コマンドの送信タイミングを示し、図21(e)は表示CPU72が音光側MPU62から報知実行コマンドを受信したタイミングを示す。なお、以下の説明ではV割込み処理の処理回が新たに開始されたタイミングでポインタ情報が更新されるものとするが、実際にはV割込み処理の処理回が新たに開始されたタイミングよりも後であってタスク処理が開始される前のタイミングでポインタ情報が更新される。これは遅延コマンドの出力タイミングについても同様である。   The manner in which the pointer information of the execution target table is adjusted in relation to the task processing will be described with reference to the time chart of FIG. 21A shows the start timing of the V interrupt process, FIG. 21B shows the execution period of the task process, FIG. 21C shows the update timing of the pointer information in the execution target table, and FIG. FIG. 21E shows the timing at which the display CPU 72 receives the notification execution command from the sound light side MPU 62. In the following description, it is assumed that the pointer information is updated at the timing when the processing time of the V interrupt processing is newly started, but actually the timing after the processing time of the V interrupt processing is newly started. The pointer information is updated at a timing before the task processing is started. The same applies to the output timing of the delay command.

まずタスク処理の途中で中断が発生する場合であって、そのタスク処理の途中で報知実行コマンドを受信していない場合について説明する。   First, a case where an interruption occurs in the middle of task processing and a notification execution command has not been received in the middle of the task processing will be described.

図21(a)に示すようにt1のタイミングでV割込み処理の新たな処理回が開始される。この場合、図21(c)に示すように実行対象テーブルのポインタ情報が更新される。その後、t2のタイミングで図21(b)に示すようにタスク処理が開始され、当該タスク処理はV割込み処理の新たな起動タイミング(t4のタイミング)よりも前のタイミングであるt3のタイミングで終了する。この場合、タスク処理の中断は発生しない。   As shown in FIG. 21A, a new processing time of V interrupt processing is started at the timing of t1. In this case, the pointer information of the execution target table is updated as shown in FIG. Thereafter, task processing is started at the timing t2, as shown in FIG. 21B, and the task processing ends at a timing t3 which is a timing before a new start timing (timing t4) of the V interrupt processing. To do. In this case, the task processing is not interrupted.

その後、図21(a)に示すようにt4のタイミングでV割込み処理の新たな処理回が開始されるとともに、図21(c)に示すように実行対象テーブルのポインタ情報が更新される。そして、t5のタイミングで図21(b)に示すようにタスク処理が開始される。但し、当該タスク処理の実行途中であるt6のタイミングで図21(a)に示すようにV割込み処理の新たな起動タイミングとなる。この場合、現状実行されているタスク処理は図21(b)に示すように中断され、V割込み処理の新たな処理回が開始される。   Thereafter, as shown in FIG. 21A, a new processing time of the V interrupt processing is started at the timing t4, and the pointer information of the execution target table is updated as shown in FIG. 21C. Then, the task processing is started at the timing t5 as shown in FIG. However, as shown in FIG. 21A, a new start timing of the V interrupt processing is obtained at the timing of t6 during the execution of the task processing. In this case, the currently executed task process is interrupted as shown in FIG. 21B, and a new processing time of the V interrupt process is started.

当該t6のタイミングではV割込み処理の新たな処理回が開始されたとしても実行対象テーブルのポインタ情報は更新されない。これにより、その新たな処理回のV割込み処理ではポインタ情報の更新が行われないままタスク処理が開始されるため、V割込み処理の前回の処理回で設定されたポインタ情報に対応するデータを利用したタスク処理を実行することが可能となる。また、t6のタイミングで図21(d)に示すように表示CPU72から音光側MPU62に遅延コマンドが送信される。これにより、表示CPU72の実行対象テーブルにおいてポインタ情報の更新が遅れた状況において、その遅れに合わせて音光側MPU62の制御パターンテーブルのポインタ情報を調整することが可能となる。   At the timing of t6, even if a new processing time of the V interrupt processing is started, the pointer information of the execution target table is not updated. As a result, the task processing is started without updating the pointer information in the V interrupt processing of the new processing time, so the data corresponding to the pointer information set in the previous processing time of the V interrupt processing is used. It is possible to execute the task processing. Further, at the timing of t6, a delay command is transmitted from the display CPU 72 to the sound light side MPU 62 as shown in FIG. Thereby, in a situation where the update of the pointer information in the execution target table of the display CPU 72 is delayed, the pointer information in the control pattern table of the sound light side MPU 62 can be adjusted in accordance with the delay.

次に、タスク処理の中断が発生する場合であって、そのタスク処理の途中で報知実行コマンドを受信している場合について説明する。   Next, a case will be described in which task processing is interrupted and a notification execution command is received during the task processing.

図21(a)に示すようにt9のタイミングでV割込み処理の新たな処理回が開始されるとともに、図21(c)に示すように実行対象テーブルのポインタ情報が更新される。そして、t10のタイミングで図21(b)に示すようにタスク処理が開始される。但し、当該タスク処理の実行途中であるt12のタイミングで図21(a)に示すようにV割込み処理の新たな起動タイミングとなる。この場合、現状実行されているタスク処理は図21(b)に示すように中断され、V割込み処理の新たな処理回が開始される。   As shown in FIG. 21A, a new processing time of V interrupt processing is started at the timing t9, and pointer information in the execution target table is updated as shown in FIG. Then, the task processing is started at the timing of t10 as shown in FIG. However, as shown in FIG. 21A, a new start timing of the V interrupt processing is obtained at the timing t12 during the execution of the task processing. In this case, the currently executed task process is interrupted as shown in FIG. 21B, and a new processing time of the V interrupt process is started.

但し、その中断対象となったタスク処理の開始タイミングであるt10のタイミングよりも後であって、V割込み処理の新たな処理回の開始タイミングであるt12のタイミングよりも前のタイミングであるt11のタイミングで、図21(e)に示すように音光側MPU62から報知実行を受信している。したがって、t12のタイミングでタスク処理が中断されてV割込み処理の新たな処理回が開始されたとしても、図21(c)に示すように実行対象テーブルのポインタ情報は更新される。また、図21(d)に示すように遅延コマンドは送信されない。   However, after the timing of t10 which is the start timing of the task processing to be interrupted, and before the timing of t12 which is the start timing of a new processing time of the V interrupt processing, At the timing, the notification execution is received from the sound light side MPU 62 as shown in FIG. Therefore, even if the task processing is interrupted at the timing t12 and a new processing time of the V interrupt processing is started, the pointer information of the execution target table is updated as shown in FIG. Further, as shown in FIG. 21D, the delay command is not transmitted.

その後、t13のタイミングで図21(b)に示すようにタスク処理が開始される。当該タスク処理では、演出用の各種演算処理に関しては演出用の実行対象テーブルにおいてポインタ情報1個分のデータに対応した演算が実行されないままとなっているため、各種パラメータ情報の設定が正常通りに行われないことに起因して演出用の画像表示が円滑に行われない可能性がある。その一方、当該タスク処理において報知用の各種演算処理は開始されるため報知用の画像の表示を即座に開始することが可能となる。その後、当該タスク処理はV割込み処理の新たな起動タイミング(t15のタイミング)よりも前のタイミングであるt14のタイミングで終了する。この場合、タスク処理の中断は発生しない。   Thereafter, the task processing is started at the timing of t13 as shown in FIG. In the task process, since the operation corresponding to the data for one piece of pointer information is not executed in the execution target table for the effect for the various operation processes for the effect, the setting of the various parameter information is performed normally. There is a possibility that the image display for production is not smoothly performed due to the fact that it is not performed. On the other hand, since various calculation processes for notification are started in the task process, display of a notification image can be started immediately. Thereafter, the task processing ends at a timing t14 which is a timing before a new activation timing (timing t15) of the V interrupt processing. In this case, the task processing is not interrupted.

V割込み処理の新たな処理回が開始された場合には当該V割込み処理の新たな起動が禁止されることとなるが、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理が実行される前の各タイミングで、V割込み処理の新たな起動が許可される(ステップS904、ステップS907及びステップS910)。これにより、ステップS904、ステップS907又はステップS910が実行された時点でV割込み処理の新たな処理回の開始タイミングとなっている場合、すなわち今回のV割込み処理が開始されてから既に20msecが経過している場合には、タスク処理がその時点で中断されて、V割込み処理の新たな処理回が開始されて上述したステップS601の処理を開始する。これにより、V割込み処理の新たな処理回の開始タイミングとなっているにも関わらずV割込み処理の新たな処理回の開始が待機されている期間を短くすることが可能となる。   When a new processing time of the V interrupt process is started, the new activation of the V interrupt process is prohibited. However, the background calculation process in step S906, the effect calculation process in step S909, and step S912 are performed. At each timing before the symbol calculation process is executed, new activation of the V interrupt process is permitted (steps S904, S907, and S910). As a result, when step S904, step S907, or step S910 is executed, the start timing of the new V interrupt processing is reached, that is, 20 msec has already elapsed since the start of the current V interrupt processing. If so, the task process is interrupted at that time, and a new process time of the V interrupt process is started, and the process of step S601 described above is started. As a result, it is possible to shorten the period in which the start of the new processing time of the V interrupt processing is awaited in spite of the start timing of the new processing time of the V interrupt processing.

但し、このようにV割込み処理の新たな処理回が開始される場合であっても、今回のタスク処理におけるそれまでの処理結果に対応したデータはそのまま記憶保持される。また、この場合、ワークRAM73に設けられた中断時用アドレスエリア111に、当該V割込み処理の新たな処理回が開始される直前に実行されていた処理に対応したアドレスデータが書き込まれる。中断時用アドレスエリア111に書き込まれたアドレスデータが、新たな処理回のV割込み処理におけるタスク処理の開始に際して参照されることで、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。   However, even if a new processing time of the V interrupt processing is started in this way, data corresponding to the processing result up to this time in the task processing is stored and held as it is. Further, in this case, address data corresponding to the process executed immediately before the start of the new processing time of the V interrupt process is written in the interruption address area 111 provided in the work RAM 73. The address data written in the interruption address area 111 is referred to at the start of task processing in the V interrupt processing of a new processing time, so that execution of processing is resumed from the timing at which interruption occurred in the previous task processing. It becomes possible to do.

ステップS904、ステップS907及びステップS910にてV割込み処理の新たな起動を許可した場合、ステップS905、ステップS908及びステップS911にてその新たな起動を禁止した後に、ステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理を実行する。これにより、各種演算処理の実行途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。各種演算処理の実行途中でV割込み処理の新たな処理回が開始されると、記憶保持すべき演算途中のデータのデータ量が極端に多くなってしまうことが想定され、さらにV割込み処理の新たな処理回において演算途中の状態に復帰する場合におけるアドレスデータの内容も複雑なものとなってしまうおそれがある。これに対して、各種演算処理が開始される前にV割込み処理の新たな起動を禁止することで、各種演算処理の途中でV割込み処理の新たな処理回が開始されてしまわないようにすることが可能となる。   If new activation of the V interrupt process is permitted in step S904, step S907, and step S910, the new activation is prohibited in step S905, step S908, and step S911, and then the background calculation process in step S906 is performed. The effect calculation process in S909 and the symbol calculation process in step S912 are executed. Thereby, it is possible to prevent a new processing time of the V interrupt processing from being started during the execution of various arithmetic processing. If a new processing time of V interrupt processing is started during the execution of various arithmetic processing, it is assumed that the amount of data in the middle of the operation to be stored will be extremely large. The content of the address data when returning to a state in the middle of processing in a complicated processing time may be complicated. On the other hand, by prohibiting new activation of the V interrupt process before various arithmetic processes are started, a new processing time of the V interrupt process is not started in the middle of various arithmetic processes. It becomes possible.

表示CPU72にてタスク処理の中断が発生するとともに次回のV割込み処理においてその中断した状態からタスク処理が再開される場合には、表示CPU72から音光側MPU62に遅延コマンドが送信されることで、当該音光側MPU62において制御パターンテーブルのポインタ情報が当該遅延に対応させて調整される。これにより、当該遅延が発生する場合であったとしても、音光側MPU62における演出の実行制御の内容と、表示CPU72における演出の実行制御の内容とを同期させることが可能となる。   When the task processing is interrupted in the display CPU 72 and the task processing is resumed from the interrupted state in the next V interrupt processing, a delay command is transmitted from the display CPU 72 to the sound side MPU 62. In the sound light side MPU 62, the pointer information of the control pattern table is adjusted corresponding to the delay. Thereby, even if it is a case where the said delay generate | occur | produces, it becomes possible to synchronize the content of the execution control of the production in the sound light side MPU 62, and the content of the execution control of the production in the display CPU72.

表示CPU72にてタスク処理の中断が発生した場合にV割込み処理(図15)のステップS606にて否定判定をすることで、実行対象テーブルのポインタ情報の更新が行われないとともに音光側MPU62への遅延コマンドの送信が行われる構成において、タスク処理の中断が発生しているとしても遅延非発生条件が成立している場合にはステップS606の判定処理が実行されないことで、実行対象テーブルのポインタ情報の更新が行われるとともに遅延コマンドが送信されない。具体的には、不正報知又は状態報知用の実行対象テーブルがワークRAM73に新たに読み出されている場合には、ステップS605にて肯定判定をすることで、ステップS606の判定処理を実行することなくステップS607の処理を実行する。これにより、演出用の画像表示を円滑に行えなくなる可能性はあるものの、不正報知又は状態報知に対応した画像の表示の開始を最優先することが可能となる。つまり、コマンド対応処理にて報知用の実行対象テーブルがワークRAM73に新たに読み出されたとしても、その後に当該実行対象テーブルについてステップS607のポインタ更新処理が実行されない限りは報知用の画像の表示が開始されない。これに対して、報知用の実行対象テーブルが新たに読み出されている場合には、タスク処理の中断が前回発生していたとしてもステップS607のポインタ更新処理を実行することで、報知用の画像表示の開始が遅れてしまわないようにすることが可能となる。   If the task processing is interrupted in the display CPU 72, a negative determination is made in step S606 of the V interrupt processing (FIG. 15), so that the pointer information in the execution target table is not updated and the sound side MPU 62 is returned. In the configuration in which the delayed command is transmitted, if the delay non-occurrence condition is satisfied even if the task processing is interrupted, the determination processing in step S606 is not executed, and the pointer of the execution target table Information is updated and no delay command is sent. Specifically, when the execution target table for fraud notification or status notification is newly read in the work RAM 73, the determination process of step S606 is executed by making an affirmative determination in step S605. Instead, the process of step S607 is executed. Thereby, although there is a possibility that the image display for production cannot be performed smoothly, it is possible to give the highest priority to the start of the image display corresponding to the fraud notification or the state notification. That is, even if a notification execution target table is newly read into the work RAM 73 in the command corresponding process, a notification image is displayed as long as the pointer update process in step S607 is not performed on the execution target table thereafter. Does not start. On the other hand, when the notification execution target table is newly read, even if the task processing is interrupted last time, the notification update target table is executed by executing the pointer update processing in step S607. It is possible to prevent the start of image display from being delayed.

<VDP76における基本的な処理>
次に、VDP76にて実行される基本的な処理について説明する。
<Basic processing in VDP 76>
Next, basic processing executed by the VDP 76 will be described.

VDP76では、表示CPU72から送信されたコマンドに基づいてレジスタ92の値を設定する処理、表示CPU72から送信された描画リストに基づいてフレームバッファ82のフレーム領域82a,82bに描画データを作成する処理、及びフレーム領域82a,82bに作成された描画データに基づいて図柄表示装置41に画像信号を出力する処理が実行される。   In the VDP 76, processing for setting the value of the register 92 based on a command transmitted from the display CPU 72, processing for creating drawing data in the frame areas 82a and 82b of the frame buffer 82 based on the drawing list transmitted from the display CPU 72, And the process which outputs an image signal to the symbol display apparatus 41 based on the drawing data produced in the frame area | regions 82a and 82b is performed.

上記各処理のうち、レジスタ92の値を設定する処理は、表示CPU72用のI/F95に付随する図示しない回路によって、描画リストを受信した場合にその都度実行される。また、描画データを作成する処理は、予め定められた周期(例えば、1msec)で制御部91によって繰り返し起動される。また、画像信号を出力する処理は、表示回路94によって、予め定められた画像信号の出力開始タイミングとなることで実行される。   Of the above processes, the process of setting the value of the register 92 is executed each time a drawing list is received by a circuit (not shown) attached to the I / F 95 for the display CPU 72. Further, the process of creating the drawing data is repeatedly activated by the control unit 91 at a predetermined cycle (for example, 1 msec). Further, the process of outputting the image signal is executed by the display circuit 94 at a predetermined output start timing of the image signal.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU72からVDP76に送信される描画リストの内容について説明する。図22(a)〜(c)は描画リストの内容を説明するための説明図である。   Hereinafter, the process of creating the drawing data will be described in detail. Prior to the description of the processing, the contents of the drawing list transmitted from the display CPU 72 to the VDP 76 will be described. 22A to 22C are explanatory diagrams for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像に対応した描画データを第1フレーム領域82a及び第2フレーム領域82bのうちいずれに描画するのかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、デコード指定の有無及びデコード対象となる動画像データのアドレスの情報が設定されている。   Header information is set in the drawing list. In the header information, information on a target buffer, which is information indicating whether drawing data corresponding to an image for one frame related to the drawing list is to be drawn in the first frame area 82a or the second frame area 82b, is set. Has been. Also, in the header information, information on the presence / absence of decoding designation and the address of moving image data to be decoded is set.

描画リストには、上記ヘッダ情報以外にも、1フレーム分の画像を表示するために用いられる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させて使用する画像データの情報が設定されている。また、各画像データの情報に1対1で対応させてパラメータ情報が設定されている。   In the drawing list, in addition to the header information, a plurality of types of image data used for displaying an image for one frame are set. Further, information on the drawing order of each image data and each image data Parameter information is set. More specifically, the drawing order information is set so as to be sequential numerical value information, and information of image data to be used is set corresponding to each numerical information one-to-one. Also, parameter information is set in a one-to-one correspondence with information of each image data.

上記描画順序は、1フレーム分の画像において表示面P奥側に位置するように表示させたい個別画像から先に描画対象となるように設定されている。なお、個別画像とは、背景データといった静止画像データにより規定される一の静止画像や、図柄スプライトデータといったスプライトデータにより規定される一のスプライトのことである。図22(a)の描画リストでは、背景データが最初の描画対象として設定されているとともに、スプライトデータAが2番目、スプライトデータBが3番目、・・・として設定されている。したがって、描画対象のフレーム領域82a,82bに対して、最初に背景データが書き込まれ、その後に当該背景データに重なるようにしてスプライトデータAが書き込まれ、さらにスプライトデータBが書き込まれる。なお、1フレーム分の画像においては、背景画像→演出画像→図柄の順序で手前側となるように、各個別画像が表示される。   The drawing order is set so that an individual image desired to be displayed is positioned on the back side of the display surface P in an image for one frame before the drawing target. The individual image refers to one still image defined by still image data such as background data and one sprite defined by sprite data such as symbol sprite data. In the drawing list of FIG. 22A, the background data is set as the first drawing target, the sprite data A is set as the second, the sprite data B is set as the third, and so on. Therefore, the background data is first written in the frame regions 82a and 82b to be drawn, and then the sprite data A is written so as to overlap the background data, and the sprite data B is further written. In the image for one frame, each individual image is displayed so that the front side is in the order of background image → effect image → design.

パラメータ情報P(1),P(2),P(3),・・・には、複数種類のパラメータが設定されている。背景データのパラメータP(1)について具体的には、図22(b)に示すように、メモリモジュール74において背景データが記憶されているエリアのアドレスの情報と、VRAM75において背景データを転送するエリアのアドレスの情報と、背景データを書き込む場合における2次元平面上の位置を示す座標の情報と、背景データを書き込む場合における2次元平面上の回転角度を示す回転角度の情報と、背景データの初期状態として設定されているサイズに対して、フレーム領域82a,82bに書き込む際の倍率を示すスケールの情報と、背景データを書き込む場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、αデータの適用有無及び適用対象を示すαデータ指定の情報とが設定されている。上記パラメータの種類は、図22(c)に示すように、スプライトデータAについても同様である。   A plurality of types of parameters are set in the parameter information P (1), P (2), P (3),. Specifically, as for the background data parameter P (1), as shown in FIG. 22B, the address information of the area where the background data is stored in the memory module 74 and the area where the background data is transferred in the VRAM 75 Address information, coordinate information indicating the position on the two-dimensional plane when writing the background data, rotation angle information indicating the rotation angle on the two-dimensional plane when writing the background data, and initial background data Scale information indicating the magnification when writing to the frame regions 82a and 82b for the size set as the state, and uniform α value information indicating the entire transmission information (or transparency information) when writing the background data And α data designation information indicating whether or not α data is applied and an application target are set. The types of parameters are the same for sprite data A as shown in FIG.

座標の情報は、画像データを構成する全ピクセルについて個別に設定されるのではなく、一の画像データに対して一の座標の情報が設定される。具体的には、座標の情報が指定される基準ピクセルとして画像データの中心の1ピクセルが設定されている。VDP76では、指定される座標の情報が画像データの中心の1ピクセルであることを認識可能となっており、画像データの配置に際してはその中心の1ピクセルが指定された座標上となるようにする。これにより、表示CPU72において一の画像データに対して指定すべき座標の情報の情報容量(すなわちデータ量)を抑えることができる。また、表示CPU72やVDP76において画像データの全ピクセルについて座標を認識可能としておく必要がないため、プログラムの簡素化も図られる。   The coordinate information is not individually set for all the pixels constituting the image data, but one coordinate information is set for one image data. Specifically, one pixel at the center of the image data is set as a reference pixel for specifying coordinate information. In the VDP 76, it is possible to recognize that the designated coordinate information is one pixel at the center of the image data, and when the image data is arranged, the center pixel is on the designated coordinate. . Thereby, the information capacity (that is, the data amount) of the coordinate information to be designated for one image data in the display CPU 72 can be suppressed. Further, since it is not necessary for the display CPU 72 and the VDP 76 to recognize coordinates for all pixels of the image data, the program can be simplified.

ちなみに、上記基準ピクセルは中心の1ピクセルに限定されることはなく、例えば左上や右上といった隅角のピクセルであってもよい。スプライトデータや静止画像データは基本的に矩形状として規定されているため、隅角のピクセルを基準ピクセルとすることで、表示CPU72やVDP76において基準ピクセルの認識を行い易くなる。   Incidentally, the reference pixel is not limited to the central pixel, and may be a corner pixel such as upper left or upper right. Since the sprite data and the still image data are basically defined as a rectangular shape, the display CPU 72 and the VDP 76 can easily recognize the reference pixel by using the corner pixel as the reference pixel.

また、一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU72における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、背景データやスプライトデータの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール74に予め記憶されている。当該αデータは、同一の背景データ又は同一のスプライトデータの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。   The uniform α value is transmission information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 72. The uniform α value is uniformly applied to all the pixels of the image data. On the other hand, the α data is transmission information applied in units of pixels of background data and sprite data, and is stored in advance in the memory module 74 as image data. The alpha data can have different transmission information for each pixel within the range of the same background data or the same sprite data. The α data has a larger data capacity than program data for setting a uniform α value.

上記のように一律α値とαデータとが設定されていることにより、背景データやスプライトデータの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。   Since the uniform α value and α data are set as described above, the transparency of the background data and sprite data need not be finely controlled on a pixel-by-pixel basis, but should be controlled uniformly for all pixels. By being able to cope with a uniform α value, the required data capacity can be reduced, and by applying α data, the transparency can be finely controlled in units of pixels.

VDP76における描画処理について、図23のフローチャートを参照しながら説明する。   The drawing process in the VDP 76 will be described with reference to the flowchart in FIG.

まずステップS1101では、既に受信している描画リストにて指示された描画データの作成が完了しているか否かを判定する。描画データの作成が完了している場合には、ステップS1102にて、表示CPU72から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS1103にて、受信時の対応処理を実行する。   First, in step S1101, it is determined whether or not the creation of the drawing data instructed in the already received drawing list has been completed. If the creation of drawing data has been completed, it is determined in step S1102 whether a new drawing list has been received from the display CPU 72 or not. If a new drawing list has been received, the corresponding processing at the time of reception is executed in step S1103.

受信時の対応処理では、描画リストに含まれるターゲットバッファの情報から、今回受信した描画リストに対応した1フレーム分の描画データをいずれのフレーム領域82a,82bに描画するのかを把握する。   In the handling process at the time of reception, it is grasped in which frame area 82a, 82b the drawing data for one frame corresponding to the drawing list received this time is drawn from the information of the target buffer included in the drawing list.

続くステップS1104では、内容把握処理を実行する。内容把握処理では、描画リストに読み出し対象として設定されている画像データをメモリモジュール74から読み出しVRAM75の展開用バッファ81に書き込む。また、内容把握処理では、描画リストにおいて描画対象として最初に設定されている画像データの種類を把握するとともに、当該画像データの各種パラメータ情報を把握する。書き込み処理では、ステップS1104における内容把握処理の把握結果に基づいて、作成対象として設定されているフレーム領域82a,82bに今回の描画対象の画像データを書き込む。   In a succeeding step S1104, a content grasping process is executed. In the content grasping process, the image data set as a reading target in the drawing list is read from the memory module 74 and written in the expansion buffer 81 of the VRAM 75. In the content grasping process, the type of image data initially set as a drawing target in the drawing list is grasped, and various parameter information of the image data is grasped. In the writing process, based on the grasping result of the contents grasping process in step S1104, the current drawing target image data is written in the frame areas 82a and 82b set as the creation target.

一方、ステップS1101にて、既に受信している描画リストにて指示された描画データの作成途中であると判定した場合には、ステップS1106にて描画リストのカウンタの更新処理を実行する。これにより、描画対象が次の描画順序の画像データに切り換えられる。そして、当該切り換えられた画像データについて、上記ステップS1104及びステップS1105の処理を実行する。つまり、描画処理が複数回実行されることで、一の描画リストにより指示された1フレーム分の画像の描画データが作成される。   On the other hand, if it is determined in step S1101 that drawing data instructed in the already received drawing list is being created, a drawing list counter update process is executed in step S1106. As a result, the drawing target is switched to the image data of the next drawing order. Then, the processing of step S1104 and step S1105 is executed for the switched image data. That is, by executing the drawing process a plurality of times, drawing data of an image for one frame designated by one drawing list is created.

なお、1回の描画処理で1個の画像データのみが処理される構成に限定されることはなく、1回の描画処理で複数個の画像データが処理される構成としてもよく、また描画処理の各処理回において同一個数の画像データが処理される構成に限定されることはなく、描画処理の各処理回において異なる個数の画像データが処理される構成としてもよい。   Note that the present invention is not limited to a configuration in which only one image data is processed in one drawing process, and a configuration in which a plurality of image data is processed in one drawing process may be used. However, the present invention is not limited to the configuration in which the same number of image data is processed in each processing time, and a configuration in which a different number of image data is processed in each processing time of the drawing processing may be employed.

ステップS1102にて否定判定した場合、又はステップS1105の処理を実行した後は、ステップS1107にて、表示回路94において1フレーム分の画像信号出力が完了しているか否かを判定する。完了していない場合にはそのまま本描画処理を終了し、完了している場合にはステップS1108にて表示CPU72にV割込み信号を出力した後に、本描画処理を終了する。   If a negative determination is made in step S1102, or after the processing in step S1105 is executed, it is determined in step S1107 whether or not the output of the image signal for one frame is completed in the display circuit 94. If not completed, the present drawing process is terminated. If completed, a V interrupt signal is output to the display CPU 72 in step S1108, and then the present drawing process is terminated.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路94から図柄表示装置41に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分だけ後の更新タイミングに対応する描画データの作成と並行して行われる。なお、表示回路94は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域82a,82bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、制御部91において描画データの描画対象となっているフレーム領域82a,82bが画像信号を出力するための出力対象とならないように規制されている。   The drawing data for one frame is generated so as to be completed within a 20 msec cycle. An image signal is output from the display circuit 94 to the symbol display device 41 based on the created drawing data. Since the double buffer method is adopted as already described, the output of the image signal is output to the output. This is performed in parallel with the creation of the drawing data corresponding to the update timing after one frame with respect to such a frame. Note that the display circuit 94 includes a selector circuit that alternately switches the frame regions 82a and 82b to be referred to every time the output of the image signal for one frame is completed, and the control unit 91 is switched by the switching by the selector circuit. The frame regions 82a and 82b which are the drawing targets of the drawing data are restricted so as not to be the output targets for outputting the image signal.

<色替え演出を行うための構成>
次に、色替え演出を行うための構成について説明する。
<Configuration for performing a color change effect>
Next, a configuration for performing a color change effect will be described.

図24(a)〜図24(c)は色替え演出の内容を説明するための説明図である。色替え演出とは、図24(a−1)〜図24(a−3)に示すように、複数の画像更新タイミングからなる所定期間において色替え演出用キャラクタCH1が所定の動作を行う動画が表示される場合において、その色替え演出用キャラクタCH1の色替え対象領域CRの表示色が遊技の状況に応じて変更される演出のことである。例えば、遊技回用の演出として色替え演出が実行される場合、色替え対象領域CRの表示色によってリーチ表示発生の期待度や、大当たり結果となる期待度が遊技者に示唆される。また、パチンコ機10ではなくスロットマシンにおいて色替え演出を適用する場合には、内部抽選で当選となった役の種類に応じた表示色で色替え対象領域CRが表示される構成としてもよい。   FIG. 24A to FIG. 24C are explanatory diagrams for explaining the contents of the color change effect. As shown in FIGS. 24 (a-1) to 24 (a-3), the color change effect is a moving image in which the color change effect character CH1 performs a predetermined operation in a predetermined period including a plurality of image update timings. When displayed, it is an effect in which the display color of the color change target area CR of the color change effect character CH1 is changed according to the game situation. For example, when a color change effect is executed as an effect for a game turn, the player is informed of the expected level of reach display occurrence and the expected level of jackpot result depending on the display color of the color change target region CR. Further, when the color change effect is applied in the slot machine instead of the pachinko machine 10, the color change target region CR may be displayed in a display color corresponding to the type of the winning combination in the internal lottery.

色替え演出用キャラクタCH1は、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識されるように表示される。色替え対象領域CRは、色替え演出用キャラクタCH1において複数箇所に設定されている。具体的には、色替え対象領域CRは、色替え演出用キャラクタCH1の頭部分、両肩部分及び胴体部分に設定されている。複数箇所の色替え対象領域CRの表示色は同一色に設定される。例えば、色替え対象領域CRの表示色が青色に設定されている場合には色替え演出用キャラクタCH1の頭部分、両肩部分及び胴体部分は青色で表示され、色替え対象領域CRの表示色が赤色に設定されている場合には色替え演出用キャラクタCH1の頭部分、両肩部分及び胴体部分は赤色で表示される。また、色替え演出の最終段階においては図24(a−3)に示すように、色替え演出用キャラクタCH1に対して色替え演出用エフェクト画像EG1が表示される。エフェクト画像とは、爆風を表す画像、水飛沫を表す画像、光源から周囲に光が照射されている様子を表す発光画像、及びキャラクタの周囲が発光しているかのにように表すオーラ画像といったように、視的効果を高めるための画像である。色替え演出用エフェクト画像EG1として、色替え演出用キャラクタCH1から周囲に光線が照射されているような画像が表示される。   The color change effect character CH1 is displayed so that a player can recognize that a person having a face, a torso, both hands, and both feet is expressed. The color change target area CR is set at a plurality of locations in the color change effect character CH1. Specifically, the color change target region CR is set in the head portion, both shoulder portions, and the trunk portion of the color change effect character CH1. The display colors of the color change target areas CR at a plurality of locations are set to the same color. For example, when the display color of the color change target region CR is set to blue, the head portion, both shoulder portions, and the body portion of the color change effect character CH1 are displayed in blue, and the display color of the color change target region CR is displayed. Is set to red, the head portion, both shoulder portions, and the trunk portion of the color change effect character CH1 are displayed in red. In the final stage of the color change effect, as shown in FIG. 24A-3, the color change effect image EG1 is displayed for the color change effect character CH1. An effect image is an image that represents a blast, an image that represents water splash, a light-emitting image that represents light being emitted from a light source, and an aura image that represents as if the surroundings of a character are emitting light. In addition, this is an image for enhancing the visual effect. As the color change effect effect image EG1, an image is displayed in which light is emitted from the color change effect character CH1.

色替え演出を行う場合には、図24(b−1)〜図24(b−3)に示すベース静止画像データBD1,BD2,BD3と、図24(c−1)〜図24(c−3)に示すパーツ画像データPD1,PD2,PD3とが利用される。ベース静止画像データBD1〜BD3は、色替え演出用キャラクタCH1を表示するための画像データである。パーツ画像データPD1〜PD3は、ベース静止画像データBD1〜BD3による色替え演出用キャラクタCH1における色替え対象領域CRに上書きするための画像データであるとともに上記色替え演出用エフェクト画像EG1を付加するための画像データである。描画対象のフレーム領域82a,82bに、図24(b−1)〜図24(b−3)に示すベース静止画像データBD1〜BD3を描画した後に、図24(c−1)〜図24(c−3)に示すパーツ画像データPD1〜PD3を描画することで、図24(a−1)〜図24(a−3)に示すように、図柄表示装置41の表示面Pに色替え演出用キャラクタCH1が表示されるとともに色替え対象領域CRの表示色が状況に応じて変更される。   When performing the color change effect, the base still image data BD1, BD2, BD3 shown in FIGS. 24B-1 to 24B-3, and FIGS. 24C-1 to 24C- Part image data PD1, PD2, and PD3 shown in 3) are used. The base still image data BD1 to BD3 are image data for displaying the color change effect character CH1. The parts image data PD1 to PD3 are image data for overwriting the color change target region CR in the color change effect character CH1 based on the base still image data BD1 to BD3, and to add the color change effect effect image EG1. Image data. After the base still image data BD1 to BD3 shown in FIGS. 24 (b-1) to 24 (b-3) are drawn in the frame areas 82a and 82b to be drawn, FIGS. By drawing the part image data PD1 to PD3 shown in c-3), as shown in FIGS. 24 (a-1) to 24 (a-3), the color change effect is displayed on the display surface P of the symbol display device 41. The character CH1 is displayed and the display color of the color change target area CR is changed according to the situation.

以下、色替え演出を実行するための具体的な構成を説明する。まず色替え演出を実行するためのデータ構成について説明する。図25(a)は色替え演出を実行するためのメモリモジュール74のデータ構成を説明するための説明図である。図25(a)に示すように、メモリモジュール74には、ベース静止画像データBD1〜BD3の導出を可能とするためのベース動画データBMDと、第1〜第nパーツ画像データPD1〜PD3と、カラーパレットデータ群CPとが予め記憶されている。   Hereinafter, a specific configuration for executing the color change effect will be described. First, the data structure for executing the color change effect will be described. FIG. 25A is an explanatory diagram for explaining the data configuration of the memory module 74 for executing the color change effect. As shown in FIG. 25A, the memory module 74 includes base moving image data BMD for enabling derivation of base still image data BD1 to BD3, first to nth part image data PD1 to PD3, A color palette data group CP is stored in advance.

ベース動画データBMDは、1フレーム分の静止画像データを基準として複数の差分データを有するようにフレーム間圧縮されて例えばMPEG2方式で符号化された画像データである。ベース動画データBMDがデコードされた場合には、複数フレーム分の静止画像データに展開される。詳細には、ベース動画データBMDは、最初のアドレスにファイルデータが設定され、それに続けて各フレームの圧縮データが設定されている。なお、各フレームの圧縮データにはフレームヘッダが付随している。圧縮データは、基準データに相当する1フレーム分のIピクチャデータと、第1の差分データに相当する複数フレーム分のPピクチャデータと、第2の差分データに相当する複数フレーム分のBピクチャデータと、を有している。Iピクチャデータは、復号に際して、当該データ単独で1フレーム分の静止画像データを作成することができるデータである。Pピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータを参照して前方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。Bピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータと、1フレーム又は複数フレーム後のIピクチャデータ若しくはPピクチャデータとを参照して双方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。ベース動画データBMDの圧縮データでは、1フレーム目のデータとしてIピクチャデータが設定されている。また、2フレーム目,・・,m―1フレーム目のデータとしてBピクチャデータが設定されている。また、mフレーム目のデータとしてPピクチャデータが設定されている。また、m+1フレーム目,・・,n―1フレーム目のデータとしてBピクチャデータが設定されている。また、nフレーム目のデータとしてPピクチャデータが設定されている。なお、ピクチャデータの配列パターンは上記のものに限定されることはなく任意である。   The base moving image data BMD is image data that is compressed between frames so as to have a plurality of difference data with reference to still image data for one frame and is encoded by, for example, the MPEG2 system. When the base moving image data BMD is decoded, it is expanded into still image data for a plurality of frames. More specifically, in the base moving image data BMD, file data is set at the first address, and subsequently, compressed data of each frame is set. The compressed data of each frame is accompanied by a frame header. The compressed data includes one frame of I picture data corresponding to the reference data, a plurality of frames of P picture data corresponding to the first difference data, and a plurality of frames of B picture data corresponding to the second difference data. And have. The I picture data is data that can create still image data for one frame by the data alone at the time of decoding. P picture data is data that can generate still image data for one frame by performing forward prediction with reference to I picture data or P picture data of one frame or a plurality of frames before decoding. . B picture data is decoded by bi-directional prediction with reference to I picture data or P picture data before one frame or plural frames and I picture data or P picture data after one frame or plural frames. This is data that can create still image data for one frame. In the compressed data of the base moving image data BMD, I picture data is set as data of the first frame. In addition, B picture data is set as data of the second frame,..., M−1 frame. Also, P picture data is set as the data of the mth frame. Further, B picture data is set as data of the (m + 1) th frame,..., The (n−1) th frame. Also, P picture data is set as the nth frame data. Note that the arrangement pattern of the picture data is not limited to the above, and is arbitrary.

ベース動画データBMDを展開することで作成されたベース静止画像データBD1〜BD3の数は、色替え演出の実行期間に含まれる全てのフレーム分となっている。ベース静止画像データBD1〜BD3は、図24(b−1)〜図24(b−3)に示すように、色替え演出用キャラクタCH1のみを表示する画像データである。全てのベース静止画像データBD1〜BD3を利用することにより、色替え演出用キャラクタCH1が所定の動作経路に従って動作を行っているような動画を表示することが可能である。また、ベース静止画像データBD1〜BD3の各ピクセルにはRGBのそれぞれについて1バイト分の色情報が設定されているとともに、不透明のα値が設定されている。   The number of base still image data BD1 to BD3 created by developing the base moving image data BMD is for all frames included in the execution period of the color change effect. The base still image data BD1 to BD3 are image data for displaying only the color change effect character CH1 as shown in FIGS. 24 (b-1) to 24 (b-3). By using all the base still image data BD1 to BD3, it is possible to display a moving image in which the color change effect character CH1 is operating according to a predetermined motion path. Further, for each pixel of the base still image data BD1 to BD3, color information for one byte is set for each of RGB, and an opaque α value is set.

第1〜第nパーツ画像データPD1〜PD3は、ベース静止画像データBD1〜BD3と1対1で対応するようにベース静止画像データBD1〜BD3と同じ数設けられている。第1〜第nパーツ画像データPD1〜PD3は、図24(c−1)〜図24(c−3)に示すように、対応するベース静止画像データBD1〜BD3による色替え演出用キャラクタCH1における色替え対象領域CRと同じ位置、形状及びサイズの色替え対象領域CRを表示することが可能なように設定されている。この場合、各パーツ画像データPD1〜PD3は、複数の色替え対象領域CRが離れた位置にて表示されるようにデータの設定がなされているが、それら複数の色替え対象領域CRをまとめて一の画像データとして扱うことが可能なように、複数の色替え対象領域CRの間を埋める枠領域FRのデータが設定されている。枠領域FRの各ピクセルには色情報が設定されておらずさらに完全透明のα値が設定されている。その一方、色替え対象領域CRの各ピクセルには1バイト分の色情報が設定されているものの、α値は設定されていない。したがって、ベース静止画像データBD1〜BD3に対してパーツ画像データPD1〜PD3を上書きした場合、色替え対象領域CRについてはパーツ画像データPD1〜PD3による画像が表示されることとなるが、その他の領域についてはベース静止画像データBD1〜BD3による画像がそのまま表示される。   The first to n-th part image data PD1 to PD3 are provided in the same number as the base still image data BD1 to BD3 so as to correspond one-to-one with the base still image data BD1 to BD3. As shown in FIGS. 24 (c-1) to 24 (c-3), the first to nth part image data PD1 to PD3 are in the color change effect character CH1 based on the corresponding base still image data BD1 to BD3. The color change target region CR having the same position, shape, and size as the color change target region CR is set to be displayed. In this case, the part image data PD1 to PD3 are set so that the plurality of color change target areas CR are displayed at positions separated from each other, but the plurality of color change target areas CR are collected together. Data of a frame region FR that fills between a plurality of color change target regions CR is set so that it can be handled as one image data. Color information is not set for each pixel in the frame region FR, and a completely transparent α value is set. On the other hand, although 1-byte color information is set for each pixel in the color change target region CR, the α value is not set. Therefore, when the part image data PD1 to PD3 is overwritten on the base still image data BD1 to BD3, the image by the part image data PD1 to PD3 is displayed for the color change target region CR. For, images based on the base still image data BD1 to BD3 are displayed as they are.

パーツ画像データPD1〜PD3のうち色替え演出の終了側の途中タイミングのフレームから終了タイミングのフレームまでの複数フレーム分のパーツ画像データには、図24(c)に示すように、。色替え対象領域CRのみではなく、色替え演出用エフェクト画像EG1を表示するためのデータが設定されている。当該色替え演出用エフェクト画像EG1を表示するための各ピクセルには1バイト分の色情報が設定されているとともに半透明の値とされたα値が設定されている。かかるパーツ画像データをベース静止画像データに対して上書きした場合、色替え演出用キャラクタCH1において色替え対象領域CRが上書きされるだけでなく、図24(a−3)に示すように色替え演出用キャラクタCH1の周囲に半透明となった色替え演出用エフェクト画像EG1が表示されることとなる。そして、このように色替え演出用エフェクト画像EG1が表示された状態は、終了タイミングのフレームまでの複数フレームに亘って継続される。   As shown in FIG. 24C, the part image data for a plurality of frames from the frame at the end timing of the color change effect to the frame at the end timing among the part image data PD1 to PD3. Data for displaying not only the color change target region CR but also the color change effect effect image EG1 is set. For each pixel for displaying the color change effect image EG1, color information for 1 byte is set, and an α value that is a translucent value is set. When such part image data is overwritten on the base still image data, not only the color change target area CR is overwritten in the color change effect character CH1, but also the color change effect as shown in FIG. 24 (a-3). A color change effect image EG1 that is translucent is displayed around the character CH1. The state in which the color change effect image EG1 is displayed in this manner is continued over a plurality of frames up to the frame at the end timing.

カラーパレットデータ群CPには、各パーツ画像データPD1〜PD3における色替え対象領域CRの色情報に対して適用する表示色を指定するためのカラーパレットCP1,CP2が複数含まれている。カラーパレットCP1,CP2はパーツ画像データPD1〜PD3の各ピクセルに設定され得るデータの全てに1対1で対応させて色情報が定められたテーブルデータであり、使用対象となっているカラーパレットCP1,CP2を参照することで各ピクセルに設定されているデータに対応した色情報が導出される。   The color palette data group CP includes a plurality of color palettes CP1 and CP2 for designating display colors to be applied to the color information of the color change target region CR in each of the part image data PD1 to PD3. The color palettes CP1 and CP2 are table data in which color information is determined in a one-to-one correspondence with all the data that can be set for each pixel of the part image data PD1 to PD3. , CP2 is referred to, and color information corresponding to the data set for each pixel is derived.

図25(b−1)及び図25(b−2)に示すように、各カラーパレットCP1,CP2はそれぞれ異なる色が基調となるようにデータが設定されている。例えば、図25(b−1)のカラーパレットCP1の場合には赤色が基調となっており、図25(b−2)のカラーパレットCP2の場合には緑色が基調となっている。したがって、図25(b−1)のカラーパレットCP1が適用された場合には各パーツ画像データPD1〜PD3による色替え対象領域CRは赤色が基調となり、図25(b−1)のカラーパレットCP1が適用された場合には各パーツ画像データPD1〜PD3による色替え対象領域CRは緑色が基調となる。カラーパレットCP1,CP2は色情報と表示色との関係のみが定められたデータであるため、一のカラーパレットCP1,CP2のデータ容量は一のパーツ画像データPD1〜PD3のデータ容量よりも小さく、さらにはカラーパレットデータ群CPに含まれる全てのカラーパレットCP1,CP2のデータ容量の合計は一のパーツ画像データPD1〜PD3のデータ容量よりも小さい。さらにまた、色替え対象領域CRの表示色が3種類以上設定されている構成において、パーツ画像データPD1〜PD3の全てのデータ容量とカラーパレットCP1,CP2の全てのデータ容量との和は、ベース動画データBMDのデータ容量を2倍した分のデータ容量よりも小さい。これにより、色替え対象領域CRの表示色の種類分、ベース動画データBMDを用意する構成に比べて、画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。   As shown in FIGS. 25 (b-1) and 25 (b-2), the color palettes CP1 and CP2 are set with data such that different colors are based on each other. For example, in the case of the color palette CP1 in FIG. 25 (b-1), red is the base tone, and in the case of the color palette CP2 in FIG. 25 (b-2), green is the base tone. Therefore, when the color palette CP1 of FIG. 25B-1 is applied, the color change target region CR based on the part image data PD1 to PD3 is based on red, and the color palette CP1 of FIG. Is applied, the color change target region CR based on the part image data PD1 to PD3 is green. Since the color palettes CP1 and CP2 are data in which only the relationship between the color information and the display color is determined, the data capacity of one color palette CP1 and CP2 is smaller than the data capacity of one part image data PD1 to PD3. Furthermore, the total data capacity of all the color palettes CP1 and CP2 included in the color palette data group CP is smaller than the data capacity of one part image data PD1 to PD3. Furthermore, in a configuration in which three or more display colors of the color change target region CR are set, the sum of all the data capacities of the part image data PD1 to PD3 and all the data capacities of the color palettes CP1 and CP2 is the base. The data capacity is smaller than the data capacity obtained by doubling the data capacity of the video data BMD. This makes it possible to reduce the data capacity necessary for storing image data in advance, compared to a configuration in which base moving image data BMD is prepared for the types of display colors in the color change target region CR.

以下、上記色替え演出を実行するための具体的な処理構成を説明する。図26は、表示CPU72にて実行される色替え演出用の演算処理を示すフローチャートである。色替え演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。また、当該色替え演出用の演算処理は、現状設定されている実行対象テーブルにおいて色替え演出についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for executing the color change effect will be described. FIG. 26 is a flowchart showing a calculation process for color change effects executed by the display CPU 72. The color change effect calculation process is executed in the effect calculation process in step S909 in the task process (FIG. 19). Further, the calculation process for the color change effect is activated when information on the color change effect is set in the currently set execution target table.

色替え演出の開始タイミングとなっている場合(ステップS1201:YES)、メモリモジュール74におけるベース動画データBMDと第1〜第nパーツ画像データPD1〜PD3との各アドレスを把握する(ステップS1202及びステップS1203)。また、今回の実行対象テーブルにおいて設定されている表示色に対応したカラーパレットCP1,CP2のメモリモジュール74におけるアドレスを把握する(ステップS1204)。その後、ステップS1205にて色替え演出を開始すべきことをVDP76に認識させるための色替え演出開始指定情報を表示CPU72のレジスタに記憶する。   When it is the start timing of the color change effect (step S1201: YES), the addresses of the base moving image data BMD and the first to n-th part image data PD1 to PD3 in the memory module 74 are grasped (steps S1202 and step). S1203). In addition, the address in the memory module 74 of the color palettes CP1 and CP2 corresponding to the display color set in the execution target table is grasped (step S1204). Thereafter, in step S1205, color change effect start designation information for causing the VDP 76 to recognize that the color change effect should be started is stored in the register of the display CPU 72.

ステップS1201にて否定判定をした場合、又はステップS1205の処理を実行した場合、実行対象テーブルにおいて現状のポインタ情報に設定されている今回のフレーム番号に対応した各種アドレスを把握する(ステップS1206)。具体的には、ベース動画データBMDをデコードして複数フレーム分のベース静止画像データBD1〜BD3がVRAM75の展開用バッファ81に展開されている場合において、今回のフレーム番号に対応したベース静止画像データBD1〜BD3が格納されているエリアのアドレスと、VRAM75の展開用バッファ81において今回のフレーム番号に対応したパーツ画像データPD1〜PD3が格納されているエリアのアドレスと、VRAM75の展開用バッファ81において今回の表示色に対応したカラーパレットCP1,CP2が格納されているエリアのアドレスと、を把握する。   When a negative determination is made in step S1201, or when the process of step S1205 is executed, various addresses corresponding to the current frame number set in the current pointer information in the execution target table are grasped (step S1206). Specifically, when the base moving image data BMD is decoded and the base still image data BD1 to BD3 for a plurality of frames are expanded in the expansion buffer 81 of the VRAM 75, the base still image data corresponding to the current frame number The address of the area where BD1 to BD3 are stored, the address of the area where the part image data PD1 to PD3 corresponding to the current frame number are stored in the expansion buffer 81 of the VRAM 75, and the expansion buffer 81 of the VRAM 75 The address of the area where the color palettes CP1 and CP2 corresponding to the current display color are stored is grasped.

続くステップS1207では、今回の使用対象となるベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3の各種パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれらベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS1208にて、色替え演出を実行すべきことをVDP76に認識させるための色替え演出指定情報を表示CPU72のレジスタに記憶する。   In subsequent step S1207, various parameter information of the base still image data BD1 to BD3 and the part image data PD1 to PD3 to be used this time is calculated and derived, and the derived parameter information is obtained in the work RAM 73 by the base still image data. Information for control is updated by writing in areas secured in correspondence with BD1 to BD3 and part image data PD1 to PD3. Thereafter, in step S1208, color change effect designation information for causing the VDP 76 to recognize that the color change effect should be executed is stored in the register of the display CPU 72.

上記のように色替え演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレーム番号に対応したベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3が描画対象として設定されるとともに、今回の表示色に対応したカラーパレットCP1,CP2が使用対象として設定される。また、当該描画リストには、ベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3に適用するパラメータ情報が設定されるとともに、色替え演出指定情報が設定される。なお、色替え演出の開始タイミングである場合には色替え演出開始指定情報が設定される。   When the calculation process for the color change effect is executed as described above, the base still image data BD1 corresponding to the current frame number is included in the drawing list transmitted to the VDP 76 in the subsequent drawing list output process (step S609). ~ BD3 and part image data PD1 to PD3 are set as drawing objects, and color palettes CP1 and CP2 corresponding to the current display color are set as use objects. In the drawing list, parameter information to be applied to the base still image data BD1 to BD3 and the part image data PD1 to PD3 is set, and color change effect designation information is set. If it is the start timing of the color change effect, color change effect start designation information is set.

次に、VDP76にて実行される色替え演出用の設定処理及び色替え演出用の書き込み処理について説明する。色替え演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行され、色替え演出用の書き込み処理は、描画処理(図23)のステップS1105にて実行される書き込み処理の一部の処理として実行される。また、描画リストにおいて色替え演出指定情報が設定されている場合に、これら色替え演出用の設定処理及び色替え演出用の書き込み処理が実行される。ここで、描画リストでは、色替え演出指定情報が演出用の画像データに関連付けて設定されているため、色替え演出用の設定処理及び色替え演出用の書き込み処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。   Next, the setting process for color change effect and the write process for color change effect executed in the VDP 76 will be described. The setting process for the color change effect is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23), and the writing process for the color change effect is a drawing process (FIG. 23). This process is executed as a part of the writing process executed in step S1105. Further, when color change effect designation information is set in the drawing list, the color change effect setting process and the color change effect writing process are executed. Here, in the drawing list, since the color change effect designation information is set in association with the image data for effect, the setting process for color change effect and the write process for color change effect are included in the current drawing list. It is activated when the drawing order of the image data for production is reached.

図27は色替え演出用の設定処理を示すフローチャートである。   FIG. 27 is a flowchart showing setting processing for color change effects.

今回の描画リストに色替え演出開始指定情報が設定されている場合(ステップS1301:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74においてベース動画データBMDが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からベース動画データBMDをVRAM75の展開用バッファ81に読み出す(ステップS1302)。そして、動画デコーダ93を利用してベース動画データBMDのデコード処理を実行する(ステップS1303)。これにより、展開用バッファ81に設けられたベース動画用エリアにベース静止画像データBD1〜BD3の全てが展開されて記憶保持される。   When the color change effect start designation information is set in the current drawing list (step S1301: YES), the base moving image data BMD is stored in the memory module 74 from the address information set in the drawing list. The address of the area is grasped, and based on the grasped result, the base moving image data BMD is read from the memory module 74 to the development buffer 81 of the VRAM 75 (step S1302). Then, decoding processing of the base moving image data BMD is performed using the moving image decoder 93 (step S1303). As a result, all the base still image data BD1 to BD3 are developed and stored in the base moving image area provided in the development buffer 81.

その後、ステップS1304にて、描画リストに設定されているアドレスの情報から、メモリモジュール74において第1〜第nパーツ画像データPD1〜PD3が記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74から第1〜第nパーツ画像データPD1〜PD3の全てを、VRAM75の展開用バッファ81に設けられたパーツ画像用エリアに読み出す。また、ステップS1305にて、描画リストに設定されているアドレスの情報から、今回の表示色に対応したカラーパレットCP1,CP2が記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からそのカラーパレットCP1,CP2を、VRAM75の展開用バッファ81に設けられたパレット用エリアに読み出す。   Thereafter, in step S1304, from the address information set in the drawing list, the address of the area where the first to nth part image data PD1 to PD3 are stored in the memory module 74 is grasped, and the grasping result is obtained. Based on this, all of the first to nth part image data PD1 to PD3 are read from the memory module 74 to the part image area provided in the development buffer 81 of the VRAM 75. In step S1305, the address of the area in which the color palettes CP1 and CP2 corresponding to the current display color are stored is grasped from the address information set in the drawing list, and the memory module is based on the grasped result. The color palettes CP 1 and CP 2 are read out from 74 to the palette area provided in the expansion buffer 81 of the VRAM 75.

ステップS1301にて否定判定をした場合、又はステップS1305の処理を実行した場合、ステップS1306にて、今回の設定対象のベース静止画像データBD1〜BD3が格納されているアドレスの情報を描画リストから把握するとともに、ステップS1307にて、今回の設定対象のパーツ画像データPD1〜PD3が格納されているアドレスの情報を描画リストから把握する。また、ステップS1308にて、これらベース静止画像データBD1〜BD3及びパーツ画像データPD1〜PD3のパラメータ情報を描画リストに設定されている情報から把握する。   If a negative determination is made in step S1301 or if the process of step S1305 is executed, in step S1306, information on the address where the base still image data BD1 to BD3 to be set this time is stored is grasped from the drawing list. In step S1307, the information of the address where the part image data PD1 to PD3 to be set this time is stored is grasped from the drawing list. In step S1308, the parameter information of the base still image data BD1 to BD3 and the part image data PD1 to PD3 is grasped from the information set in the drawing list.

図28は色替え演出用の書き込み処理を示すフローチャートである。   FIG. 28 is a flowchart showing a writing process for color change effects.

まず描画対象のフレーム領域82a,82bに対して、今回の描画対象のベース静止画像データBD1〜BD3を描画する。この描画は、描画対象のフレーム領域82a,82bにおいて描画リストにて指定された座標を基準にして行う(ステップS1401)。   First, the base still image data BD1 to BD3 to be drawn this time are drawn in the frame areas 82a and 82b to be drawn. This drawing is performed based on the coordinates specified in the drawing list in the drawing target frame regions 82a and 82b (step S1401).

その後、ステップS1402〜ステップS1406にて、今回の描画対象のパーツ画像データPD1〜PD3を今回の表示色に対応したカラーパレットPD1,PD2に従って、描画対象のフレーム領域82a,82bにおいてベース静止画像データBD1〜BD3が描画された各ドットに上書きする。   Thereafter, in step S1402 to step S1406, the base image data BD1 for the current drawing target part image data PD1 to PD3 in the drawing target frame regions 82a and 82b according to the color palettes PD1 and PD2 corresponding to the current display color. ... BD3 is overwritten on each drawn dot.

具体的には、まずステップS1402にて、今回の描画対象のパーツ画像データPD1〜PD3におけるピクセルの総数に対応した値をレジスタ92に設けられた書き込み処理カウンタにセットする。その後、ステップS1403にて、今回の描画対象のパーツ画像データPD1〜PD3において現状の書き込み処理カウンタの値に対応したピクセルに設定されているデータに対応する色情報を、今回の表示色に対応したカラーパレットPD1,PD2から読み出す。ステップS1404では、ステップS1403にて読み出した色情報を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに上書きする。   Specifically, first, in step S1402, a value corresponding to the total number of pixels in the current part image data PD1 to PD3 to be drawn is set in a write processing counter provided in the register 92. Thereafter, in step S1403, the color information corresponding to the data set in the pixel corresponding to the current value of the write processing counter in the part image data PD1 to PD3 to be drawn this time corresponds to the current display color. Read from the color palettes PD1 and PD2. In step S1404, the color information read in step S1403 is overwritten on the dot corresponding to the current value of the write processing counter in the frame regions 82a and 82b to be drawn.

ちなみに、今回のピクセルが色替え対象領域CR又は色替え演出用エフェクト画像EG1以外である枠領域FRに対応している場合には、いずれのカラーパレットPD1,PD2であったとしても無色の色情報が選択されるとともにその色情報が完全透明となるようにして上書きされる。この場合、描画対象のフレーム領域82a,82bに書き込まれているベース静止画像データBD1〜BD3の色情報は変更されることなく維持される。また、今回のピクセルが色替え対象領域CRに対応している場合には、今回の表示色を基調とした色情報が不透明として上書きされる。また、今回のピクセルが色替え演出用エフェクト画像EG1に対応している場合には、当該エフェクト画像EG1に対応した色情報が半透明として上書きされる。   Incidentally, when the current pixel corresponds to the frame region FR other than the color change target region CR or the color change effect image EG1, no matter what color palette PD1, PD2, the color information is colorless. Is selected and overwritten so that the color information is completely transparent. In this case, the color information of the base still image data BD1 to BD3 written in the drawing target frame regions 82a and 82b is maintained without being changed. If the current pixel corresponds to the color change target region CR, the color information based on the current display color is overwritten as opaque. If the current pixel corresponds to the color change effect image EG1, the color information corresponding to the effect image EG1 is overwritten as translucent.

その後、ステップS1405にてレジスタ92の書き込み処理カウンタの値を1減算し、ステップS1406にてその減算後における書き込み処理カウンタの値が「0」となっているか否かを判定する。「0」となっていない場合には減算後の書き込み処理カウンタの値に対応したピクセルの書き込み処理を実行し、「0」となっている場合にはそのまま本色替え演出用の書き込み処理を終了する。   Thereafter, the value of the write processing counter in the register 92 is decremented by 1 in step S1405, and it is determined in step S1406 whether or not the value of the write processing counter after the subtraction is “0”. When it is not “0”, the pixel writing process corresponding to the value of the writing process counter after the subtraction is executed, and when it is “0”, the writing process for the color change effect is finished as it is. .

色替え演出用キャラクタCH1を表示するための画像データとして、ベース動画データBMDとは別にパーツ画像データPD1〜PD3が設けられており、ベース動画データBMDをデコードすることにより得られたベース静止画像データBD1〜BD3に対してパーツ画像データPD1〜PD3を上書きするとともに当該パーツ画像データPD1〜PD3に適用するカラーパレットPD1,PD2の種類を変更することにより、同一のベース動画データBMDを利用しながら色替え演出用キャラクタCH1の色替え対象領域CRの表示色を変更することが可能となる。これにより、色替え対象領域CRの表示色の種類分、ベース動画データBMDを用意する構成に比べて、画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。   In addition to the base moving image data BMD, part image data PD1 to PD3 are provided as image data for displaying the color change effect character CH1, and base still image data obtained by decoding the base moving image data BMD. By overwriting the part image data PD1 to PD3 on the BD1 to BD3 and changing the type of the color palettes PD1 and PD2 applied to the part image data PD1 to PD3, the color can be obtained while using the same base moving image data BMD. It becomes possible to change the display color of the color change target region CR of the change effect character CH1. This makes it possible to reduce the data capacity necessary for storing image data in advance, compared to a configuration in which base moving image data BMD is prepared for the types of display colors in the color change target region CR.

パーツ画像データPD1〜PD3は、ベース動画データBMDをデコードすることにより得られるベース静止画像データBD1〜BD3と1対1で対応させて設けられている。これにより、ベース動画データBMDによる画像の表示期間の全体に亘って、色替え演出用キャラクタCH1の色替え対象領域CRの表示色を所定の色に設定することが可能となる。   The part image data PD1 to PD3 are provided in one-to-one correspondence with the base still image data BD1 to BD3 obtained by decoding the base moving image data BMD. Thereby, the display color of the color change target region CR of the color change effect character CH1 can be set to a predetermined color over the entire image display period based on the base moving image data BMD.

パーツ画像データPD1〜PD3に適用するカラーパレットPD1,PD2を変更することにより色替え対象領域CRの表示色を変更する構成である。これにより、変更可能な表示色の数分、パーツ画像データPD1〜PD3の組合せを予め用意する構成に比べて、画像データを記憶するために必要なデータ容量を抑えることが可能となる。   The display color of the color change target region CR is changed by changing the color palettes PD1 and PD2 applied to the part image data PD1 to PD3. As a result, it is possible to reduce the data capacity required to store the image data, compared to a configuration in which combinations of part image data PD1 to PD3 are prepared in advance for the number of display colors that can be changed.

ベース動画データBMDをデコードすることにより得られるベース静止画像データBD1〜BD3には色情報が設定されているものの完全透明又は半透明となるα値は設定されていない。完全透明又は半透明となるα値が設定された静止画像データを動画データとして圧縮するとα値が差分データに悪影響を及ぼし画質が劣化してしまうおそれがあるが、ベース静止画像データBD1〜BD3として完全透明又は半透明となるα値が設定されていないことにより、このような画質の劣化を生じさせないようにしながら画像データを圧縮することが可能となる。同様に、完全透明又は半透明のα値が色情報とともに設定されたパーツ画像データPD1〜PD3は動画データとして圧縮されるのではなく静止画像データとして用意されている。これにより、パーツ画像データPD1〜PD3についても画質の劣化を生じさせないようにすることが可能となる。   In the base still image data BD1 to BD3 obtained by decoding the base moving image data BMD, although the color information is set, the α value that is completely transparent or translucent is not set. When still image data in which an α value that is completely transparent or translucent is set is compressed as moving image data, the α value may adversely affect the difference data and the image quality may deteriorate, but the base still image data BD1 to BD3 Since the α value that is completely transparent or translucent is not set, it is possible to compress the image data without causing such image quality deterioration. Similarly, the part image data PD1 to PD3 in which the completely transparent or translucent α value is set together with the color information are not compressed as moving image data but are prepared as still image data. As a result, it is possible to prevent the image quality deterioration of the part image data PD1 to PD3.

色替え演出の終了側の途中タイミングのフレームから終了タイミングのフレームまでの複数フレーム分のパーツ画像データPD3には、色替え演出用エフェクト画像EG1を表示するためのデータが設定されている。色替え演出用エフェクト画像EG1のデータは色情報だけでなく半透明のα値が設定されたデータであるため、このようなデータをベース動画データBMDとして圧縮すると、α値が差分データに悪影響を及ぼし画質が劣化してしまうおそれがある。これに対して、静止画像データであるパーツ画像データPD3に対して色替え演出用エフェクト画像EG1のデータが設定されていることにより、色替え演出用エフェクト画像EG1を表示する場合における画質を良好なものとすることが可能となる。   Data for displaying the effect image EG1 for color change effect is set in the part image data PD3 for a plurality of frames from a frame at an intermediate timing on the end side of the color change effect to a frame at the end timing. Since the data of the color change effect image EG1 is data in which not only color information but also a semi-transparent α value is set, if such data is compressed as the base moving image data BMD, the α value adversely affects the difference data. There is a risk that the image quality will deteriorate. On the other hand, since the color change effect image EG1 is set for the part image data PD3 that is still image data, the image quality when the color change effect image EG1 is displayed is good. It becomes possible.

<色替え演出に係る構成の別形態>
・動画データをデコードすることにより作成された複数の静止画像データに対して他の画像データを重ねて設定することで追加される画像の内容は、動画データにより表示されるキャラクタの一部の領域の画像である構成に限定されることはなく、動画データにより表示されるキャラクタとは別のキャラクタが追加される構成としてもよい。この場合、動画データにおいてキャラクタが所定の動作を行うような動画表示が行われるとともに、動画データによる静止画像データに追加される画像データによって上記別のキャラクタが所定の動作を行うように動画表示が行われる構成としてもよい。
<Another configuration of the color change effect>
-The content of the image added by overlapping other image data with multiple still image data created by decoding the video data is a partial area of the character displayed by the video data However, the present invention is not limited to this configuration, and a configuration may be adopted in which a character different from the character displayed by the moving image data is added. In this case, the moving image display is performed such that the character performs a predetermined motion in the moving image data, and the moving image display is performed so that the other character performs the predetermined motion by the image data added to the still image data based on the moving image data. It is good also as a structure performed.

・動画データをデコードすることにより作成された複数の静止画像データに対して他の画像データを重ねて設定することで動画データにより表示される画像に対して当該他の画像データに対応する画像が追加される構成において、当該他の画像データが複数設けられていることで追加される画像の内容が変更される構成に代えて、動画データにより作成される複数の静止画像データに対して同一の画像データを重ねて設定することで動画データにより作成される動画表示に対して同一の静止画像が追加される構成としてもよい。   An image corresponding to the other image data is displayed for the image displayed by the moving image data by setting the other image data to be superimposed on the plurality of still image data created by decoding the moving image data. In the configuration to be added, instead of the configuration in which the content of the added image is changed by providing a plurality of other image data, the same is applied to a plurality of still image data created by moving image data. A configuration may be adopted in which the same still image is added to the moving image display created from the moving image data by setting the image data in an overlapping manner.

・パーツ画像データPD1〜PD3が静止画像データとしてそのまま記憶されている構成に限定されることはなく、パーツ画像データPD1〜PD3が動画データとして圧縮させて設けられている構成としてもよい。この場合、色替え演出を行う場合には、ベース動画データBMDと、パーツ画像データPD1〜PD3に対応する動画データとの両方をデコードし、ベース動画データBMDをデコードすることにより作成した静止画像データに対して後者の動画データをデコードすることにより作成した静止画像データを重ねて設定する必要がある。   The parts image data PD1 to PD3 are not limited to be stored as still image data as they are, and the part image data PD1 to PD3 may be compressed and provided as moving image data. In this case, when performing a color change effect, still image data created by decoding both the base video data BMD and the video data corresponding to the part image data PD1 to PD3 and decoding the base video data BMD. On the other hand, it is necessary to set the still image data created by decoding the latter moving image data in an overlapping manner.

・ベース動画データBMDをデコードすることにより作成される静止画像データと1対1で対応させてパーツ画像データPD1〜PD3が設けられている構成に限定されることはなく、ベース動画データBMDをデコードすることにより作成される静止画像データの方がパーツ画像データPD1〜PD3よりも多い構成としてもよい。この場合、所定の複数の更新タイミングにおいては同一のパーツ画像データPD1〜PD3がベース動画データBMDから作成された各静止画像データに適用されることとなる。例えば色替え対象領域CRの表示位置、形状及びサイズが複数の更新タイミングに対して1回のみ変更される構成においては、その変更タイミングの数分、パーツ画像データPD1〜PD3を設ける構成としてもよい。これにより、パーツ画像データPD1〜PD3の数を抑えることが可能となる。また、ベース動画データBMDをデコードすることにより作成される静止画像データよりもパーツ画像データPD1〜PD3の方が多い構成としてもよい。この場合、ベース動画データBMDから作成された同一の静止画像データに対して異なるパーツ画像データPD1〜PD3を設定することが可能となり、色替え演出用キャラクタCH1を静止させた状態で色替え対象領域CRを移動させたり変形させたりすることが可能となる。   The base video data BMD is not limited to the configuration in which the part image data PD1 to PD3 are provided in a one-to-one correspondence with the still image data created by decoding the base video data BMD. The still image data created by doing so may be configured to be larger than the part image data PD1 to PD3. In this case, the same part image data PD1 to PD3 is applied to each still image data created from the base moving image data BMD at a plurality of predetermined update timings. For example, in a configuration in which the display position, shape, and size of the color change target region CR are changed only once for a plurality of update timings, the part image data PD1 to PD3 may be provided for the number of the change timings. . Thereby, the number of parts image data PD1-PD3 can be suppressed. Moreover, it is good also as a structure with more part image data PD1-PD3 than the still image data produced by decoding base moving image data BMD. In this case, different part image data PD1 to PD3 can be set for the same still image data created from the base moving image data BMD, and the color change target area in a state where the color change effect character CH1 is stationary. The CR can be moved or deformed.

・ベース動画データBMDによる動画表示が行われる期間の各更新タイミングにおいて当該ベース動画データBMDから作成される静止画像データに対して適用されるパーツ画像データPD1〜PD3は1個のみである構成に限定されることはなく、一の更新タイミングにおいて2個以上のパーツ画像データが適用される構成としてもよい。   -It is limited to a configuration in which only one part image data PD1 to PD3 is applied to still image data created from the base moving image data BMD at each update timing in a period in which moving image display by the base moving image data BMD is performed. The configuration may be such that two or more parts image data are applied at one update timing.

<エフェクト演出を行うための構成>
次に、エフェクト演出を行うための構成について、図29を参照しながら説明する。図29(a)〜図29(e)はエフェクト演出を説明するための説明図である。
<Configuration for effect production>
Next, a configuration for effect production will be described with reference to FIG. FIG. 29A to FIG. 29E are explanatory diagrams for explaining the effect effect.

エフェクト演出とは、図29(a)に示すように、エフェクト演出用キャラクタCH2の動画表示が行われている状況でエフェクト演出用キャラクタCH2に表示面Pの手前から重なるようにしてエフェクト画像EG2が表示される演出である。エフェクト画像EG2として具体的には、煙を表す画像が表示される。   As shown in FIG. 29 (a), the effect effect is that the effect image EG2 is superimposed on the effect effect character CH2 from the front of the display surface P in a situation where the effect effect character CH2 is being displayed as a moving image. It is an effect that is displayed. Specifically, an image representing smoke is displayed as the effect image EG2.

エフェクト演出用キャラクタCH2を表示させるための画像データとして、メモリモジュール74にはキャラクタ用静止画像データSDが予め記憶されている。キャラクタ用静止画像データSDは、エフェクト演出の実行期間においてエフェクト演出用キャラクタCH2が所定の動作を行うことが可能なように複数設けられている。キャラクタ用静止画像データSDは、図29(b)に示すように、個別画像としてエフェクト演出用キャラクタCH2を表示するためのデータと、キャラクタ用静止画像データSDによる画像を矩形状の画像として扱うことを可能とするためにエフェクト演出用キャラクタCH2の周囲を囲むように設定された枠領域FR1のデータとを備えている。   Character image data SD is stored in advance in the memory module 74 as image data for displaying the effect effect character CH2. A plurality of character still image data SD is provided so that the effect effect character CH2 can perform a predetermined operation during the effect effect execution period. As shown in FIG. 29B, the character still image data SD treats data for displaying the effect effect character CH2 as an individual image and an image based on the character still image data SD as a rectangular image. In order to enable the above, data of a frame region FR1 set so as to surround the effect presentation character CH2 is provided.

エフェクト画像EG2を表示させるための画像データとして、メモリモジュール74にはエフェクト用画像データED1が予め記憶されている。エフェクト用画像データED1はエフェクト演出の実行期間においてエフェクト画像EG2が所定の態様で変化することが可能なように複数設けられている。エフェクト用画像データED1は、図29(c)に示すように、個別画像としてエフェクト画像EG2を表示するためのデータと、エフェクト用画像データED1による画像を矩形状の画像として扱うことを可能とするためにエフェクト画像EG2の周囲を囲むように設定された枠領域FR2のデータとを備えている。   Effect image data ED1 is stored in advance in the memory module 74 as image data for displaying the effect image EG2. A plurality of effect image data ED1 are provided so that the effect image EG2 can change in a predetermined manner during the execution period of the effect production. As shown in FIG. 29C, the effect image data ED1 makes it possible to handle data for displaying the effect image EG2 as an individual image and an image based on the effect image data ED1 as a rectangular image. Therefore, the data of the frame region FR2 set so as to surround the periphery of the effect image EG2.

キャラクタ用静止画像データSDと、エフェクト用画像データED1とは、初期設定時において同一サイズ及び同一形状となるように形成されている。また、エフェクト演出用キャラクタCH2及びエフェクト画像EG2を構成するピクセルには不透明又は半透明のα値が設定されているため表示面Pへの表示対象となるが、各枠領域FR1,FR2を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。   The character still image data SD and the effect image data ED1 are formed to have the same size and the same shape at the time of initial setting. Further, the pixels constituting the effect effect character CH2 and the effect image EG2 are set as objects to be displayed on the display surface P because they are set to an opaque or translucent α value, but constitute the frame regions FR1 and FR2. Since a completely transparent α value is set for the pixel, the pixel is not displayed on the display surface P.

キャラクタ用静止画像データSD及びエフェクト用画像データED1が描画されるフレーム領域82a,82bには、既に説明したとおり、多数の単位エリアが含まれており、各単位エリアには色情報を格納するためのエリアが設定されている。具体的には、図29(d)に示すように、各単位エリア121には、RGBの各色に1対1で対応させて1バイトからなる色情報格納用エリア121a〜121cが設定されており、RGBのそれぞれに256色の設定が可能となっている。   As already described, the frame regions 82a and 82b in which the character still image data SD and the effect image data ED1 are drawn include a large number of unit areas, and each unit area stores color information. The area is set. Specifically, as shown in FIG. 29 (d), in each unit area 121, color information storage areas 121a to 121c each consisting of 1 byte are set in a one-to-one correspondence with each color of RGB. 256 colors can be set for each of RGB.

各色情報格納用エリア121a〜121cに格納される数値情報の値が小さいほどRGBにおいて暗い度合いの色が最終的に表示され、最小値の場合には黒色が表示される。また、数値情報の値が大きいほどRGBにおいて明るい度合いの色が最終的に表示され、最大値の場合には白色が表示される。なお、フルカラー方式ではなく、256色のみ表示可能な構成においては、色情報格納用エリア121a〜121cは1バイトのみでよい。   The smaller the value of the numerical information stored in each of the color information storage areas 121a to 121c, the darker the color in RGB is finally displayed, and in the case of the minimum value, black is displayed. Further, the larger the value of the numerical information, the brighter the color is finally displayed in RGB, and in the case of the maximum value, white is displayed. In a configuration that can display only 256 colors instead of the full color system, the color information storage areas 121a to 121c need only be 1 byte.

一方、キャラクタ用静止画像データSD及びエフェクト用画像データED1の各ピクセル122にも、図29(e)に示すように、カラーパレットなどを利用して数値情報からなる色情報が設定される。各ピクセル122には、RGBの各色に1対1で対応させて1バイトからなる色情報規定用エリア122a〜122cが設定されており、RGBのそれぞれに256色の表示が可能となっている。   On the other hand, as shown in FIG. 29 (e), color information including numerical information is set for each pixel 122 of the character still image data SD and the effect image data ED1, as shown in FIG. Each pixel 122 is provided with 1-byte color information defining areas 122a to 122c corresponding to each RGB color on a one-to-one basis, and 256 colors can be displayed for each RGB.

なお、これに限定されることはなく、各単位エリア121の色情報格納用エリア121a〜121cが3バイトではなく1バイトで設定されており、256色のみ表示可能な構成においては各ピクセル122の色情報規定用エリア122a〜122cも1バイトで設定されている構成としてもよい。   However, the present invention is not limited to this, and the color information storage areas 121a to 121c of each unit area 121 are set with 1 byte instead of 3 bytes, and in a configuration capable of displaying only 256 colors, each pixel 122 has The color information prescribing areas 122a to 122c may also be set to 1 byte.

各ピクセル122には、色情報規定用エリア122a〜122cの他にα値規定用エリア122dが設定されており、α値の情報が設定されている。α値規定用エリア122dとして1バイトの記憶容量が確保されているが、実際には十進数で「0〜100」のいずれかの数値情報が設定されている。また、α値の情報は「0〜100」の数値情報であるが、これが「0〜1」のα値に対応しており、α値を利用した演算に際しては1未満の値として扱われる。   In each pixel 122, an α value defining area 122d is set in addition to the color information defining areas 122a to 122c, and α value information is set. A storage capacity of 1 byte is secured as the α value defining area 122d, but in actuality, any numerical information of “0 to 100” is set in decimal. The information on the α value is numerical information of “0 to 100”, which corresponds to the α value of “0 to 1”, and is treated as a value less than 1 in the calculation using the α value.

各ピクセル122の色情報を描画対象の単位エリア121に描画する場合には、各ピクセル122におけるRGBの各数値情報に対してα値を積算した各数値情報が、単位エリア121における色情報格納用エリア121a〜121cのRGBのそれぞれ対応するエリアに対して格納される。この場合に、不透明のα値(具体的には「1」)が設定されている場合には、対応する単位エリア121に対してピクセル122の色情報がそのまま上書きされ、完全透明のα値(具体的には「0」)が設定されている場合には、対応する単位エリア121に対してピクセル122の色情報は書き込まれない。   When the color information of each pixel 122 is drawn in the unit area 121 to be drawn, the numerical information obtained by accumulating the α value for the RGB numerical information in each pixel 122 is used for storing color information in the unit area 121. It is stored for each of the areas 121a to 121c corresponding to RGB. In this case, when an opaque α value (specifically “1”) is set, the color information of the pixel 122 is overwritten as it is in the corresponding unit area 121, and a completely transparent α value ( Specifically, when “0”) is set, the color information of the pixel 122 is not written in the corresponding unit area 121.

0<α値<1である場合には、表示面Pの奥側において重ね合わせられる画像との間で、α値を利用した所定の演算が実行され、その演算結果が単位エリア121に対して書き込まれる。キャラクタ用静止画像データSDにおいて0<α値<1となっているピクセルを単位エリア121に書き込む場合、表示面Pの奥側において重ね合わせられる画像との間でブレンド処理が実行される。ブレンド処理について詳細には、単位エリア121に既に書き込まれている色情報を「r1,g1,b1」とし、当該単位エリア121に次に書き込まれる色情報を「r2,g2,b2」とし、当該色情報に付随して設定されたα値をα1とした場合、
R:r1×(1−α1)+r2×α1
G:g1×(1−α1)+g2×α1
B:b1×(1−α1)+b2×α1
となる。
When 0 <α value <1, a predetermined calculation using the α value is executed with the image superimposed on the back side of the display surface P, and the calculation result is applied to the unit area 121. Written. In the case where a pixel satisfying 0 <α value <1 in the character still image data SD is written in the unit area 121, a blending process is executed with an image superimposed on the back side of the display surface P. In detail, the color information already written in the unit area 121 is “r1, g1, b1”, the color information to be written next in the unit area 121 is “r2, g2, b2”, When α value set in association with color information is α1,
R: r1 × (1−α1) + r2 × α1
G: g1 × (1−α1) + g2 × α1
B: b1 × (1−α1) + b2 × α1
It becomes.

一方、エフェクト用画像データED1の場合、エフェクト画像EG2を表示するための全ピクセルに対して半透明のα値として0<α値<1が設定されている。そして、当該ピクセルをフレーム領域82a,82bに描画する場合には、描画対象のフレーム領域82a,82bにおける各単位エリア121に対して、エフェクト画像EG2を表示するためのピクセルの加算処理が実行される。加算処理について詳細には、単位エリア121に既に書き込まれている色情報を「r3,g3,b3」とし、当該単位エリア121に書き込まれるエフェクト画像EG2の色情報を「r4,g4,b4」とし、当該色情報に付随して設定されたα値をα2とした場合、
R:r3+r4×α2
G:g3+g4×α2
B:b3+b4×α2
となる。
On the other hand, in the case of the effect image data ED1, 0 <α value <1 is set as a semi-transparent α value for all the pixels for displaying the effect image EG2. When the pixels are drawn in the frame regions 82a and 82b, pixel addition processing for displaying the effect image EG2 is executed for each unit area 121 in the frame regions 82a and 82b to be drawn. . In detail, the color information already written in the unit area 121 is “r3, g3, b3”, and the color information of the effect image EG2 written in the unit area 121 is “r4, g4, b4”. When the α value set in association with the color information is α2,
R: r3 + r4 × α2
G: g3 + g4 × α2
B: b3 + b4 × α2
It becomes.

上記加算処理が実行されることにより、エフェクト用画像データED1に対応したエフェクト画像EG2は、当該エフェクト画像EG2が重ね合わせられるエフェクト演出用キャラクタCH2の色情報や明るさの度合いが反映された状態で表示される。エフェクト画像EG2は、既に説明したとおり、煙といったように奥側のものを透過させる画像であるため、エフェクト演出用キャラクタCH2と無関係に表示されると違和感が生じる。これに対して、上記のように加算処理が実行されることで、エフェクト演出用キャラクタCH2が反映された状態でエフェクト画像EG2が表示されることとなり、上記違和感を生じさせることなく、見た目上、好ましいものとなる。   By performing the addition process, the effect image EG2 corresponding to the effect image data ED1 reflects the color information and the degree of brightness of the effect effect character CH2 on which the effect image EG2 is superimposed. Is displayed. As described above, the effect image EG2 is an image that allows the back side to pass through, such as smoke, and thus, when displayed independently of the effect effect character CH2, a sense of incongruity occurs. On the other hand, by performing the addition process as described above, the effect image EG2 is displayed in a state in which the effect effect character CH2 is reflected, and without causing the above-mentioned uncomfortable feeling, This is preferable.

このようにエフェクト画像EG2を適用する場合には加算処理が実行されることとなるが、明るい画像に対して同じく明るいエフェクト画像EG2が重ね合わせられると、フレーム領域82a,82bの単位エリア121において色情報格納用エリア121a〜121cが最大値となり、設計者の意図から外れて白色表示となってしまうことがある(所謂、白とびの発生)。これに対して、本パチンコ機10では、当該白とびの発生を抑制しながらエフェクト演出が実行される。   In this way, when the effect image EG2 is applied, an addition process is executed. However, when the bright effect image EG2 is similarly superimposed on a bright image, the color in the unit area 121 of the frame regions 82a and 82b. The information storage areas 121a to 121c have the maximum values, which may deviate from the designer's intention and display white (so-called whiteout). On the other hand, in this pachinko machine 10, the effect effect is executed while suppressing the occurrence of the overexposure.

以下に、白とびの発生を抑制しながらエフェクト演出を実行するための具体的な処理構成を説明する。図30は、表示CPU72にて実行されるエフェクト演出用の演算処理を示すフローチャートである。エフェクト演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。また、当該エフェクト演出用の演算処理は、現状設定されている実行対象テーブルにおいてエフェクト演出についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for executing effect production while suppressing occurrence of overexposure will be described. FIG. 30 is a flowchart showing calculation processing for effect production executed by the display CPU 72. The effect effect calculation process is executed in the effect calculation process in step S909 in the task process (FIG. 19). The calculation process for effect production is activated when information on the effect production is set in the currently set execution target table.

まずステップS1501では、現状設定されている実行対象テーブルに基づき、表示対象となるキャラクタデータを把握する。当該キャラクタデータには、キャラクタ用静止画像データSDが含まれているとともに、今回のフレームの更新タイミングに対応した種類のキャラクタ用静止画像データSDが表示対象として把握される。ちなみに、エフェクト演出が実行される場合、エフェクト画像EG2が表示されていない状況でエフェクト演出用キャラクタCH2が複数フレームに亘って所定の動作をしているかのように動画表示され、その後に動画表示されているエフェクト演出用キャラクタCH2に対してエフェクト画像EG2が重ね合わせられた表示が複数フレームに亘って行われる。続くステップS1502では、ステップS1501にて把握したキャラクタ用静止画像データSDのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該キャラクタ用静止画像データSDに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。   First, in step S1501, the character data to be displayed is grasped based on the currently set execution target table. The character data includes character still image data SD, and the type of character still image data SD corresponding to the current frame update timing is recognized as a display target. By the way, when effect production is executed, a video is displayed as if the effect production character CH2 is performing a predetermined operation over a plurality of frames in a situation where the effect image EG2 is not displayed, and then a video is displayed. A display in which the effect image EG2 is superimposed on the effect effect character CH2 is performed over a plurality of frames. In subsequent step S1502, the parameter information of the character still image data SD grasped in step S1501 is calculated and derived, and the derived parameter information is secured in the work RAM 73 in correspondence with the character still image data SD. Control information is updated by writing to the area.

続くステップS1503では、現状設定されている実行対象テーブルに基づき、エフェクト用画像データED1を適用すべきか否かを判定する。エフェクト用画像データED1を適用する必要がある場合には、ステップS1504にて、今回のフレームの更新タイミングに対応した種類のエフェクト用画像データED1を表示対象として把握する。続くステップS1505では、ステップS1504にて把握したエフェクト用画像データED1のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該エフェクト用画像データED1に対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS1506にて、エフェクト用画像データED1を利用すべきことをVDP76に認識させるためのエフェクト発生指定情報を表示CPU72のレジスタに記憶する。   In the subsequent step S1503, it is determined whether or not the effect image data ED1 should be applied based on the currently set execution target table. If it is necessary to apply the effect image data ED1, in step S1504, the effect image data ED1 of the type corresponding to the current frame update timing is grasped as a display target. In the subsequent step S1505, the parameter information of the effect image data ED1 grasped in step S1504 is calculated and derived, and the derived parameter information is stored in an area secured in the work RAM 73 corresponding to the effect image data ED1. The information for control is updated by writing. Thereafter, in step S1506, effect generation designation information for causing the VDP 76 to recognize that the effect image data ED1 should be used is stored in the register of the display CPU 72.

続くステップS1507では、エフェクト用画像データED1を適用する場合に白とびの発生を抑制するための処理である部分加算処理の実行タイミングであるか否かを、現状設定されている実行対象テーブルに基づき判定する。部分加算処理の実行タイミングである場合には、ステップS1508にて、部分加算処理を実行すべきことをVDP76に認識させるための部分加算指定情報を表示CPU72のレジスタに記憶する。   In the subsequent step S1507, whether or not it is the execution timing of the partial addition process, which is a process for suppressing the occurrence of overexposure when the effect image data ED1 is applied, is determined based on the currently set execution target table. judge. If it is the execution timing of the partial addition process, in step S1508, partial addition designation information for causing the VDP 76 to recognize that the partial addition process should be executed is stored in the register of the display CPU 72.

ステップS1503にて否定判定をした場合、ステップS1507にて否定判定をした場合、又はステップS1508の処理を実行した場合、ステップS1509に進む。ステップS1509では、エフェクト演出を実行すべきことをVDP76に認識させるためのエフェクト演出指定情報を表示CPU72のレジスタに記憶する。   If a negative determination is made in step S1503, a negative determination is made in step S1507, or if the process of step S1508 is executed, the process proceeds to step S1509. In step S1509, effect effect designation information for causing the VDP 76 to recognize that the effect effect is to be executed is stored in the register of the display CPU 72.

上記のようにエフェクト演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレームの更新タイミングに対応したキャラクタ用静止画像データSDが描画対象として設定されるとともに、エフェクト画像EG2を表示させる期間である場合にはエフェクト用画像データED1が描画対象として設定される。また、当該描画リストには、キャラクタ用静止画像データSD及びエフェクト用画像データED1に適用するパラメータ情報が設定される。また、当該描画リストにはエフェクト演出指定情報が設定されるとともに、エフェクト用画像EG2の表示期間であればエフェクト発生指定情報が設定され、さらに部分加算処理の実行タイミングであれば部分加算指定情報が設定される。なお、エフェクト演出の開始タイミングにおいては、メモリモジュール74においてキャラクタ用静止画像データSDが記憶されているアドレスの情報と、エフェクト用画像データED1が記憶されているアドレスの情報とが、描画リストに指定される。   When the calculation process for effect rendering is executed as described above, the character still image corresponding to the update timing of the current frame is included in the drawing list transmitted to the VDP 76 in the subsequent drawing list output process (step S609). The data SD is set as a drawing target, and when the effect image EG2 is displayed, the effect image data ED1 is set as a drawing target. In the drawing list, parameter information to be applied to the character still image data SD and the effect image data ED1 is set. In addition, effect rendering designation information is set in the drawing list, effect generation designation information is set during the display period of the effect image EG2, and partial addition designation information is set at the execution timing of the partial addition processing. Is set. At the start timing of the effect presentation, the address information where the character still image data SD is stored in the memory module 74 and the address information where the effect image data ED1 is stored are designated in the drawing list. Is done.

次に、VDP76にて実行されエフェクト演出用の設定処理及びエフェクト演出用の書き込み処理について説明する。エフェクト演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行され、エフェクト演出用の書き込み処理は、描画処理(図23)のステップS1105にて実行される書き込み処理の一部の処理として実行される。また、描画リストにおいてエフェクト演出指定情報が設定されている場合に、これらエフェクト演出用の設定処理及びエフェクト演出用の書き込み処理が実行される。ここで、描画リストでは、エフェクト演出指定情報が演出用の画像データに関連付けて設定されているため、エフェクト演出用の設定処理及びエフェクト演出用の書き込み処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。   Next, an effect effect setting process and an effect effect writing process executed by the VDP 76 will be described. The effect effect setting process is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23), and the effect effect writing process is a step of the drawing process (FIG. 23). This process is executed as a part of the writing process executed in S1105. Further, when effect effect designation information is set in the drawing list, the effect effect setting process and the effect effect writing process are executed. Here, in the drawing list, the effect production designation information is set in association with the image data for production. Therefore, the setting processing for effect production and the writing processing for effect production are for the production of the current drawing list. This is activated when the image data drawing order is reached.

図31はエフェクト演出用の設定処理を示すフローチャートである。   FIG. 31 is a flowchart showing a setting process for effect production.

ステップS1601では、描画リストにて示されている今回の描画対象のキャラクタ用静止画像データSDがVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。なお、エフェクト演出の開始タイミングにおいて、エフェクト演出において使用するキャラクタ用静止画像データSD及びエフェクト用画像データED1は、メモリモジュール74から読み出され、展開用バッファ81の所定のエリアに書き込まれている。続くステップS1602では、今回の描画対象のキャラクタ用静止画像データSDに適用するパラメータ情報を把握する。   In step S1601, the address of the area where the still image data SD for character to be drawn this time shown in the drawing list is read in the development buffer 81 of the VRAM 75 is grasped. At the start timing of the effect presentation, the character still image data SD and the effect image data ED1 used in the effect presentation are read from the memory module 74 and written in a predetermined area of the development buffer 81. In subsequent step S1602, parameter information applied to the character still image data SD to be drawn this time is grasped.

描画リストにおいてエフェクト発生指定情報が設定されている場合(ステップS1603:YES)、ステップS1604にて、描画リストにて示されている今回の描画対象のエフェクト用画像データED1がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。その後、ステップS1605にて、今回の描画対象のエフェクト用画像データED1に適用するパラメータ情報を把握する。   When the effect generation designation information is set in the drawing list (step S1603: YES), the effect image data ED1 to be drawn this time indicated in the drawing list is displayed in the development buffer 81 of the VRAM 75 in step S1604. To grasp the address of the area being read out. Thereafter, in step S1605, parameter information applied to the effect image data ED1 to be drawn this time is grasped.

図32はエフェクト演出用の書き込み処理を示すフローチャートである。   FIG. 32 is a flowchart showing a writing process for effect production.

まず描画対象のフレーム領域82a,82bに対して、今回の描画対象のキャラクタ用静止画像データSDを描画する。この描画は、描画対象のフレーム領域82a,82bにおいて描画リストにて指定された座標を基準にして行う(ステップS1701)。   First, the still image data SD for the character to be drawn this time is drawn in the frame regions 82a and 82b to be drawn. This drawing is performed based on the coordinates specified in the drawing list in the drawing target frame regions 82a and 82b (step S1701).

描画リストにエフェクト発生指定情報が設定されている場合(ステップS1702:YES)、ステップS1703〜ステップS1712にて、エフェクト用画像データED1を適用するための処理を実行する。具体的には、まずステップS1703にて、今回の描画対象のエフェクト用画像データED1におけるピクセルの総数に対応した値をレジスタ92に設けられた書き込み処理カウンタにセットする。その後、ステップS1704にて、描画リストに部分加算指定情報が設定されているか否かを判定する。部分加算指定情報が設定されている場合には、ステップS1705〜ステップS1708に示す部分加算用の設定処理を実行した後に、ステップS1709〜ステップS1711に示す加算処理を実行する。部分加算指定情報が設定されていない場合には、部分加算用の設定処理を実行することなく、加算処理を実行する。   When effect generation designation information is set in the drawing list (step S1702: YES), processing for applying the effect image data ED1 is executed in steps S1703 to S1712. Specifically, first, in step S1703, a value corresponding to the total number of pixels in the effect image data ED1 to be drawn this time is set in a write processing counter provided in the register 92. Thereafter, in step S1704, it is determined whether partial addition designation information is set in the drawing list. If the partial addition designation information is set, after performing the setting process for partial addition shown in steps S1705 to S1708, the addition process shown in steps S1709 to S1711 is executed. If the partial addition designation information is not set, the addition process is executed without executing the setting process for partial addition.

部分加算用の設定処理を実行することなく加算処理を実行する場合について説明する。まず今回の描画対象のエフェクト用画像データED1において現状の書き込み処理カウンタの値に対応したピクセルに設定されているRGBの各色情報とα値とを積算する(ステップS1709)。そして、その積算結果の色情報を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに格納されているRGBの各色情報に加算する(ステップS1710)。その後、書き込み処理カウンタの値を1減算する(ステップS1711)。これにより、キャラクタ用静止画像データSDのピクセルに設定されていた色情報に対して、エフェクト用画像データED1の対応するピクセルに設定されていた色情報とα値との積算結果がそのまま加算される。   A case where the addition process is executed without executing the setting process for partial addition will be described. First, the RGB color information set to the pixel corresponding to the current value of the writing processing counter in the effect image data ED1 to be drawn this time and the α value are integrated (step S1709). Then, the color information of the integration result is added to each color information of RGB stored in the dot corresponding to the current value of the writing processing counter in the frame areas 82a and 82b to be drawn (step S1710). Thereafter, 1 is subtracted from the value of the write processing counter (step S1711). As a result, the integration result of the color information set to the corresponding pixel of the effect image data ED1 and the α value is added as it is to the color information set to the pixel of the character still image data SD. .

部分加算用の設定処理を実行した後に加算処理を実行する場合について説明する。部分加算用の設定処理に際しては、まず今回の描画対象のエフェクト用画像データED1において現状の書き込み処理カウンタの値に対応したピクセルに設定されているRGBの各色情報を読み出す(ステップS1705)。そして、その読み出した各色情報を反転させる(ステップS1706)。この反転に際しては、RGBのそれぞれについて、色情報の最大値である「255」から上記読み出した色情報を減算する。また、その反転させた結果の値、すなわち「255」から上記読み出した色情報を減算した結果の値を、色情報の最大値である「255」で除算する(ステップS1707)。その後、その除算結果の値を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに格納されているRGBの各色情報に積算する(ステップS1708)。   The case where the addition process is executed after the partial addition setting process is executed will be described. In the setting process for partial addition, first, RGB color information set in the pixel corresponding to the current value of the writing process counter in the effect image data ED1 to be drawn this time is read (step S1705). Then, the read color information is inverted (step S1706). At the time of this inversion, the read out color information is subtracted from “255” which is the maximum value of the color information for each of RGB. Further, a value obtained by subtracting the read color information from “255” is divided by “255” which is the maximum value of color information (step S1707). After that, the value of the division result is added to each color information of RGB stored in the dot corresponding to the current value of the writing process counter in the drawing target frame regions 82a and 82b (step S1708).

この場合、エフェクト用画像データED1において色情報として「0」が設定されているピクセルについては上記除算結果が「1」となるため、描画対象のフレーム領域82a,82bにおいて当該除算結果が積算されたドットの色情報は変化しない。一方、エフェクト用画像データED1において色情報として1以上の値が設定されているピクセルについては上記除算結果が1未満の値となる。描画対象のフレーム領域82a,82bにおいて当該1未満の値の除算結果が積算されたドットの色情報は当初設定されていた値よりも小さい値となる。   In this case, for the pixels for which “0” is set as the color information in the effect image data ED1, the division result is “1”. Therefore, the division results are integrated in the drawing target frame regions 82a and 82b. Dot color information does not change. On the other hand, for the pixels for which a value of 1 or more is set as color information in the effect image data ED1, the division result is a value less than 1. In the frame areas 82a and 82b to be drawn, the color information of the dot obtained by integrating the division results of the values less than 1 becomes a value smaller than the initially set value.

その後、今回の描画対象のエフェクト用画像データED1において現状の書き込み処理カウンタの値に対応したピクセルに設定されているRGBの各色情報とα値とを積算する(ステップS1709)。そして、その積算結果の色情報を、描画対象のフレーム領域82a,82bにおいて現状の書き込み処理カウンタの値に対応したドットに格納されているRGBの各色情報に加算する(ステップS1710)。その後、ステップS1711にて書き込み処理カウンタの値を1減算し、ステップS1712にてその減算後における書き込み処理カウンタの値が「0」となっているか否かを判定する。「0」となっていない場合には減算後の書き込み処理カウンタの値に対応したピクセルの書き込み処理を実行し、「0」となっている場合にはそのまま本エフェクト演出用の書き込み処理を終了する。   Thereafter, each color information of RGB set in the pixel corresponding to the current value of the writing processing counter in the effect image data ED1 to be drawn this time and the α value are integrated (step S1709). Then, the color information of the integration result is added to each color information of RGB stored in the dot corresponding to the current value of the writing processing counter in the frame areas 82a and 82b to be drawn (step S1710). Thereafter, the value of the write processing counter is decremented by 1 in step S1711, and it is determined in step S1712 whether or not the value of the write processing counter after the subtraction is “0”. If it is not “0”, the pixel writing process corresponding to the value of the writing process counter after the subtraction is executed, and if it is “0”, the writing process for the effect rendering is ended as it is. .

上記のように部分加算用の設定処理が実行されることにより、フレーム領域82a,82bの各単位エリア121に既に描画されているキャラクタ用静止画像データSDの色情報が小さな値に低減される。これにより、加算処理を実行する前の状態でエフェクト用画像データED1が加算される単位エリア121の色情報の値を小さくすることが可能となり、白とびの発生を抑えることが可能となる。   By executing the setting process for partial addition as described above, the color information of the character still image data SD already drawn in the unit areas 121 of the frame regions 82a and 82b is reduced to a small value. As a result, it is possible to reduce the value of the color information of the unit area 121 to which the effect image data ED1 is added in a state before the addition process is performed, and it is possible to suppress the occurrence of overexposure.

この低減は、エフェクト用画像データED1の各色情報を反転させた結果の値を色情報の最大値で除算した値を積算することにより行われるため、フレーム領域82a,82bの各単位エリア121において、適用されるエフェクト用画像データED1の色情報が大きい単位エリア121ほど色情報が大きく低減される(つまり、小さい値が積算される)。これにより、エフェクト用画像データED1において大きな色情報のピクセルが適用される単位エリア121ほど色情報の事前の低減量が大きくなり、白とびの発生の可能性が高い単位エリア121の色情報を重点的に事前に低減することが可能となる。よって、白とびの発生の可能性が低い単位エリア121についてはキャラクタ用静止画像データSDにより設定された色情報の低減量を抑えることが可能となり、エフェクト演出用キャラクタCH2の表示内容を極力維持することが可能となる。   This reduction is performed by integrating values obtained by inverting each color information of the effect image data ED1 by the maximum value of the color information. Therefore, in each unit area 121 of the frame regions 82a and 82b, The unit area 121 having a larger color information of the applied effect image data ED1 is greatly reduced in color information (that is, a smaller value is integrated). As a result, the unit area 121 to which pixels of large color information are applied in the effect image data ED1 has a larger amount of reduction in color information in advance, and priority is given to the color information of the unit area 121 where the possibility of overexposure is high. Therefore, it can be reduced in advance. Therefore, it is possible to suppress the reduction amount of the color information set by the character still image data SD for the unit area 121 where the possibility of overexposure is low, and the display content of the effect effect character CH2 is maintained as much as possible. It becomes possible.

エフェクト用画像データED1の色情報の内容に応じた色情報の低減が当該エフェクト用画像データED1を利用して行われる。これにより、エフェクト用画像データED1とは別の部分加算用の画像データがメモリモジュール74に予め記憶されている構成に比べて、当該メモリモジュール74において画像データを記憶しておくために必要なデータ容量を抑えることが可能となる。   The reduction of the color information corresponding to the content of the color information of the effect image data ED1 is performed using the effect image data ED1. As a result, data necessary for storing image data in the memory module 74 is different from a configuration in which image data for partial addition different from the effect image data ED1 is stored in the memory module 74 in advance. The capacity can be suppressed.

<エフェクト演出に係る構成の別形態>
・エフェクト用画像データED1を利用して色情報の低減が行われる構成に代えて、エフェクト用画像データED1とは別の低減用データをメモリモジュール74に予め記憶させておき、当該低減用データをキャラクタ用静止画像データSDに適用することで色情報を低減させる構成としてもよい。この場合、当該低減用データを、エフェクト用画像データED1における相対的に明るい色情報に対応するデータが適用される箇所は相対的に暗い色情報に対応するデータが適用される箇所よりも低減量が大きくなるように設定することで、上記実施形態と同様にエフェクト用画像データED1のデータ内容に応じた態様で色情報を低減させることが可能となる。
<Another form of configuration related to effect production>
Instead of the configuration in which the color information is reduced using the effect image data ED1, the reduction data different from the effect image data ED1 is stored in the memory module 74 in advance, and the reduction data is stored in the memory module 74. It is good also as a structure which reduces color information by applying to the still image data SD for characters. In this case, the reduction data is reduced in a portion where data corresponding to relatively bright color information in the effect image data ED1 is applied, compared to a portion where data corresponding to relatively dark color information is applied. Is set to be large, the color information can be reduced in a manner corresponding to the data content of the effect image data ED1 as in the above embodiment.

・キャラクタ用静止画像データSDにより設定された色情報においてエフェクト用画像データED1における所定の数値以上の色情報が設定されることとなる箇所については色情報を低減させる一方、キャラクタ用静止画像データSDにより設定された色情報においてエフェクト用画像データED1における所定の数値以上の色情報が設定されない箇所については色情報を低減させない構成としてもよい。   In the color information set by the character still image data SD, the color information is reduced for portions where color information of a predetermined value or more in the effect image data ED1 is set, while the character still image data SD In the color information set by the above, it may be configured such that the color information is not reduced for portions where color information equal to or greater than a predetermined numerical value is not set in the effect image data ED1.

・キャラクタ用静止画像データSDにおいてエフェクト用画像データED1における完全透明のα値(具体的には「0」)が設定されているピクセルの色情報が設定されることとなる箇所については、色情報の低減が行われない構成としてもよい。この場合、エフェクト用画像データED1の加算処理を行ったとしても確実に白とびが発生しない箇所については色情報の低減対象から除外することが可能となり、本来表示すべき内容で画像を表示することが可能となる。   In the character still image data SD, the color information of the pixel where the color information of the pixels for which the completely transparent α value (specifically “0”) in the effect image data ED1 is set is set. It is good also as a structure by which reduction of this is not performed. In this case, even if the addition processing of the effect image data ED1 is performed, it is possible to exclude the portion where the overexposure does not occur reliably from the color information reduction target, and display the image with the content to be originally displayed. Is possible.

・エフェクト用画像データED1に設定されている各ピクセルの色情報に対応させて色情報を低減させる対象は、キャラクタ用静止画像データSDにより設定された色情報のみに限定されることはなく、キャラクタ用静止画像データSDにより設定された色情報と、エフェクト用画像データED1に設定されている色情報との両方であってもよく、キャラクタ用静止画像データSDにより設定された色情報を低減させることなく、エフェクト用画像データED1に設定されている色情報のみを低減させる構成としてもよい。   The target for reducing the color information corresponding to the color information of each pixel set in the effect image data ED1 is not limited to the color information set by the character still image data SD. Both the color information set by the still image data SD and the color information set by the effect image data ED1 may be used, and the color information set by the character still image data SD is reduced. Alternatively, only the color information set in the effect image data ED1 may be reduced.

・キャラクタ用静止画像データSDにより設定された色情報に対応させて、当該キャラクタ用静止画像データSDにより設定された色情報を低減させる構成としてもよく、キャラクタ用静止画像データSDにより設定された色情報に対応させて、エフェクト用画像データED1に設定されている色情報を低減させる構成としてもよい。   The color information set by the character still image data SD may be reduced in correspondence with the color information set by the character still image data SD, and the color set by the character still image data SD may be used. The color information set in the effect image data ED1 may be reduced in correspondence with the information.

<発展演出を行うための構成>
次に、発展演出を行うための構成について、図33を参照しながら説明する。図33(a)〜図33(e)は発展演出を説明するための説明図である。
<Structure for development development>
Next, a configuration for performing the development effect will be described with reference to FIG. FIG. 33A to FIG. 33E are explanatory diagrams for explaining the development effect.

発展演出とは、適用されるエフェクト画像の種類が演出の進行に伴って変化するとともに、全体的なエフェクト画像の内容が段階的に派手なものとなるようにエフェクト画像の種類が増加していく演出である。具体的には、発展演出における第1段階の演出期間においては図33(a)に示すように中央から外側に向けて光線が照射される第1エフェクト画像EG3が動画表示され、発展演出における第2段階の演出期間においては図33(b)に示すように中央から外側に向けて粒子が移動していく第2エフェクト画像EG4が動画表示され、発展演出における第3段階の演出期間においては図33(c)に示すように第1エフェクト画像EG3及び第2エフェクト画像EG4の両方が重ね合わされた状態で動画表示され、発展演出における第4段階の演出期間においては図33(d)に示すように第1エフェクト画像EG3及び第2エフェクト画像EG4に加えて、光の輪が中央側から外側に向けて広がっていく第3エフェクト画像EG5が動画表示される。   Development effect means that the type of effect image applied changes as the effect progresses, and the type of effect image increases so that the overall effect image content becomes flashy in stages Production. Specifically, in the first stage production period of the development effect, the first effect image EG3 irradiated with light rays from the center toward the outside is displayed as a moving image as shown in FIG. As shown in FIG. 33B, the second effect image EG4 in which the particles move from the center toward the outside is displayed as a moving image in the two-stage production period, and in the third stage production period in the development production, As shown in FIG. 33 (c), the first effect image EG3 and the second effect image EG4 are both displayed in a superimposed state, as shown in FIG. 33 (d) during the fourth stage of the development effect. In addition to the first effect image EG3 and the second effect image EG4, a third effect image EG5 in which a ring of light spreads outward from the center side is a moving image. It is shown.

発展演出は、遊技回用の演出として実行され、後側の段階まで進むほどリーチ表示の発生の期待度又は大当たり結果の発生の期待度が高くなる。つまり、第1段階のみで終了する場合、第1段階の後に第2段階まで実行されて終了する場合、第1段階〜第2段階の後に第3段階まで実行されて終了する場合、及び第1段階〜第3段階の後に第4段階まで実行されて終了する場合のそれぞれが発展演出の実行パターンとして設定されており、上記期待度は後側の実行パターンの発展演出が実行された場合の方が高くなる。   The development effect is executed as an effect for game times, and the degree of expectation of occurrence of a reach display or the expectation of occurrence of a jackpot result becomes higher as it progresses to the later stage. That is, when it is completed only in the first stage, when it is executed after the first stage until the second stage, it is completed, when it is executed after the first stage to the second stage until the third stage, and the first stage is completed. Each of the cases where the execution is executed up to the fourth stage after the stage 3 to the third stage is set as the execution pattern of the development effect, and the expectation is based on the case where the development effect of the rear execution pattern is executed. Becomes higher.

発展演出では上記のようにエフェクト画像EG3〜EG5の表示内容が複数段階で変更されることとなるが、発展演出においてエフェクト画像EG3〜EG5を表示させるためにメモリモジュール74に予め記憶されているエフェクト用画像データED2〜ED4の数は発展演出の段階数よりも少ない数となっている。具体的には、図33(e)に示すように、メモリモジュール74には発展演出を実行するための画像データとして、第1エフェクト用画像データED2と、第2エフェクト用画像データED3と、合成エフェクト用画像データED4とが予め記憶されている。   In the development effect, the display contents of the effect images EG3 to EG5 are changed in a plurality of stages as described above, but the effect stored in advance in the memory module 74 in order to display the effect images EG3 to EG5 in the development effect. The number of image data ED2 to ED4 is smaller than the number of stages of development effects. Specifically, as shown in FIG. 33 (e), the memory module 74 combines the first effect image data ED2 and the second effect image data ED3 as image data for executing the development effect. Effect image data ED4 is stored in advance.

第1エフェクト用画像データED2は、発展演出の各エフェクト画像EG3〜EG5のうち第1エフェクト画像EG3のみを表示させるための画像データであり、第1段階の演出期間において第1エフェクト画像EG3を所定の態様で変化させることが可能なように複数設けられている。第1エフェクト用画像データED2は、個別画像として第1エフェクト画像EG3を表示するためのデータと、第1エフェクト用画像データED2による画像を矩形状の画像として扱うことを可能とするために第1エフェクト画像EG3の周囲を囲むように設定された枠領域のデータとを備えている。第1エフェクト画像EG3を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。   The first effect image data ED2 is image data for displaying only the first effect image EG3 among the effect images EG3 to EG5 of the development effect, and the first effect image EG3 is determined in a first stage effect period. A plurality are provided so that it can be changed in this manner. The first effect image data ED2 includes data for displaying the first effect image EG3 as an individual image and the first effect image data ED2 in order to be able to handle the image by the first effect image data ED2 as a rectangular image. Frame area data set so as to surround the periphery of the effect image EG3. Since the pixels constituting the first effect image EG3 are set to a semi-transparent α value (0 <α value <1), they are displayed on the display surface P. However, the pixels constituting the frame region are completely displayed. Since the transparent α value is set, it is not a display target on the display surface P.

第2エフェクト用画像データED3は、発展演出の各エフェクト画像EG3〜EG5のうち第2エフェクト画像EG4のみを表示させるための画像データであり、第2段階の演出期間において第2エフェクト画像EG4を所定の態様で変化させることが可能なように複数設けられている。第2エフェクト用画像データED3は、個別画像として第2エフェクト画像EG4を表示するためのデータと、第2エフェクト用画像データED3による画像を矩形状の画像として扱うことを可能とするために第2エフェクト画像EG4の周囲を囲むように設定された枠領域のデータとを備えている。第2エフェクト画像EG4を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。   The second effect image data ED3 is image data for displaying only the second effect image EG4 among the effect images EG3 to EG5 of the development effect, and the second effect image EG4 is predetermined in the second stage effect period. A plurality are provided so that it can be changed in this manner. The second effect image data ED3 includes data for displaying the second effect image EG4 as an individual image and a second effect image data ED3 in order to be able to handle the image by the second effect image data ED3 as a rectangular image. Frame area data set so as to surround the periphery of the effect image EG4. Since the translucent α value (0 <α value <1) is set for the pixels constituting the second effect image EG4, it is a display target on the display surface P, but the pixels constituting the frame region are completely Since the transparent α value is set, it is not a display target on the display surface P.

合成エフェクト用画像データED4は、発展演出の各エフェクト画像EG3〜EG5の全てを表示させるための画像データであり、第4段階の演出期間において第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5が所定の態様で変化することが可能なように複数設けられている。合成エフェクト用画像データED4は、個別画像として第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5を表示するためのデータと、合成エフェクト用画像データED4による画像を矩形状の画像として扱うことを可能とするために第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5の周囲を囲むように設定された枠領域のデータとを備えている。第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。   The composite effect image data ED4 is image data for displaying all the effect images EG3 to EG5 of the development effect, and the first effect image EG3, the second effect image EG4, and the third effect image are displayed in the fourth effect period. A plurality of effect images EG5 are provided so as to be able to change in a predetermined manner. The composite effect image data ED4 includes data for displaying the first effect image EG3, the second effect image EG4, and the third effect image EG5 as individual images, and an image based on the composite effect image data ED4 as a rectangular image. In order to make it possible to handle the data, a frame area data set so as to surround the first effect image EG3, the second effect image EG4, and the third effect image EG5 is provided. Since the pixels constituting the first effect image EG3, the second effect image EG4, and the third effect image EG5 are set with a translucent α value (0 <α value <1), the pixels to be displayed on the display surface P However, since a completely transparent α value is set for the pixels constituting the frame region, the pixels are not displayed on the display surface P.

ここで、発展演出の各エフェクト画像EG3〜EG5を表示するための画像データとして、第1エフェクト用画像データED2、第2エフェクト用画像データED3及び合成エフェクト用画像データED4のみが予め記憶された構成においては、第3段階の演出期間に対応したエフェクト用画像データが存在していないこととなる。これに対して、第3段階の演出期間においては第1エフェクト用画像データED2と第2エフェクト用画像データED3との両方が利用されることにより、第1エフェクト画像EG3及び第2エフェクト画像EG4の両方が重ね合わされた状態で動画表示される。   Here, only the first effect image data ED2, the second effect image data ED3, and the composite effect image data ED4 are stored in advance as image data for displaying the effect images EG3 to EG5 of the development effect. In this case, the effect image data corresponding to the third stage production period does not exist. On the other hand, both the first effect image data ED2 and the second effect image data ED3 are used in the third stage effect period, so that the first effect image EG3 and the second effect image EG4 are displayed. The video is displayed with both superimposed.

各エフェクト用画像データED2〜ED4を利用して発展演出が実行される様子について図34のタイムチャートを参照しながら説明する。図34(a)は第1エフェクト用画像データED2の使用期間を示し、図34(b)は第2エフェクト用画像データED3の使用期間を示し、図34(c)は合成エフェクト用画像データED4の使用期間を示す。   The manner in which the development effect is executed using each of the effect image data ED2 to ED4 will be described with reference to the time chart of FIG. FIG. 34 (a) shows the usage period of the first effect image data ED2, FIG. 34 (b) shows the usage period of the second effect image data ED3, and FIG. 34 (c) shows the composite effect image data ED4. Indicates the period of use.

t1のタイミング〜第2のタイミングに亘って実行される第1段階の演出期間では、図34(a)に示すように第1エフェクト用画像データED2が使用され、第2エフェクト用画像データED3及び合成エフェクト用画像データED4は使用されない。t2のタイミング〜第3のタイミングに亘って実行される第2段階の演出期間では、図34(b)に示すように第2エフェクト用画像データED3が使用され、第1エフェクト用画像データED2及び合成エフェクト用画像データED4は使用されない。   In the first stage effect period executed from the timing t1 to the second timing, the first effect image data ED2 is used as shown in FIG. 34A, and the second effect image data ED3 and The composite effect image data ED4 is not used. In the second stage production period executed from the timing t2 to the third timing, the second effect image data ED3 is used as shown in FIG. 34B, and the first effect image data ED2 and The composite effect image data ED4 is not used.

t3のタイミング〜第4のタイミングに亘って実行される第3段階の演出期間では、図34(a)及び図34(b)に示すように第1エフェクト用画像データED2及び第2エフェクト用画像データED3の両方が使用され、合成エフェクト用画像データED4は使用されない。t4のタイミング〜第5のタイミングに亘って実行される第4段階の演出期間では、図34(c)に示すように合成エフェクト用画像データED4が使用され、第1エフェクト用画像データED2及び第2エフェクト用画像データED3は使用されない。   In the third stage effect period executed from the timing t3 to the fourth timing, as shown in FIGS. 34 (a) and 34 (b), the first effect image data ED2 and the second effect image are displayed. Both of the data ED3 are used, and the composite effect image data ED4 is not used. In the fourth stage effect period executed from the timing t4 to the fifth timing, the composite effect image data ED4 is used as shown in FIG. 34C, and the first effect image data ED2 and the first effect image data ED2 are used. The 2-effect image data ED3 is not used.

以下に、発展演出を実行するための具体的な処理構成を説明する。図35は、表示CPU72にて実行される発展演出用の演算処理を示すフローチャートである。発展演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。当該発展演出用の演算処理は、現状設定されている実行対象テーブルにおいて発展演出についての情報が設定されている場合に起動される。   A specific processing configuration for executing the development effect will be described below. FIG. 35 is a flowchart showing calculation processing for development effects executed by the display CPU 72. The calculation process for the development effect is executed in the calculation process for the effect in step S909 in the task process (FIG. 19). The calculation process for the development effect is activated when information about the development effect is set in the currently set execution target table.

発展演出の開始タイミングとなっている場合(ステップS1801:YES)、メモリモジュール74における第1エフェクト用画像データED2、第2エフェクト用画像データED3及び合成エフェクト用画像データED4の各アドレスを把握する(ステップS1802)。そして、ステップS1803にて、発展演出を開始すべきことをVDP76に認識させるための発展演出開始指定情報を表示CPU72のレジスタに記憶する。   If it is the start timing of the development effect (step S1801: YES), the addresses of the first effect image data ED2, the second effect image data ED3, and the composite effect image data ED4 in the memory module 74 are grasped (step S1801: YES). Step S1802). In step S1803, development effect start designation information for causing the VDP 76 to recognize that the development effect should be started is stored in the register of the display CPU 72.

第1段階の演出期間である場合(ステップS1804:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の第1エフェクト用画像データED2を把握する(ステップS1805)。また、第1エフェクト用画像データED2のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該第1エフェクト用画像データED2に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1806)。その後、ステップS1807にて第1段階の演出期間であることをVDP76に認識させるための第1段階指定情報を表示CPU72のレジスタに記憶する。   If it is the first stage production period (step S1804: YES), the first effect image data ED2 of the type corresponding to the current update timing is grasped based on the currently set execution target table (step S1805). . Further, the parameter information of the first effect image data ED2 is calculated and derived, and the derived parameter information is written in an area secured in the work RAM 73 in correspondence with the first effect image data ED2. Is updated (step S1806). Thereafter, in step S1807, first stage designation information for causing the VDP 76 to recognize that the stage is the first stage production period is stored in the register of the display CPU 72.

第2段階の演出期間である場合(ステップS1808:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の第2エフェクト用画像データED3を把握する(ステップS1809)。また、第2エフェクト用画像データED3のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該第2エフェクト用画像データED3に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1810)。その後、ステップS1811にて第2段階の演出期間であることをVDP76に認識させるための第2段階指定情報を表示CPU72のレジスタに記憶する。   If it is the second stage production period (step S1808: YES), the second effect image data ED3 of the type corresponding to the current update timing is grasped based on the currently set execution target table (step S1809). . Further, the parameter information of the second effect image data ED3 is calculated and derived, and the derived parameter information is written in an area secured in the work RAM 73 in correspondence with the second effect image data ED3. Is updated (step S1810). Thereafter, in step S <b> 1811, second stage designation information for causing the VDP 76 to recognize that it is the second stage production period is stored in the register of the display CPU 72.

第3段階の演出期間である場合(ステップS1812:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の第1エフェクト用画像データED2を把握するとともに(ステップS1813)、今回の更新タイミングに対応した種類の第2エフェクト用画像データED3を把握する(ステップS1814)。また、第1エフェクト用画像データED2及び第2エフェクト用画像データED3のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれら第1エフェクト用画像データED2及び第2エフェクト用画像データED3に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1815)。その後、ステップS1816にて第3段階の演出期間であることをVDP76に認識させるための第3段階指定情報を表示CPU72のレジスタに記憶する。   If it is the third stage effect period (step S1812: YES), the first effect image data ED2 of the type corresponding to the current update timing is grasped based on the currently set execution target table (step S1813). The second effect image data ED3 of the type corresponding to the current update timing is grasped (step S1814). Also, the parameter information of the first effect image data ED2 and the second effect image data ED3 is calculated and derived, and the derived parameter information is obtained in the work RAM 73 by the first effect image data ED2 and the second effect image. The control information is updated by writing in the area secured in correspondence with the data ED3 (step S1815). Thereafter, in step S1816, the third stage designation information for causing the VDP 76 to recognize that it is the third stage production period is stored in the register of the display CPU 72.

第3段階の演出期間ではない場合(ステップS1812:NO)、第4段階の演出期間であることを意味するため、ステップS1817に進む。ステップS1817では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の合成エフェクト用画像データED4を把握する。また、合成エフェクト用画像データED4のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該合成エフェクト用画像データED4に対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS1818)。その後、ステップS1819にて第4段階の演出期間であることをVDP76に認識させるための第4段階指定情報を表示CPU72のレジスタに記憶する。   If it is not the third stage production period (step S1812: NO), this means that it is the fourth stage production period, and the process proceeds to step S1817. In step S1817, the type of composite effect image data ED4 corresponding to the current update timing is grasped based on the currently set execution target table. Further, the parameter information of the composite effect image data ED4 is calculated and derived, and the derived parameter information is written in an area secured in the work RAM 73 in correspondence with the composite effect image data ED4. Is updated (step S1818). Thereafter, in step S1819, the fourth stage designation information for causing the VDP 76 to recognize that it is the fourth stage effect period is stored in the register of the display CPU 72.

上記のように発展演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレームの更新タイミングに対応したエフェクト用画像データED2〜ED4が描画対象として設定される。また、当該描画リストには、描画対象のエフェクト用画像データED2〜ED4に適用するパラメータ情報が設定される。また、当該描画リストには現状の演出期間に対応させて第1段階指定情報、第2段階指定情報、第3段階指定情報及び第4段階指定情報のいずれかが設定され、さらに発展演出の開始タイミングにおいては発展演出開始指定情報が設定される。   When the calculation process for the development effect is executed as described above, the effect image data corresponding to the update timing of the current frame is included in the drawing list transmitted to the VDP 76 in the subsequent drawing list output process (step S609). ED2 to ED4 are set as drawing targets. Also, parameter information to be applied to the effect image data ED2 to ED4 to be drawn is set in the drawing list. In addition, any one of the first stage designation information, the second stage designation information, the third stage designation information, and the fourth stage designation information is set in the drawing list so as to correspond to the current production period, and the development production starts. Development timing start designation information is set at the timing.

次に、VDP76にて実行される発展演出用の設定処理について説明する。発展演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行される。また、描画リストにおいて第1〜第4段階指定情報のいずれかが設定されている場合に、発展演出用の設定処理が実行される。ここで、描画リストでは、第1〜第4演出指定情報が演出用の画像データに関連付けて設定されているため、発展演出用の設定処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。   Next, the setting process for the development effect executed by the VDP 76 will be described. The setting process for the development effect is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23). Further, when any of the first to fourth stage designation information is set in the drawing list, the setting process for the development effect is executed. Here, in the drawing list, since the first to fourth effect designation information is set in association with the image data for effect, the setting process for development effect is the image data for effect in the current draw list. It is activated when the drawing order is reached.

今回の描画リストに発展演出開始指定情報が設定されている場合(ステップS1901:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において各第1エフェクト用画像データED2が記憶されているアドレス、各第2エフェクト用画像データED3が記憶されているアドレス、及び各合成エフェクト用画像データED4が記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール74からエフェクト用画像データED2〜ED4の全てをVRAM75の展開用バッファ81に読み出す(ステップS1902)。   When the development effect start designation information is set in the current drawing list (step S1901: YES), each memory image 74 stores the first effect image data ED2 from the address information set in the drawing list. And the address where each second effect image data ED3 is stored, and the address where each combined effect image data ED4 is stored, and the effect image is obtained from the memory module 74 based on the grasped result. All of the data ED2 to ED4 are read out to the expansion buffer 81 of the VRAM 75 (step S1902).

今回の描画リストに第1段階指定情報が設定されている場合(ステップS1903:YES)、ステップS1904にて、描画リストにて示されている今回の第1エフェクト用画像データED2がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1905では、今回の第1エフェクト用画像データED2に適用するパラメータ情報を把握する。   If the first stage designation information is set in the current drawing list (step S1903: YES), the current first effect image data ED2 indicated in the drawing list is used for developing the VRAM 75 in step S1904. The address of the area being read out in the buffer 81 is grasped. In subsequent step S1905, parameter information to be applied to the current first effect image data ED2 is grasped.

今回の描画リストに第2段階指定情報が設定されている場合(ステップS1906:YES)、ステップS1907にて、描画リストにて示されている今回の第2エフェクト用画像データED3がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1908では、今回の第2エフェクト用画像データED3に適用するパラメータ情報を把握する。   If the second stage designation information is set in the current drawing list (step S1906: YES), the current second effect image data ED3 indicated in the drawing list is used for developing the VRAM 75 in step S1907. The address of the area being read out in the buffer 81 is grasped. In subsequent step S1908, parameter information applied to the current second effect image data ED3 is grasped.

今回の描画リストに第3段階指定情報が設定されている場合(ステップS1909:YES)、ステップS1910にて、描画リストにて示されている今回の第1エフェクト用画像データED2がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握するとともに、ステップS1911にて、描画リストにて示されている今回の第2エフェクト用画像データED3がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1912では、今回の第1エフェクト用画像データED2及び第2エフェクト用画像データED3に適用するパラメータ情報を把握する。   When the third stage designation information is set in the current drawing list (step S1909: YES), the current first effect image data ED2 indicated in the drawing list is used for developing the VRAM 75 in step S1910. The address of the area read in the buffer 81 is grasped, and the current second effect image data ED3 shown in the drawing list is read in the development buffer 81 of the VRAM 75 in step S1911. Know the address of the area. In subsequent step S1912, parameter information to be applied to the first effect image data ED2 and the second effect image data ED3 is grasped.

今回の描画リストに第1〜第3段階指定情報が設定されていない場合(ステップS1909:NO)、第4段階の演出期間であることを意味するため、ステップS1913に進む。ステップS1913では、描画リストにて示されている今回の合成エフェクト用画像データED4がVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS1914では、今回の合成エフェクト用画像データED4に適用するパラメータ情報を把握する。   If the first to third stage designation information is not set in the current drawing list (step S1909: NO), the process proceeds to step S1913 because it means that the stage is in the fourth stage. In step S 1913, the address of the area where the current composite effect image data ED 4 shown in the drawing list is read in the development buffer 81 of the VRAM 75 is grasped. In the subsequent step S1914, parameter information to be applied to the current composite effect image data ED4 is grasped.

発展演出用の設定処理が実行されることにより、その後の書き込み処理(ステップS1105)にて、描画対象のフレーム領域82a,82bに対して、描画対象のエフェクト用画像データED2〜ED4がパラメータ情報を適用した状態で描画される。   By executing the setting process for the development effect, in the subsequent writing process (step S1105), the rendering target effect image data ED2 to ED4 provide the parameter information for the rendering target frame areas 82a and 82b. Rendered in the applied state.

第1エフェクト画像EG3及び第2エフェクト画像EG4の両方が重ね合わされた状態で動画表示される第3段階の演出期間においては、両エフェクト画像EG3,EG4がまとめて設定された合成エフェクト用画像データを予め用意しておくのではなく、第1段階の演出期間において描画対象となる第1エフェクト用画像データED2と第2段階の演出期間において描画対象となる第2エフェクト用画像データED3とを利用する構成としたことにより、エフェクト用画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。その一方、第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5が同時に表示される第4段階の演出期間に対しては、それらエフェクト画像EG3〜EG5がまとめて設定された合成エフェクト用画像データED4が予め用意されている。これにより、3種類のエフェクト用画像データを利用して各エフェクト画像EG3〜EG5を同時に表示する構成に比べて処理負荷の低減を図ることが可能となる。つまり、上記構成によれば、メモリモジュール74の記憶容量と処理負荷とのバランスを取りながら、エフェクト画像EG3〜EG5の種類数を段階的に増やす演出を行うことが可能となる。   In the third stage effect period in which the first effect image EG3 and the second effect image EG4 are displayed in a superimposed state, the combined effect image data in which both effect images EG3 and EG4 are set together is displayed. Rather than preparing in advance, the first effect image data ED2 to be rendered in the first stage production period and the second effect image data ED3 to be rendered in the second stage production period are used. With this configuration, it is possible to reduce the data capacity necessary for storing effect image data in advance. On the other hand, for the fourth stage effect period in which the first effect image EG3, the second effect image EG4, and the third effect image EG5 are simultaneously displayed, the combined effect in which the effect images EG3 to EG5 are set together. Image data ED4 is prepared in advance. As a result, the processing load can be reduced as compared with the configuration in which the effect images EG3 to EG5 are simultaneously displayed using the three types of effect image data. That is, according to the above configuration, it is possible to produce an effect of increasing the number of types of effect images EG3 to EG5 step by step while balancing the storage capacity of the memory module 74 and the processing load.

<発展演出に係る構成の別形態>
・第3エフェクト画像EG5を表示するためのエフェクト用画像データがメモリモジュール74に予め記憶されている構成としてもよい。この場合、第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5のそれぞれを異なる表示期間において個別に表示させることが可能であるとともに、一の合成エフェクト用画像データED4を利用して第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5を同時に表示させることが可能である。また、本構成においては第1エフェクト画像EG3、第2エフェクト画像EG4及び第3エフェクト画像EG5のうち任意の2組の組合せの画像を表示することが可能となる。
<Another form of configuration related to development effects>
A configuration may be adopted in which effect image data for displaying the third effect image EG5 is stored in the memory module 74 in advance. In this case, each of the first effect image EG3, the second effect image EG4, and the third effect image EG5 can be individually displayed in different display periods, and one composite effect image data ED4 is used. The first effect image EG3, the second effect image EG4, and the third effect image EG5 can be displayed simultaneously. Further, in this configuration, it is possible to display any two combinations of images among the first effect image EG3, the second effect image EG4, and the third effect image EG5.

<同時表示演出を行うための構成>
次に、同時表示演出を行うための構成について説明する。
<Configuration for simultaneous display effects>
Next, a configuration for performing a simultaneous display effect will be described.

同時表示演出とは、図37(a)の説明図に示すように、同時に表示される演出用キャラクタCH3〜CH7の数が途中で増加し、さらに演出用キャラクタCH3〜CH7の数が増加するタイミングで増加時用エフェクト画像EG6の表示が開始される演出である。増加時用エフェクト画像EG6は、中央から外側に向けて波が伝搬していく画像である。増加時用エフェクト画像EG6は、演出用キャラクタCH3〜CH7の数が同時に増加するタイミングから、複数のフレームの更新タイミングに亘る所定期間において所定の態様で変化するように表示される。   As shown in the explanatory diagram of FIG. 37 (a), the simultaneous display effect is a timing at which the number of effect characters CH3 to CH7 displayed at the same time increases and the number of effect characters CH3 to CH7 increases. In this effect, the display of the increase effect image EG6 is started. The increase effect image EG6 is an image in which waves propagate from the center toward the outside. The increase effect image EG6 is displayed so as to change in a predetermined manner during a predetermined period from the timing at which the number of effect characters CH3 to CH7 increases simultaneously to the update timing of a plurality of frames.

増加時用エフェクト画像EG6を表示させるための画像データとして図37(b)の説明図に示すように、通常エフェクト用画像データED5と、簡易エフェクト用画像データED6とがメモリモジュール74に予め記憶されている。通常エフェクト用画像データED5と簡易エフェクト用画像データED6とは共に増加時用エフェクト画像EG6を表示するための画像データであるものの、簡易エフェクト用画像データED6の方が通常エフェクト用画像データED5よりもピクセル数が少ない点で相違する。また、通常エフェクト用画像データED5は演出用キャラクタCH3〜CH7を表示するための画像データとピクセル数が同一となっているため、簡易エフェクト用画像データED6は演出用キャラクタCH3〜CH7を表示するための画像データよりもピクセル数が少ないとも言える。   As shown in the explanatory diagram of FIG. 37B, the normal effect image data ED5 and the simple effect image data ED6 are stored in advance in the memory module 74 as image data for displaying the increase effect image EG6. ing. Although both the normal effect image data ED5 and the simple effect image data ED6 are image data for displaying the increase effect image EG6, the simple effect image data ED6 is more than the normal effect image data ED5. The difference is that the number of pixels is small. Further, since the normal effect image data ED5 has the same number of pixels as the image data for displaying the effect characters CH3 to CH7, the simple effect image data ED6 displays the effect characters CH3 to CH7. It can be said that the number of pixels is smaller than that of the image data.

当該ピクセル数について具体的には、図37(c−1)及び図37(c−2)に示すように、簡易エフェクト用画像データED6はピクセル数が通常エフェクト用画像データED5の半分となっている。したがって、同一のサイズで増加時用エフェクト画像EG6を表示させるためには、簡易エフェクト用画像データED6を描画対象とする場合には、通常エフェクト用画像データED5を描画対象とする場合に比べてスケールの情報を2倍にする必要がある。   Specifically, as shown in FIGS. 37 (c-1) and 37 (c-2), the simple effect image data ED6 has half the number of pixels as the normal effect image data ED5. Yes. Therefore, in order to display the increase effect image EG6 with the same size, when the simple effect image data ED6 is set as the drawing target, the scale is compared with the case where the normal effect image data ED5 is set as the drawing target. It is necessary to double the information.

簡易エフェクト用画像データED6は1個のみ設けられているのに対して、通常エフェクト用画像データED5は増加時用エフェクト画像EG6を複数のフレームの更新タイミングに亘る所定期間において所定の態様で変化させることが可能なように複数設けられている。増加時用エフェクト画像EG6を表示する場合、詳細は後述するように、簡易エフェクト用画像データED6が先に使用対象となり、その後に複数の通常エフェクト用画像データED5が使用対象となる。この場合、複数のフレームの更新タイミングに亘る所定期間において所定の態様で増加時用エフェクト画像EG6を変化させることが可能となるように、簡易エフェクト用画像データED6により表示される増加時用エフェクト画像EG6の表示態様に対して、複数の通常エフェクト用画像データED5のうち使用順序が最初の通常エフェクト用画像データED5により表示される増加時用エフェクト画像EG6の表示態様は連続性を有している。   Whereas only one simple effect image data ED6 is provided, the normal effect image data ED5 changes the increase effect image EG6 in a predetermined manner over a predetermined period over a plurality of frame update timings. A plurality are provided so that it is possible. When displaying the increase effect image EG6, as will be described in detail later, the simple effect image data ED6 is used first, followed by a plurality of normal effect image data ED5. In this case, the increase effect image displayed by the simple effect image data ED6 so that the increase effect image EG6 can be changed in a predetermined manner in a predetermined period over a plurality of frame update timings. In contrast to the display mode of EG6, the display mode of the increase effect image EG6 displayed by the normal effect image data ED5 that is used first among the plurality of normal effect image data ED5 has continuity. .

通常エフェクト用画像データED5及び簡易エフェクト用画像データED6は、増加時用エフェクト画像EG6を表示するためのデータと、通常エフェクト用画像データED5及び簡易エフェクト用画像データED6による画像を矩形状の画像として扱うことを可能とするために増加時用エフェクト画像EG6の周囲を囲むように設定された枠領域のデータとを備えている。増加時用エフェクト画像EG6を構成するピクセルには半透明のα値(0<α値<1)が設定されているため表示面Pへの表示対象となるが、枠領域を構成するピクセルには完全透明のα値が設定されているため表示面Pへの表示対象とならない。   The normal effect image data ED5 and the simple effect image data ED6 are data for displaying the increase effect image EG6, and the normal effect image data ED5 and the simple effect image data ED6 are rectangular images. In order to make it possible to handle the data, a frame area data set so as to surround the periphery of the increase effect image EG6 is provided. A translucent α value (0 <α value <1) is set for the pixels constituting the increase effect image EG6, and therefore, the pixel is a display target on the display surface P. Since a completely transparent α value is set, it is not a display target on the display surface P.

増加時用エフェクト画像EG6を表示するための画像データとして、通常エフェクト用画像データED5及び簡易エフェクト用画像データED6が使い分けられる様子について、図38のタイムチャートを参照しながら説明する。図38(a)は同時に表示される演出用キャラクタCH3〜CH7の数が少ない期間である少数表示期間を示し、図38(b)は同時に表示される演出用キャラクタCH3〜CH7の数が多い期間である多数表示期間を示し、図38(c)は増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される期間を示し、図38(d)は増加時用エフェクト画像EG6を表示するための画像データとして通常エフェクト用画像データED5が使用される期間を示す。   The manner in which the normal effect image data ED5 and the simple effect image data ED6 are selectively used as image data for displaying the increase effect image EG6 will be described with reference to the time chart of FIG. FIG. 38A shows a minority display period in which the number of effect characters CH3 to CH7 displayed at the same time is small, and FIG. 38B shows a period where the number of effect characters CH3 to CH7 displayed at the same time is large. 38 (c) shows a period in which the simple effect image data ED6 is used as image data for displaying the increase effect image EG6, and FIG. 38 (d) shows an increase time. The period during which the normal effect image data ED5 is used as the image data for displaying the effect image EG6 is shown.

図38(a)に示すように、t1のタイミング〜t2のタイミングに亘って少数表示期間となる。少数表示期間では、図38(A)に示すように表示面Pに表示される演出用キャラクタCH3,CH4は2個のみとなっている。   As shown in FIG. 38A, the minority display period starts from the timing t1 to the timing t2. In the minority display period, there are only two effect characters CH3 and CH4 displayed on the display surface P as shown in FIG.

t2のタイミングで少数表示期間が終了することで、図38(b)に示すように多数表示期間が開始される。多数表示期間が開始されたタイミングで、図38(B)に示すように表示面Pに表示される演出用キャラクタCH3〜CH7の数が5個に増加するとともに、増加時用エフェクト画像EG6の表示が開始される。この場合、多数表示期間の開始タイミングであるt2のタイミングにおいては、図38(c)に示すように増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される。これにより、多数表示期間の開始タイミングにおいて演出用キャラクタCH3〜CH7を表示するための画像データが複数読み出される構成において、増加時用エフェクト画像EG6を表示するための画像データの読み出しに要する時間の短縮化が図られる。よって、多数表示期間の開始タイミングにおける画像データの読み出し期間を短縮することが可能となり、多数表示期間の開始タイミングにおいて表示対象となる演出用キャラクタCH3〜CH7の増加と増加時用エフェクト画像EG6の表示開始との両方を好適に行うことが可能となる。また、本構成によれば増加時用エフェクト画像EG6を表示するための画像データを多数表示期間が開始されるよりも前のタイミングでメモリモジュール74からVRAM75の展開用バッファ81に読み出しておく必要がないため、事前転送用のプログラムを設定する必要がない。   When the minority display period ends at the timing of t2, the majority display period starts as shown in FIG. At the timing when the multiple display period is started, the number of effect characters CH3 to CH7 displayed on the display surface P is increased to five as shown in FIG. 38B, and the increase effect image EG6 is displayed. Is started. In this case, the simple effect image data ED6 is used as image data for displaying the increase effect image EG6 as shown in FIG. 38C at the timing t2 which is the start timing of the multiple display period. . Accordingly, in the configuration in which a plurality of image data for displaying the effect characters CH3 to CH7 is read at the start timing of the multiple display period, the time required for reading the image data for displaying the increase effect image EG6 is shortened. Is achieved. Therefore, it is possible to shorten the image data read-out period at the start timing of the multiple display period, increase the production characters CH3 to CH7 to be displayed at the start timing of the multiple display period, and display the increase effect image EG6. Both the start and the start can be suitably performed. Further, according to this configuration, it is necessary to read image data for displaying the increase effect image EG6 from the memory module 74 to the expansion buffer 81 of the VRAM 75 at a timing before the start of a large number of display periods. There is no need to set up a program for advance transfer.

増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される状態は、複数フレームの更新タイミングに亘って継続される。その後、t3のタイミングで、図38(c)及び図38(d)に示すように増加時用エフェクト画像EG6を表示するための画像データが簡易エフェクト用画像データED6から通常エフェクト用画像データED5に切り換えられる。これにより、簡易エフェクト用画像データED6が使用されていた期間よりも増加時用エフェクト画像EG6の画質を向上させることが可能となる。その後、t4のタイミングで、図38(b)及び図38(d)に示すように多数表示期間が終了するとともに通常エフェクト用画像データED5を使用した増加時用エフェクト画像EG6の表示が終了する。   The state where the simple effect image data ED6 is used as the image data for displaying the increase effect image EG6 is continued over the update timings of a plurality of frames. Thereafter, at the timing of t3, as shown in FIGS. 38C and 38D, the image data for displaying the increase effect image EG6 is changed from the simple effect image data ED6 to the normal effect image data ED5. Can be switched. As a result, it is possible to improve the image quality of the increase effect image EG6 over the period during which the simple effect image data ED6 is used. Thereafter, at the timing of t4, as shown in FIGS. 38B and 38D, the multi-display period ends and the display of the increase effect image EG6 using the normal effect image data ED5 ends.

以下に、同時表示演出を実行するための具体的な処理構成を説明する。図39は、表示CPU72にて実行される同時表示演出用の演算処理を示すフローチャートである。同時表示演出用の演算処理は、タスク処理(図19)におけるステップS909の演出用演算処理にて実行される。当該同時表示演出用の演算処理は、現状設定されている実行対象テーブルにおいて同時表示演出についての情報が設定されている場合に起動される。   Below, the concrete process structure for performing a simultaneous display effect is demonstrated. FIG. 39 is a flowchart showing a calculation process for simultaneous display effects executed by the display CPU 72. The calculation process for the simultaneous display effect is executed in the effect calculation process in step S909 in the task process (FIG. 19). The calculation process for the simultaneous display effect is activated when information on the simultaneous display effect is set in the currently set execution target table.

少数表示期間である場合(ステップS2001:YES)、ステップS2002にて少数表示期間の開始タイミングであるか否かを判定する。少数表示期間の開始タイミングである場合(ステップS2002:YES)、少数表示期間において表示対象となる演出用キャラクタCH3,CH4を表示するための画像データのメモリモジュール74における各アドレスを把握する(ステップS2003)。そして、ステップS2004にて、同時表示演出の少数表示期間を開始すべきことをVDP76に認識させるための少数表示開始指定情報を表示CPU72のレジスタに記憶する。   If it is the minority display period (step S2001: YES), it is determined in step S2002 whether it is the start timing of the minority display period. When it is the start timing of the minority display period (step S2002: YES), each address in the memory module 74 of the image data for displaying the presentation characters CH3 and CH4 to be displayed in the minority display period is grasped (step S2003). ). In step S2004, minority display start designation information for causing the VDP 76 to recognize that the minority display period of the simultaneous display effect should be started is stored in the register of the display CPU 72.

ステップS2002にて否定判定をした場合又はステップS2004の処理を実行した場合、現状設定されている実行対象テーブルに基づき今回の更新タイミングに対応した種類の画像データを把握する(ステップS2005)。また、当該画像データのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73において当該画像データに対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS2006)。その後、ステップS2007にて少数表示期間であることをVDP76に認識させるための少数表示指定情報を表示CPU72のレジスタに記憶する。   When a negative determination is made in step S2002 or when the process of step S2004 is executed, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table (step S2005). In addition, the parameter information of the image data is calculated and derived, and the derived parameter information is written in an area secured corresponding to the image data in the work RAM 73 to update the control information (step S2006). . Thereafter, in step S2007, the minority display designation information for causing the VDP 76 to recognize that it is the minority display period is stored in the register of the display CPU 72.

多数表示期間である場合(ステップS2001:NO)、ステップS2008にて多数表示期間の開始タイミングであるか否かを判定する。多数表示期間の開始タイミングである場合(ステップS2008:YES)、多数表示期間において表示が開始される演出用キャラクタCH5,CH6,CH7を表示するための画像データ及び簡易エフェクト用画像データED6のメモリモジュール74における各アドレスを把握する(ステップS2009)。そして、ステップS2010にて、同時表示演出の多数表示期間を開始すべきことをVDP76に認識させるための多数表示開始指定情報を表示CPU72のレジスタに記憶する。   If it is the multiple display period (step S2001: NO), it is determined in step S2008 whether it is the start timing of the multiple display period. When it is the start timing of the multiple display period (step S2008: YES), the memory module of the image data and the simple effect image data ED6 for displaying the effect characters CH5, CH6, and CH7 whose display is started in the multiple display period Each address in 74 is grasped (step S2009). In step S2010, multiple display start designation information for causing the VDP 76 to recognize that the multiple display period of the simultaneous display effect should be started is stored in the register of the display CPU 72.

多数表示期間である場合であって簡易表示期間である場合(ステップS2001:NO、ステップS2011:YES)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2012)。この場合、多数表示期間において表示対象となる演出用キャラクタCH3〜CH7を表示するための画像データと簡易エフェクト用画像データED6とを把握する。また、これら画像データのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれら画像データに対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS2013)。その後、ステップS2014にて、増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6を使用する簡易表示期間であることをVDP76に認識させるための簡易表示指定情報を表示CPU72のレジスタに記憶する。   When the display period is the multiple display period and the simple display period (step S2001: NO, step S2011: YES), based on the currently set execution target table, the type of image data corresponding to the current update timing is stored. Grasp (step S2012). In this case, the image data for displaying the effect characters CH3 to CH7 to be displayed in the multi-display period and the simple effect image data ED6 are grasped. Further, the parameter information of these image data is calculated and derived, and the derived parameter information is written in an area secured in correspondence with these image data in the work RAM 73, thereby updating the control information (step S2013). . Thereafter, in step S2014, the CPU 72 displays simple display designation information for causing the VDP 76 to recognize that it is a simple display period in which the simple effect image data ED6 is used as image data for displaying the increase effect image EG6. Stored in the register.

一方、簡易表示期間ではない場合、すなわち増加時用エフェクト画像EG6を表示するための画像データとして通常エフェクト用画像データED5を使用する通常表示期間である場合(ステップS2011:NO)、ステップS2015にて通常表示期間の開始タイミングであるか否かを判定する。通常表示期間の開始タイミングである場合(ステップS2015:YES)、複数の通常エフェクト用画像データED5の全てについてのメモリモジュール74におけるアドレスを把握する(ステップS2016)。そして、ステップS2017にて、通常表示期間を開始すべきことをVDP76に認識させるための通常表示開始指定情報を表示CPU72のレジスタに記憶する。   On the other hand, when it is not the simple display period, that is, when it is the normal display period in which the normal effect image data ED5 is used as the image data for displaying the increase effect image EG6 (step S2011: NO), in step S2015. It is determined whether it is the start timing of the normal display period. When it is the start timing of the normal display period (step S2015: YES), the addresses in the memory module 74 for all the plurality of normal effect image data ED5 are grasped (step S2016). In step S2017, normal display start designation information for causing the VDP 76 to recognize that the normal display period should be started is stored in the register of the display CPU 72.

多数表示期間である場合であって通常表示期間である場合(ステップS2001:NO、ステップS2011:NO)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2018)。この場合、多数表示期間において表示対象となる演出用キャラクタCH3〜CH7を表示するための画像データと通常エフェクト用画像データED5とを把握する。また、これら画像データのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM73においてこれら画像データに対応させて確保されたエリアに書き込むことで制御用の情報を更新する(ステップS2019)。その後、ステップS2020にて、増加時用エフェクト画像EG6を表示するための画像データとして通常エフェクト用画像データED5を使用する通常表示期間であることをVDP76に認識させるための通常表示指定情報を表示CPU72のレジスタに記憶する。   When the display period is the multiple display period and the normal display period (step S2001: NO, step S2011: NO), the type of image data corresponding to the current update timing is obtained based on the currently set execution target table. Grasping (step S2018). In this case, the image data for displaying the effect characters CH3 to CH7 to be displayed in the multi-display period and the normal effect image data ED5 are grasped. Further, the parameter information of these image data is calculated and derived, and the derived parameter information is written in an area secured in correspondence with these image data in the work RAM 73 to update the control information (step S2019). . Thereafter, in step S2020, the display CPU 72 displays normal display designation information for causing the VDP 76 to recognize that it is a normal display period in which the normal effect image data ED5 is used as image data for displaying the increase effect image EG6. Stored in the register.

上記のように同時表示演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP76に送信される描画リストには、今回のフレームの更新タイミングに対応した演出用キャラクタCH3〜CH7を表示するための画像データが描画対象として設定される。また、多数表示期間であれば当該描画リストに簡易エフェクト用画像データED6及び通常エフェクト用画像データED5のいずれかが描画対象として設定される。この場合、通常エフェクト用画像データED6については該当する更新タイミングに対応する種類の通常エフェクト用画像データED6が描画対象として設定される。また、当該描画リストには、描画対象の画像データに適用するパラメータ情報が設定される。また、当該描画リストには現状の演出期間に対応させて少数表示指定情報、簡易表示指定情報及び通常表示指定情報のいずれかが設定され、さらに各表示期間の開始タイミングにおいては少数表示開始指定情報、多数表示開始指定情報及び通常表示開始指定情報のいずれかが設定される。   When the calculation process for the simultaneous display effect is executed as described above, an effect character corresponding to the update timing of the current frame is included in the drawing list transmitted to the VDP 76 in the subsequent drawing list output process (step S609). Image data for displaying CH3 to CH7 is set as a drawing target. Further, in the case of a multi-display period, either the simple effect image data ED6 or the normal effect image data ED5 is set as a drawing target in the drawing list. In this case, for the normal effect image data ED6, the normal effect image data ED6 of the type corresponding to the corresponding update timing is set as a drawing target. In the drawing list, parameter information to be applied to image data to be drawn is set. Also, in the drawing list, any one of the minority display designation information, the simple display designation information, and the normal display designation information is set in correspondence with the current performance period, and the minority display start designation information is set at the start timing of each display period. One of the multiple display start designation information and the normal display start designation information is set.

次に、VDP76にて実行される同時表示演出用の設定処理について説明する。同時表示演出用の設定処理は、描画処理(図23)のステップS1104にて実行される内容把握処理の一部の処理として実行される。また、描画リストにおいて少数表示指定情報、簡易表示指定情報及び通常表示指定情報のいずれかが設定されている場合に、同時表示演出用の設定処理が実行される。ここで、描画リストでは、少数表示指定情報、簡易表示指定情報及び通常表示指定情報が演出用の画像データに関連付けて設定されているため、同時表示演出用の設定処理は、今回の描画リストのうち、演出用の画像データの描画順序となった場合に起動される。   Next, the setting process for simultaneous display effects executed by the VDP 76 will be described. The setting process for simultaneous display effects is executed as a part of the content grasping process executed in step S1104 of the drawing process (FIG. 23). Further, when any one of the minority display designation information, the simple display designation information, and the normal display designation information is set in the drawing list, the simultaneous display effect setting process is executed. Here, in the drawing list, since the minority display designation information, the simple display designation information, and the normal display designation information are set in association with the image data for production, the setting process for simultaneous display production is performed in the current drawing list. Of these, it is activated when the rendering order of rendering image data is reached.

今回の描画リストに少数表示指定情報が設定されている場合(ステップS2101:YES)、ステップS2102にて、当該描画リストにさらに少数表示開始指定情報が設定されているか否かを判定する。少数表示開始指定情報が設定されている場合(ステップS2102:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において少数表示期間にて表示対象となる演出用キャラクタCH3,CH4を表示するための画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からこれら画像データの全てをVRAM75の展開用バッファ81に読み出す(ステップS2103)。   If minority display designation information is set in the current drawing list (step S2101: YES), it is determined in step S2102 whether or not minority display start designation information is further set in the drawing list. When the minority display start designation information is set (step S2102: YES), the effect characters CH3 and CH4 to be displayed in the minority display period in the memory module 74 from the address information set in the drawing list. The address of the area where the image data for displaying is stored is grasped, and all of the image data is read from the memory module 74 to the development buffer 81 of the VRAM 75 based on the grasped result (step S2103).

また、少数表示指定情報が設定されている場合(ステップS2101:YES)、ステップS2104にて、描画リストにて示されている今回の画像データがVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。続くステップS2105では、今回の画像データに適用するパラメータ情報を把握する。   If the minority display designation information is set (step S2101: YES), the area where the current image data shown in the drawing list is read in the development buffer 81 of the VRAM 75 in step S2104. Know your address. In subsequent step S2105, parameter information applied to the current image data is grasped.

今回の描画リストに多数表示開始指定情報が設定されている場合(ステップS2106:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において多数表示期間にて表示が開始される演出用キャラクタCH5,CH6,CH7を表示するための画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74からこれら画像データの全てをVRAM75の展開用バッファ81に読み出す(ステップS2107)。   When a large number of display start designation information is set in the current drawing list (step S2106: YES), display is started in the large number display period in the memory module 74 from the address information set in the drawing list. An address of an area where image data for displaying the effect characters CH5, CH6, and CH7 is stored is grasped, and all of the image data is read from the memory module 74 to the development buffer 81 of the VRAM 75 based on the grasped result. (Step S2107).

また、今回の描画リストに設定されているアドレスの情報から、メモリモジュール74において簡易エフェクト用画像データED6が記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール74から簡易エフェクト用画像データED6をVRAM75の展開用バッファ81に読み出す(ステップS2108)。そして、ステップS2109にて、その読み出した簡易エフェクト用画像データED6の拡大処理を実行する。拡大処理では、簡易エフェクト用画像データED6に対して色情報の補間処理を実行しながらピクセル数を増加させることで、ピクセル数が通常エフェクト用画像データED5のピクセル数と同一となる拡大処理後のエフェクト用画像データを作成し、展開用バッファ81に書き込む。   Also, the address of the area where the simple effect image data ED6 is stored in the memory module 74 is grasped from the address information set in the current drawing list, and based on the grasped result, the memory effect for the simple effect is obtained. The image data ED6 is read out to the development buffer 81 of the VRAM 75 (step S2108). In step S2109, enlargement processing of the read simple effect image data ED6 is executed. In the enlargement process, the number of pixels is increased while executing the color information interpolation process on the simple effect image data ED6, so that the number of pixels becomes the same as the number of pixels of the normal effect image data ED5. Effect image data is created and written into the expansion buffer 81.

ここで、当該拡大処理にて要する処理時間は、メモリモジュール74から1個の通常エフェクト用画像データED5を読み出すのに要する時間とメモリモジュール74から1個の簡易エフェクト用画像データED6を読み出すのに要する時間との差の時間よりも短い時間となっている。これにより、簡易エフェクト用画像データED6に対して拡大処理が実行される構成であったとしても、多数表示期間の開始タイミングにおいて通常エフェクト用画像データED5を読み出す場合よりも処理時間の短縮化を図ることが可能となる。   Here, the processing time required for the enlargement processing is the time required to read one normal effect image data ED5 from the memory module 74 and one simple effect image data ED6 from the memory module 74. The time is shorter than the time difference from the time required. As a result, even if the enlargement process is executed on the simple effect image data ED6, the processing time is shortened as compared with the case where the normal effect image data ED5 is read at the start timing of the multi-display period. It becomes possible.

一方、今回の描画リストに通常表示開始指定情報が設定されている場合(ステップS2110:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール74において通常エフェクト用画像データED5が記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール74から通常エフェクト用画像データED5の全てをVRAM75の展開用バッファ81に読み出す(ステップS2111)。   On the other hand, when the normal display start designation information is set in the current drawing list (step S2110: YES), the normal effect image data ED5 is stored in the memory module 74 from the address information set in the drawing list. Based on the grasped result, all the normal effect image data ED5 is read from the memory module 74 to the developing buffer 81 of the VRAM 75 (step S2111).

今回の描画リストに簡易表示指定情報又は通常表示指定情報が設定されている場合、ステップS2112にて、描画リストにて示されている今回の画像データがVRAM75の展開用バッファ81において読み出されているエリアのアドレスを把握する。この場合、簡易表示期間であれば展開用バッファ81において拡大処理後のエフェクト用画像データが書き込まれているエリアのアドレスを把握する。一方、通常表示期間であれば展開用バッファ81において今回の更新タイミングに対応する通常エフェクト用画像データED5が読み出されているエリアのアドレスを把握する。続くステップS2113では、今回の画像データに適用されるパラメータ情報を把握する。   If the simple display designation information or the normal display designation information is set in the current drawing list, the current image data indicated in the drawing list is read out in the development buffer 81 of the VRAM 75 in step S2112. Know the address of the area. In this case, in the simple display period, the address of the area where the effect image data after the enlargement process is written is grasped in the expansion buffer 81. On the other hand, in the normal display period, the expansion buffer 81 grasps the address of the area where the normal effect image data ED5 corresponding to the current update timing is read. In subsequent step S2113, parameter information applied to the current image data is grasped.

同時表示演出用の設定処理が実行されることにより、その後の書き込み処理(ステップS1105)にて、描画対象のフレーム領域82a,82bに対して、描画対象の演出用キャラクタCH3〜CH7を表示するための画像データがパラメータ情報を適用した状態で描画される。また、簡易表示期間であれば増加時用エフェクト画像EG6を表示するための画像データとして拡大処理後のエフェクト用画像データがパラメータ情報を適用した状態で描画され、通常表示期間であれば増加時用エフェクト画像EG6を表示するための通常エフェクト用画像データED5がパラメータ情報を適用した状態で描画される。   By performing the setting process for the simultaneous display effect, the rendering target characters CH3 to CH7 are displayed in the drawing target frame regions 82a and 82b in the subsequent writing process (step S1105). The image data is rendered with the parameter information applied. In addition, if the simplified display period, the effect image data after the enlargement process is drawn as the image data for displaying the increase effect image EG6, while the parameter information is applied. Normal effect image data ED5 for displaying the effect image EG6 is drawn in a state where the parameter information is applied.

多数表示期間の開始タイミングにおいては、増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6が使用される。これにより、多数表示期間の開始タイミングにおいて演出用キャラクタCH3〜CH7を表示するための画像データが複数読み出される構成において、増加時用エフェクト画像EG6を表示するための画像データの読み出しに要する時間の短縮化が図られる。よって、多数表示期間の開始タイミングにおける画像データの読み出し期間を短縮することが可能となり、多数表示期間の開始タイミングにおいて表示対象となる演出用キャラクタCH3〜CH7の増加と増加時用エフェクト画像EG6の表示開始との両方を好適に行うことが可能となる。また、本構成によれば増加時用エフェクト画像EG6を表示するための画像データを多数表示期間が開始されるよりも前のタイミングでメモリモジュール74からVRAM75の展開用バッファ81に読み出しておく必要がないため、事前転送用のプログラムを設定する必要がない。   At the start timing of the multiple display period, the simple effect image data ED6 is used as the image data for displaying the increase effect image EG6. Accordingly, in the configuration in which a plurality of image data for displaying the effect characters CH3 to CH7 is read at the start timing of the multiple display period, the time required for reading the image data for displaying the increase effect image EG6 is shortened. Is achieved. Therefore, it is possible to shorten the image data read-out period at the start timing of the multiple display period, increase the production characters CH3 to CH7 to be displayed at the start timing of the multiple display period, and display the increase effect image EG6. Both the start and the start can be suitably performed. Further, according to this configuration, it is necessary to read image data for displaying the increase effect image EG6 from the memory module 74 to the expansion buffer 81 of the VRAM 75 at a timing before the start of a large number of display periods. There is no need to set up a program for advance transfer.

画像データの読み出しに要する時間の短縮化を図るべくピクセル数が少なく設定された画像データは、演出用キャラクタCH3〜CH7を表示するための画像データではなく、増加時用エフェクト画像EG6を表示するための画像データである。これにより、画像表示として目立つ演出用キャラクタCH3〜CH7の画質を低下させないようにしながら、多数表示期間の開始タイミングにおける画像の表示を好適に行うことが可能となる。   Image data in which the number of pixels is set to be small in order to shorten the time required to read out the image data is not the image data for displaying the production characters CH3 to CH7, but the effect image EG6 for increasing. Image data. Thus, it is possible to suitably display an image at the start timing of a large number of display periods while not reducing the image quality of the effect characters CH3 to CH7 that stand out as image display.

多数表示期間がある程度進行した段階で、増加時用エフェクト画像EG6を表示するための画像データが簡易エフェクト用画像データED6から通常エフェクト用画像データED5に変更される。これにより、多数表示期間の途中からは増加時用エフェクト画像EG6の画質も好適なものとすることが可能となる。   At the stage where the multiple display period has progressed to some extent, the image data for displaying the increase effect image EG6 is changed from the simple effect image data ED6 to the normal effect image data ED5. Thereby, the image quality of the increase effect image EG6 can be made favorable from the middle of the multi-display period.

簡易エフェクト用画像データED6は読み出されたタイミングで拡大処理が実行され、その後の簡易表示期間においてはその拡大処理後のエフェクト用画像データが利用される。これにより、簡易表示期間において拡大処理が毎回実行される構成に比べて、処理負荷を低減することが可能となる。   The simple effect image data ED6 is subjected to enlargement processing at the read timing, and the effect image data after the enlargement processing is used in the subsequent simple display period. This makes it possible to reduce the processing load compared to a configuration in which the enlargement process is executed every time during the simple display period.

<同時表示演出に係る構成の別形態>
・増加時用エフェクト画像EG6を表示するための画像データとして簡易エフェクト用画像データED6は設けられているものの通常エフェクト用画像データED5は設けられていない構成としてもよい。この場合であっても、多数表示期間の開始タイミングにおいて画像データの読み出しに要する時間の短縮化を図りながら増加時用エフェクト画像ED6を表示することが可能となる。当該構成においては、簡易エフェクト用画像データED6が演出用キャラクタCH3〜CH7を表示するための画像データと同一の解像度となるように拡大処理が実行されることとなる。
<Another form of configuration related to simultaneous display effects>
A configuration may be adopted in which the simple effect image data ED6 is provided as image data for displaying the increase effect image EG6, but the normal effect image data ED5 is not provided. Even in this case, it is possible to display the increase effect image ED6 while reducing the time required to read the image data at the start timing of the multiple display period. In this configuration, the enlargement process is executed so that the simple effect image data ED6 has the same resolution as the image data for displaying the effect characters CH3 to CH7.

・簡易エフェクト用画像データED6は通常エフェクト用画像データED5の半分の解像度に設定されている構成としたが、これに限定されることはなく、例えば1/4の解像度に設定されている構成としてもよく、1/3の解像度に設定されている構成としてもよく、2/3の解像度に設定されている構成としてもよい。   The simple effect image data ED6 is set to a half resolution of the normal effect image data ED5. However, the present invention is not limited to this. For example, the simple effect image data ED6 is set to a resolution of 1/4. Alternatively, the resolution may be set to 1/3, or the resolution may be set to 2/3.

・簡易エフェクト用画像データED6が上記実施形態のように拡大させて使用される期間と、メモリモジュール74に記憶されている解像度のまま使用される期間とが存在している構成としてもよい。例えば、表示面Pの全体を利用して増加時用エフェクト画像EG6が表示される場合には簡易エフェクト用画像データED6を拡大して使用し、表示面Pの一部を区画するように設定された区画領域内の範囲内で増加時用エフェクト画像EG6が表示される場合には簡易エフェクト用画像データED6をそのままの解像度で使用する構成としてもよい。   A configuration in which there is a period during which the simplified effect image data ED6 is enlarged and used as in the above embodiment and a period during which the resolution stored in the memory module 74 is used may be employed. For example, when the increase effect image EG6 is displayed using the entire display surface P, the simplified effect image data ED6 is enlarged and used so as to partition a part of the display surface P. In the case where the increase effect image EG6 is displayed within the range within the divided area, the simple effect image data ED6 may be used at the same resolution.

・簡易エフェクト用画像データED6が1個のみ設けられている構成に代えて、簡易エフェクト用画像データED6が複数設けられている構成としてもよい。これにより、簡易エフェクト用画像データED6を利用して増加時用エフェクト画像EG6を表示する場合であっても、当該増加時用エフェクト画像EG6の表示態様を変化させることが可能となる。当該構成においては、簡易エフェクト用画像データED6を利用した増加時用エフェクト画像EG6の表示を開始するタイミングにおいて全ての簡易エフェクト用画像データED6をまとめて読み出すのではなく、各更新タイミングのそれぞれにおいて使用対象となる簡易エフェクト用画像データED6を個別に読み出し、さらに読み出した簡易エフェクト用画像データED6に対して拡大処理(ステップS2109)を実行する構成とすることが好ましい。   Instead of a configuration in which only one simple effect image data ED6 is provided, a configuration in which a plurality of simple effect image data ED6 are provided may be employed. Accordingly, even when the increase effect image EG6 is displayed using the simple effect image data ED6, the display mode of the increase effect image EG6 can be changed. In this configuration, not all the simple effect image data ED6 are read out together at the timing of starting the display of the increase effect image EG6 using the simple effect image data ED6, but used at each update timing. It is preferable that the target simple effect image data ED6 is individually read out, and the enlargement process (step S2109) is performed on the read out simple effect image data ED6.

<第2の実施形態>
本実施形態では、表示制御に関する電気的構成が上記第1の実施形態と異なっている。以下、上記第1の実施形態との相違点について説明する。図41は、本実施形態における電気的構成を示すブロック図である。
<Second Embodiment>
In the present embodiment, the electrical configuration relating to display control is different from that of the first embodiment. Hereinafter, differences from the first embodiment will be described. FIG. 41 is a block diagram showing an electrical configuration in the present embodiment.

図41に示す構成では上記第1の実施形態と同様に、主制御装置50を備えている。また、主制御装置50には、払出装置56を制御する払出制御装置55と、主制御装置50を含めた各機器への電力供給の機能を担うとともに遊技球発射機構58を駆動制御する電源・発射制御装置57と、遊技回の結果を表示する特図ユニット37と、普電開放抽選の結果を表示する普図ユニット38と、が電気的に接続されている。また、主制御装置50から送信されるコマンドに基づいて表示発光部44及びスピーカ部45を駆動制御する音声発光制御装置60が設けられており、さらに当該音声発光制御装置60から送信されるコマンドに基づいて図柄表示装置41を制御する表示制御装置130が設けられている。   In the configuration shown in FIG. 41, the main control device 50 is provided as in the first embodiment. Further, the main control device 50 has a payout control device 55 for controlling the payout device 56 and a power supply for driving and controlling the game ball launching mechanism 58 as well as a function of supplying power to each device including the main control device 50. The launch control device 57, a special figure unit 37 for displaying the result of the game times, and a general figure unit 38 for displaying the result of the public power open lottery are electrically connected. In addition, an audio light emission control device 60 that drives and controls the display light emitting unit 44 and the speaker unit 45 based on a command transmitted from the main control device 50 is provided, and further, a command transmitted from the audio light emission control device 60 is provided. A display control device 130 for controlling the symbol display device 41 is provided.

表示制御装置130は、図41に示すように、表示CPU131と、ワークRAM132と、メモリモジュール133と、VRAM134と、ビデオディスプレイプロセッサ(VDP)135と、が搭載された表示制御基板136を備えている。   As shown in FIG. 41, the display control device 130 includes a display control board 136 on which a display CPU 131, a work RAM 132, a memory module 133, a VRAM 134, and a video display processor (VDP) 135 are mounted. .

表示CPU131は、表示制御装置130においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU131は表示制御基板136に搭載された入力ポート137に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート137を通じて表示CPU131に入力される。   The display CPU 131 has a function as a main control unit in the display control device 130, and reads, interprets, and executes a control program and the like. Specifically, the display CPU 131 is connected to an input port 137 mounted on the display control board 136 via a bus, and various commands transmitted from the sound emission control device 60 are input to the display CPU 131 through the input port 137. Is done.

表示CPU131は、バスを介してワークRAM132、メモリモジュール133及びVRAM134と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール133に記憶された各種データをワークRAM132に転送させる転送指示を行う。また、表示CPU131は、バスを介してVDP135と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置41に3次元画像(3D画像)を表示させるための描画指示を行う。以下、メモリモジュール133、ワークRAM132、VRAM134及びVDP135について説明する。   The display CPU 131 is connected to the work RAM 132, the memory module 133, and the VRAM 134 via a bus, and transfers various data stored in the memory module 133 to the work RAM 132 based on commands received from the sound emission control device 60. Instruct the transfer. Further, the display CPU 131 is connected to the VDP 135 via a bus, and based on a command received from the sound emission control device 60, a display instruction for displaying a three-dimensional image (3D image) on the symbol display device 41. Do. Hereinafter, the memory module 133, the work RAM 132, the VRAM 134, and the VDP 135 will be described.

メモリモジュール133は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、3次元画像を表示するための各種画像データを予め記憶している記憶手段である。当該メモリモジュール133は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール133は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。   The memory module 133 is storage means that stores control data including a control program and fixed value data in advance and stores various image data for displaying a three-dimensional image in advance. The memory module 133 includes a non-volatile semiconductor memory that does not require external power supply for storage. Incidentally, the storage capacity is 4 Gbits, but such a storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily executed. In addition, when the pachinko machine 10 is used, the memory module 133 is used as a non-write and read-only memory (ROM).

メモリモジュール133に記憶されている各種画像データには、図柄表示装置41に表示される図柄やキャラクタなどのオブジェクトデータと、当該オブジェクトデータに貼り付けられるテクスチャデータと、1フレーム分の画像において最背面の画像を構成する背面用の画像データとが含まれている。   The various image data stored in the memory module 133 includes object data such as symbols and characters displayed on the symbol display device 41, texture data to be pasted on the object data, and the rearmost surface of the image for one frame. Image data for the back side that constitutes the image.

ここで、オブジェクトデータとは、仮想3次元空間に相当する3次元の座標系であるワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。また、ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。オブジェクトデータには、例えばサーフェスモデルを適用するため、オブジェクトデータ毎に予め設定された基準座標を原点として、各ポリゴンの頂点座標情報が設定されている。つまり、各オブジェクトデータでは、自己完結のローカル座標系において各ポリゴンの相対位置(すなわち、向きやサイズ)が3次元的に定義されている。   Here, the object data is a three-dimensional virtual object arranged in a world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional space, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygonal plane defined by vertices of a plurality of three-dimensional coordinates. In order to apply, for example, a surface model to the object data, vertex coordinate information of each polygon is set with reference coordinates preset for each object data as the origin. That is, in each object data, the relative position (that is, direction and size) of each polygon is three-dimensionally defined in a self-contained local coordinate system.

テクスチャデータとは、オブジェクトデータの各ポリゴンに貼り付ける画像であり、テクスチャデータがオブジェクトデータに貼り付けられることにより、オブジェクトデータに対応する画像、例えば図柄やキャラクタなどを含む表示画像が生成される。テクスチャデータの持ち方は、任意であるが、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照されるカラーパレットとの組合せを少なくとも含んでいる。   The texture data is an image to be pasted on each polygon of the object data. When the texture data is pasted on the object data, an image corresponding to the object data, for example, a display image including a pattern or a character is generated. The texture data may be held in any manner, but includes at least a combination of, for example, bitmap format data and a color palette that is referred to when determining the display color at each pixel of the bitmap image.

最背面の画像は、2次元画像(2D画像)を構成している。背面用の画像データの持ち方は、任意であるが、例えば2次元の静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。ちなみに、当該背面用の画像データがワールド座標系に配置される場合には板状オブジェクトデータ(すなわち板ポリゴン)が利用される。   The rearmost image constitutes a two-dimensional image (2D image). The manner of holding the image data for the back is arbitrary, but for example, it is stored and held as JPEG format data in a state in which two-dimensional still image data is compressed. Incidentally, plate-like object data (that is, plate polygon) is used when the image data for the back side is arranged in the world coordinate system.

ワークRAM132は、メモリモジュール133から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM132は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、ワークRAM132は、パチンコ機10の使用に際して、読み書き両用として用いられる。   The work RAM 132 is a storage means for temporarily storing control data read and transferred from the memory module 133 and temporarily storing flags and the like. The work RAM 132 includes a volatile semiconductor memory that requires an external power supply for storing and holding, and in detail, a DRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as SRAM may be used. The storage capacity is 1 Gbit, but such a storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily performed. The work RAM 132 is used for both reading and writing when the pachinko machine 10 is used.

ワークRAM132には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から制御用データが転送される。そして、表示CPU131は、ワークRAM132に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。   Based on a data transfer instruction from the display CPU 131 to the memory module 133, control data is transferred from the memory module 133 to the work RAM 132. The display CPU 131 reads the control data transferred to the work RAM 132 into an internal memory area (register group) as necessary, and executes various processes.

VRAM134は、図柄表示装置41に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM134は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該VRAM134は、パチンコ機10の使用に際して、読み書き両用として用いられる。   The VRAM 134 is storage means for temporarily storing various data necessary for image output to the symbol display device 41. The VRAM 134 includes a volatile semiconductor memory that requires external power supply for storage and holding, and an SDRAM is used as the semiconductor memory in detail. However, it is not limited to SDRAM, and other RAM such as DRAM, SRAM or dual port RAM may be used. Note that the storage capacity is 2 Gbit, but such a storage capacity is arbitrary as long as the control in the display control device 130 is executed satisfactorily. The VRAM 134 is used for both reading and writing when the pachinko machine 10 is used.

VRAM134は展開用バッファ141を備えており、展開用バッファ141には、VDP135からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から画像データが転送される。また、VRAM134には、VDP135により描画データが作成されるフレームバッファ142が設けられている。   The VRAM 134 includes a development buffer 141, and image data is transferred from the memory module 133 to the development buffer 141 based on a data transfer instruction from the VDP 135 to the memory module 133. The VRAM 134 is provided with a frame buffer 142 in which drawing data is created by the VDP 135.

VDP135は、表示CPU131からの描画指示に基づき、展開用バッファ141に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置41に対して描画を行う画像生成デバイスであり、図柄表示装置41において液晶表示部41aを駆動制御するように組み込まれた画像処理デバイス41bを操作する一種の描画回路である。VDP135はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。   The VDP 135 is an image generation device that performs drawing on the symbol display device 41 by specifically processing the data stored and held in the development buffer 141 based on a drawing instruction from the display CPU 131. Yes, it is a kind of drawing circuit that operates an image processing device 41b incorporated in the symbol display device 41 so as to drive and control the liquid crystal display unit 41a. Since the VDP 135 is an IC chip, it is also referred to as a “drawing chip”, and the substance of the VDP 135 can be said to be a microcomputer chip with a dedicated firmware for drawing.

詳細には、VDP135は、ジオメトリ演算部151と、レンダリング部152と、レジスタ153と、表示回路155と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU131用のI/F156及びVRAM134用のI/F157と接続されている。   Specifically, the VDP 135 includes a geometry calculation unit 151, a rendering unit 152, a register 153, and a display circuit 155. These circuits are connected to each other via a bus, and are also connected to an I / F 156 for the display CPU 131 and an I / F 157 for the VRAM 134.

表示CPU131用のI/F156は、表示CPU131から送信された描画指示情報としての描画リストをレジスタ153に記憶させる。ジオメトリ演算部151は、レジスタ153に格納された描画リストに基づいて、メモリモジュール133に記憶されている各種画像データをVRAM134の展開用バッファ141に読み出す。また、ジオメトリ演算部151は、配置対象として指定されているオブジェクトデータをワールド座標系内に配置する。また、ジオメトリ演算部151は、オブジェクトデータをワールド座標系内に配置する場合及び配置した後に、各種の座標変換処理を実行する。そして、最終的に表示面Pのスクリーン座標に対応する3次元空間に対応させて、オブジェクトをクリッピングする。   The I / F 156 for the display CPU 131 stores a drawing list as drawing instruction information transmitted from the display CPU 131 in the register 153. The geometry calculation unit 151 reads various image data stored in the memory module 133 to the development buffer 141 of the VRAM 134 based on the drawing list stored in the register 153. In addition, the geometry calculation unit 151 arranges object data designated as an arrangement target in the world coordinate system. The geometry calculation unit 151 executes various coordinate conversion processes when and after the object data is arranged in the world coordinate system. Finally, the object is clipped in correspondence with the three-dimensional space corresponding to the screen coordinates of the display surface P.

レンダリング部152は、レジスタ153に格納された描画リストに基づいて、クリッピングされた各オブジェクトデータに対して光源調整や、テクスチャデータの貼付を行い、オブジェクトデータの外観を決定する。また、レンダリング部152は、各オブジェクトデータを所定の2次元平面上に投影させて2次元データを作成するとともに、深度情報に基づく各種調整を行い2次元データである1フレーム分の描画データをフレームバッファ142に作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置41の表示面Pにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるのに必要なデータのことをいう。   Based on the drawing list stored in the register 153, the rendering unit 152 performs light source adjustment and pasting of texture data on each clipped object data to determine the appearance of the object data. In addition, the rendering unit 152 projects each object data onto a predetermined two-dimensional plane to create two-dimensional data, and performs various adjustments based on depth information to frame drawing data for one frame that is two-dimensional data. Created in the buffer 142. The drawing data for one frame refers to data necessary for displaying an image at one update timing in a configuration in which the image on the display surface P of the symbol display device 41 is updated at a predetermined update timing. Say.

なお、ジオメトリ演算部151及びレンダリング部152が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリをVDP135に内蔵させ、当該制御プログラムと描画リストの内容によってジオメトリ演算部151及びレンダリング部152が処理を実行する構成としてもよい。また、メモリモジュール133から制御プログラムを事前に読み出す構成としてもよい。また、ジオメトリ演算部151及びレンダリング部152がプログラムを利用することなく、描画リストに対応したハード回路の動作のみで処理を実行する構成としてもよい。   Note that all of the control programs for operating the geometry calculation unit 151 and the rendering unit 152 may be provided by the drawing list. A memory in which the control program is stored in advance is built in the VDP 135, and the control program and the drawing list are stored. The geometry calculation unit 151 and the rendering unit 152 may execute processing according to the contents of the above. Alternatively, the control program may be read from the memory module 133 in advance. Further, the geometry calculation unit 151 and the rendering unit 152 may execute the process only by the operation of the hardware circuit corresponding to the drawing list without using a program.

ここで、フレームバッファ142には、複数のフレーム領域142a,142bが設けられている。具体的には、第1フレーム領域142aと、第2フレーム領域142bとが設けられている。これら各フレーム領域142a,142bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域142a,142bにはそれぞれ、液晶表示部41a(すなわち表示面P)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。   Here, the frame buffer 142 is provided with a plurality of frame regions 142a and 142b. Specifically, a first frame region 142a and a second frame region 142b are provided. Each of these frame areas 142a and 142b is set to a capacity capable of storing drawing data for one frame. Specifically, each of the frame regions 142a and 142b includes a large number of unit areas corresponding to dots (pixels) of the liquid crystal display unit 41a (that is, the display surface P) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color to display. More specifically, a full color method is employed, and 256 colors can be set for each of R (red), G (green), and B (blue) in each dot. Corresponding to this, in each unit area, 1 byte (8 bits) is assigned to each RGB color. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。   Note that the present invention is not limited to the full-color method, and for example, in a configuration that can display only 256 colors in each dot, the storage capacity required to store color information in each unit area may be 1 byte.

フレームバッファ142に第1フレーム領域142a及び第2フレーム領域142bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置41への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ142として、ダブルバッファ方式が採用されている。   Since the first frame area 142a and the second frame area 142b are provided in the frame buffer 142, drawing on the symbol display device 41 is executed using drawing data created in one frame area. The creation of drawing data to be used in the future is executed for other frame regions. That is, a double buffer system is adopted as the frame buffer 142.

表示回路155では、第1フレーム領域142a又は第2フレーム領域142bに作成された描画データに基づいて液晶表示部41aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路155に接続された出力ポート138を介して図柄表示装置41に出力される。詳細には、出力対象のフレーム領域142a,142bから表示回路155へ描画データが転送される。その転送された描画データは図柄表示装置41の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置41の各ドットに対応した画像信号が生成されて出力される。なお、表示回路155からは水平同期信号又は垂直同期信号などの同期信号も出力される。   In the display circuit 155, an image signal corresponding to each dot of the liquid crystal display unit 41a is generated based on the drawing data created in the first frame region 142a or the second frame region 142b, and the image signal is sent to the display circuit 155. It is output to the symbol display device 41 via the connected output port 138. Specifically, the drawing data is transferred from the frame areas 142 a and 142 b to be output to the display circuit 155. The transferred drawing data is converted into gradation data by adjusting the resolution by a scaler (not shown) so as to correspond to the resolution of the symbol display device 41. Based on the gradation data, an image signal corresponding to each dot of the symbol display device 41 is generated and output. Note that the display circuit 155 also outputs a synchronization signal such as a horizontal synchronization signal or a vertical synchronization signal.

<表示CPU131における基本的な処理>
次に、表示CPU131における基本的な処理について説明する。表示CPU131ではコマンド割込み処理及びV割込み処理が実行される。コマンド割込み処理の内容は、上記第1の実施形態と同様である。また、V割込み処理の内容は、ステップS608のタスク処理を除き、上記第1の実施形態の表示CPU72にて実行されるV割込み処理(図15)と同様である。
<Basic Processing in Display CPU 131>
Next, basic processing in the display CPU 131 will be described. The display CPU 131 executes command interrupt processing and V interrupt processing. The contents of the command interrupt process are the same as those in the first embodiment. The contents of the V interrupt process are the same as the V interrupt process (FIG. 15) executed by the display CPU 72 of the first embodiment except for the task process of step S608.

図42は、本実施形態におけるタスク処理を示すフローチャートである。   FIG. 42 is a flowchart showing task processing in the present embodiment.

まずステップS2201では、ワークRAM132に設けられた遅延中フラグに「1」がセットされているか否かを判定する。遅延中フラグに「1」がセットされていない場合(ステップS2201:NO)、ステップS2202にて制御開始用の設定処理を実行する。制御開始用の設定処理では、今回の処理回で表示CPU131において新たに制御を開始する個別画像を設定するための処理を実行する。なお、本実施形態において個別画像とは、背面用の画像データなどの静止画像データにより規定される一の2D画像や、オブジェクトデータとテクスチャデータとの組合せにより規定される一の3D画像のことである。   First, in step S2201, it is determined whether or not “1” is set in the in-delay flag provided in the work RAM 132. When “1” is not set in the in-lag flag (step S2201: NO), a setting process for starting control is executed in step S2202. In the setting process for starting control, the display CPU 131 executes a process for setting an individual image for newly starting control in the current processing time. In the present embodiment, an individual image is a 2D image defined by still image data such as image data for the back surface or a 3D image defined by a combination of object data and texture data. is there.

制御開始用の設定処理について具体的には、まず現状設定されている実行対象テーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM132において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータ情報を設定する。   Specifically, regarding the setting process for starting the control, first, based on the currently set execution target table, it is determined whether or not there is an individual image to be controlled in the current processing round. If present, the work RAM 132 searches for a free buffer area for performing various calculations in controlling the individual image, and corresponds to the individual image grasped as a control start target on a one-to-one basis. Reserve a free buffer area. Further, initialization processing is executed for all the reserved empty buffer areas, and parameter information for starting control according to the individual image is set for the initialized empty buffer areas.

続くステップS2202では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。   In subsequent step S2202, the control update target is grasped. This control update target is an individual image for which the control start process has been completed, and an individual image that may be included in an image for one frame after the current processing time.

その後、ステップS2204にてV割込み処理の新たな起動を許可し、直後のステップS2205にてV割込み処理の新たな起動を禁止した後に、背景用演算処理を実行する(ステップS2206)。背景用演算処理では、背景の画像を構成することとなる最背面用の画像や、背景用キャラクタについて、ワールド座標系内における座標、回転角度、スケール、明暗を付けるためのライトの情報、投影を行うためのカメラの情報、及びZテスト指定などといった描画リストを作成する上で必要な各種パラメータ情報を演算して導き出す処理を実行する。   After that, new activation of the V interrupt process is permitted in step S2204, and new activation of the V interrupt process is prohibited in step S2205 immediately after that, the background arithmetic process is executed (step S2206). In the background calculation processing, coordinates, rotation angles, scales, light information for adding light and darkness, and projections are applied to the background image and background characters that make up the background image. A process of calculating and deriving various parameter information necessary for creating a drawing list such as camera information to be performed and a Z test designation is executed.

その後、ステップS2207にてV割込み処理の新たな起動を許可し、直後のステップS2208にてV割込み処理の新たな起動を禁止した後に、演出用演算処理を実行する(ステップS2209)。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる個別画像について、上記各種パラメータ情報を演算して導き出す処理を実行する。   After that, new activation of the V interrupt process is permitted in step S2207, and after the new activation of the V interrupt process is prohibited in step S2208, the effect calculation process is executed (step S2209). In the effect calculation process, a process of calculating and deriving the various parameter information is executed for individual images to be displayed in various effects such as reach display, notice display, and jackpot effect.

その後、ステップS2210にてV割込み処理の新たな起動を許可し、直後のステップS2211にてV割込み処理の新たな起動を禁止した後に、図柄用演算処理を実行する(ステップS2212)。図柄用演算処理では、各遊技回において変動表示の対象となる図柄の画像について、上記各種パラメータ情報を演算して導き出す処理を実行する。   After that, a new activation of the V interrupt process is permitted in step S2210, and a new activation of the V interrupt process is prohibited in the immediately following step S2211, and then the symbol calculation process is executed (step S2212). In the symbol calculation process, a process for calculating and deriving the above-described various parameter information is performed on a symbol image to be subjected to variable display in each game round.

ちなみに、ステップS2206、ステップS2209及びステップS2212の各処理では、ステップS2201にて設定された制御開始用のパラメータ情報を更新する処理を実行する。また、ステップS2206、ステップS2209及びステップS2212の各処理では、個別画像の各種パラメータ情報を画像更新タイミングとなる度に特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、個別画像の種類に応じて定められている。また、アニメーション用データは、メモリモジュール133に予め記憶されている。また、図柄用演算処理では、不正報知用又は状態報知用の実行対象テーブルがワークRAM132に読み出されている場合、当該実行対象テーブルに対応した報知画像を表示するための演算処理を実行するとともにその報知画像を表示するための報知スプライト、及び当該報知スプライトに適用する各種パラメータ情報を導出する。   Incidentally, in each process of step S2206, step S2209, and step S2212, the process which updates the parameter information for control start set in step S2201 is performed. In each process of step S2206, step S2209, and step S2212, animation data set to change various parameter information of an individual image according to a specific pattern every time the image update timing comes is used. This animation data is determined according to the type of individual image. The animation data is stored in the memory module 133 in advance. In the symbol calculation process, when the execution table for fraud notification or status notification is read to the work RAM 132, the calculation process for displaying a notification image corresponding to the execution target table is executed. A notification sprite for displaying the notification image and various parameter information applied to the notification sprite are derived.

その後、ステップS2213にて、ワークRAM132に設けられた演算完了フラグに「1」をセットするとともに、ステップS2214にてワールド座標系への配置対象の把握処理を実行した後に、本タスク処理を終了する。ワールド座標系への配置対象の把握処理では、上記ステップS2206、ステップS2209及びステップS2212の各処理により制御更新対象となった各個別画像のうち、今回の描画リストにおいて描画対象として設定する個別画像を把握する処理を実行する。当該把握は、現状設定されている実行対象テーブルに基づいて行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。   After that, in step S2213, "1" is set to the calculation completion flag provided in the work RAM 132, and after executing the process of grasping the placement target in the world coordinate system in step S2214, this task process is terminated. . In the process of grasping the placement target in the world coordinate system, the individual image set as the drawing target in the current drawing list among the individual images that are the control update targets by the processes in steps S2206, S2209, and S2212. Execute the process to grasp. The grasp is performed based on the currently set execution target table. The individual image grasped here is set as a drawing target in the drawing list.

つまり、表示CPU131にて制御対象となる個別画像の方が、VDP135にて制御対象となる個別画像よりも多く設定されているため、ステップS2214においてその調整を行っている。但し、これに限定されることはなく、表示CPU131において制御対象となる個別画像と、VDP135において制御対象となる個別画像とが同一である構成としてもよく、この場合、ステップS2214の処理を実行する必要がなくなる。   That is, since the individual images to be controlled by the display CPU 131 are set more than the individual images to be controlled by the VDP 135, the adjustment is performed in step S2214. However, the present invention is not limited to this, and the individual image to be controlled in the display CPU 131 and the individual image to be controlled in the VDP 135 may be the same. In this case, the process of step S2214 is executed. There is no need.

一方、遅延中フラグに「1」がセットされている場合(ステップS2201:YES)、ステップS2215にて遅延中フラグを「0」クリアした後に、前回のタスク処理においてV割込み処理の新たな処理回が開始される直前に実行していた処理にジャンプする(ステップS2216)。これにより、前回のタスク処理において中断が発生したタイミングから処理の実行を再開することが可能となる。なお、遅延中フラグ及び演算完了フラグの内容は上記第1の実施形態と同様であるとともに、タスク処理においてステップS2201、ステップS2204〜ステップS2205、ステップS2207〜ステップS2208、ステップS2210〜ステップS2211、ステップS2213及びステップS2215〜ステップS2216が実行されることによる作用効果も上記第1の実施形態と同様である。   On the other hand, when “1” is set in the delay flag (step S2201: YES), after the delay flag is cleared to “0” in step S2215, a new processing time of the V interrupt processing is performed in the previous task processing. The process jumps to the process that was being executed immediately before the start (step S2216). As a result, the execution of the process can be resumed from the timing when the interruption occurred in the previous task process. The contents of the delayed flag and the calculation completion flag are the same as those in the first embodiment, and in task processing, step S2201, step S2204 to step S2205, step S2207 to step S2208, step S2210 to step S2211, and step S2213 are performed. In addition, the operational effects obtained by executing Steps S2215 to S2216 are the same as those in the first embodiment.

<VDP135における基本的な処理>
次に、VDP135にて実行される基本的な処理について説明する。
<Basic processing in the VDP 135>
Next, basic processing executed by the VDP 135 will be described.

VDP135では、表示CPU131から送信されたコマンドに基づいてレジスタ153の値を設定する処理、表示CPU131から送信された描画リストに基づいてフレームバッファ142のフレーム領域142a,142bに描画データを作成する処理、フレーム領域142a,142bに作成された描画データに基づいて図柄表示装置41に画像信号を出力する処理が少なくとも実行される。   In the VDP 135, a process for setting the value of the register 153 based on a command transmitted from the display CPU 131, a process for creating drawing data in the frame areas 142a and 142b of the frame buffer 142 based on the drawing list transmitted from the display CPU 131, At least processing for outputting an image signal to the symbol display device 41 is executed based on the drawing data created in the frame regions 142a and 142b.

上記各処理のうち、レジスタ153の値を設定する処理は、表示CPU131用のI/F156に付随する図示しない回路によって、描画リストを受信した場合にその都度実行される。また、描画データを作成する処理は、ジオメトリ演算部151及びレンダリング部152の協同により、予め定められた周期(例えば、20msec)で繰り返し実行される。また、画像信号を出力する処理は、表示回路155によって、予め定められた画像信号の出力開始タイミングとなることで実行される。   Of the above processes, the process of setting the value of the register 153 is executed each time a drawing list is received by a circuit (not shown) attached to the I / F 156 for the display CPU 131. Further, the process of creating drawing data is repeatedly executed at a predetermined cycle (for example, 20 msec) in cooperation with the geometry calculation unit 151 and the rendering unit 152. Further, the process of outputting the image signal is executed by the display circuit 155 at a predetermined output start timing of the image signal.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU131からVDP135に送信される描画リストの内容について説明する。図43(a)〜(c)は描画リストの内容を説明するための説明図である。   Hereinafter, the process of creating the drawing data will be described in detail. Prior to the description of the processing, the contents of the drawing list transmitted from the display CPU 131 to the VDP 135 will be described. 43A to 43C are explanatory diagrams for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像を、第1フレーム領域142a及び第2フレーム領域142bのうちいずれを作成対象とするかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、各種指定情報が設定されている。   Header information is set in the drawing list. In the header information, information of a target buffer, which is information indicating which one of the first frame area 142a and the second frame area 142b is to be created, is set for an image of one frame related to the drawing list. Yes. In addition, various designation information is set in the header information.

描画リストには、上記ヘッダ情報以外にも、今回の描画データの作成に際してワールド座標系への配置対象となる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させてパラメータ情報が設定されている。   In the drawing list, in addition to the header information, a plurality of types of image data to be arranged in the world coordinate system are set when creating the drawing data this time, and information on the drawing order of each image data, Parameter information of each image data is set. More specifically, the drawing order information is set so as to be sequential numerical value information, and parameter information is set in a one-to-one correspondence with each numerical information.

図43(a)の描画リストでは、背面用の画像データが最初の描画対象として設定されているとともに、背景用オブジェクトAが2番目、背景用オブジェクトBが3番目、・・・として設定されている。また、これら背景用の画像データよりも後の順番として、演出用の画像データが設定されており、例えば演出用オブジェクトAがm番目、演出用オブジェクトBがm+1番目、・・・として設定されている。また、これら演出用の画像データよりも後の順番として、図柄用の画像データが設定されており、例えば図柄用オブジェクトAがn番目、図柄用オブジェクトBがn+1番目、・・・として設定されている。   In the drawing list of FIG. 43A, the image data for the back is set as the first drawing target, the background object A is set as the second, the background object B is set as the third, and so on. Yes. Also, as the order after the background image data, the effect image data is set, for example, the effect object A is set as mth, the effect object B is set as m + 1, and so on. Yes. Further, as the order after the effect image data, symbol image data is set, for example, symbol object A is set as nth, symbol object B is set as n + 1th,... Yes.

なお、描画リストにおいて各画像データが設定されている順番は上記のものに限定されることはなく、設定されている順番が上記のものとは逆の順番であってもよく、図柄用の画像データの後に演出用の画像データ又は背景用の画像データが設定されていてもよく、所定の演出用の画像データと他の演出用の画像データとの間の順番に図柄用の画像データが設定されていてもよい。   It should be noted that the order in which the image data is set in the drawing list is not limited to the above, and the set order may be the reverse of the above, and the design image The image data for presentation or the image data for background may be set after the data, and the image data for the design is set in the order between the predetermined presentation image data and the other presentation image data. May be.

パラメータ情報P(1),P(2),P(3),・・・,P(m),P(m+1),・・・,P(n),P(n+1),・・・には、複数種類のパラメータ情報が設定されている。背面用の画像データのパラメータ情報P(1)について具体的には、図43(b)に示すように、メモリモジュール133において背面用の画像データが記憶されているエリアのアドレスの情報と、背面用の画像データを設定する場合におけるワールド座標系内の位置を示す座標の情報(X値の情報,Y値の情報,Z値の情報)と、背面用の画像データを設定する場合におけるワールド座標系内の回転角度を示す回転角度の情報と、背面用の画像データの初期状態として設定されているスケールに対して、ワールド座標系に設定する際の倍率を示すスケールの情報と、背面用の画像データを設定する場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、が設定されている。   Parameter information P (1), P (2), P (3), ..., P (m), P (m + 1), ..., P (n), P (n + 1), ... Multiple types of parameter information are set. Specifically, the parameter information P (1) of the image data for the back surface, as shown in FIG. 43B, the address information of the area where the image data for the back surface is stored in the memory module 133, and the back surface information. Information (X value information, Y value information, Z value information) indicating the position in the world coordinate system when setting image data for use, and world coordinates when setting image data for the back side The rotation angle information indicating the rotation angle in the system, the scale information indicating the magnification when setting to the world coordinate system with respect to the scale set as the initial state of the image data for the back surface, Uniform α value information indicating overall transmission information (or transparency information) when image data is set is set.

ここで、座標の情報は、オブジェクトデータの全頂点について個別に設定される。また、この座標の情報はオブジェクトデータに対して設定されているが、テクスチャデータには設定されていない。テクスチャデータは、各ピクセルの座標値が、オブジェクトデータの各頂点に関連付けて予め定められている。この座標値は、ワールド座標系における座標値とは異なるUV座標値であり、オブジェクトデータ及びテクスチャデータの組合せに対して付属させた状態でメモリモジュール133に記憶されている。このUV座標値はテクスチャマッピングする際にVDP135により参照される。   Here, the coordinate information is individually set for all vertices of the object data. The coordinate information is set for the object data, but is not set for the texture data. In the texture data, the coordinate value of each pixel is predetermined in association with each vertex of the object data. This coordinate value is a UV coordinate value different from the coordinate value in the world coordinate system, and is stored in the memory module 133 in a state of being attached to a combination of object data and texture data. This UV coordinate value is referred to by the VDP 135 when texture mapping is performed.

パラメータ情報(P1)には、背面用の画像データを描画用の仮想2次元平面上に投影する場合における仮想カメラの座標及び向きの情報を含むカメラの情報と、背面用の画像データをレンダリングする場合における陰影を決定する仮想光源の位置及び向きの情報を含むライトの情報と、が設定されている。   In the parameter information (P1), the camera information including the coordinates and orientation information of the virtual camera when the rear image data is projected onto the drawing virtual two-dimensional plane, and the rear image data are rendered. Light information including information on the position and orientation of the virtual light source that determines the shadow in the case is set.

パラメータ情報(P1)には、隠面消去を行う手法の一種であるZバッファ法の適用有無を示すZテスト指定の情報が設定されている。Zバッファ法とは、ワールド座標系内において多数のオブジェクトや2次元画像が奥行き方向(Z軸方向)に重なった場合に、Z軸上に並ぶ各ピクセル(又は各ボクセル、各画素、各ポリゴン)について視点からの距離を順次参照し、最も視点に近いピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに設定する深度調整用の処理方法である。   In the parameter information (P1), Z test designation information indicating whether or not to apply the Z buffer method, which is a type of hidden surface removal method, is set. The Z buffer method means that each pixel (or each voxel, each pixel, each polygon) arranged on the Z axis when a large number of objects or two-dimensional images overlap in the depth direction (Z axis direction) in the world coordinate system. This is a depth adjustment processing method in which the distance from the viewpoint is sequentially referred to, and numerical information set in the pixel closest to the viewpoint is set in the corresponding unit area in the frame regions 142a and 142b.

なお、上記隠面消去を行う手法としてZバッファ法以外にも、Zソート法が設定されている。Zソート法とは、Z軸上に並ぶ各ピクセルについて、各ピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに順次設定する深度調整用の処理方法である。当該Zソート法を適用する場合には、各ピクセルに設定されているα値が参照されて、Z軸上に並ぶ各ピクセルの色情報に対応した数値情報に対して対応するα値が適用された状態で、それら数値情報の加算処理や融合用の演算処理が実行されることとなる。Zソートによる隠面処理の具体的な処理構成の説明は省略するが、エフェクト画像を表示させる場合に起動される。   In addition to the Z buffer method, the Z sort method is set as a method for performing the hidden surface removal. The Z sort method is a processing method for depth adjustment in which numerical information set for each pixel is sequentially set in corresponding unit areas in the frame regions 142a and 142b for each pixel arranged on the Z axis. When the Z sort method is applied, the α value set for each pixel is referred to, and the corresponding α value is applied to the numerical information corresponding to the color information of each pixel arranged on the Z axis. In this state, the addition process of the numerical information and the calculation process for fusion are executed. The description of the specific processing configuration of the hidden surface processing by Z sort is omitted, but it is activated when an effect image is displayed.

パラメータ情報(P1)には、αデータの適用有無及び適用対象を示すαデータ指定の情報と、フォグの適用有無及び適用対象を示すフォグ指定の情報と、が設定されている。   In the parameter information (P1), α data designation information indicating whether or not α data is applied and an application target, and fog specification information indicating whether or not fog is applied and the application target are set.

ここで、α値とは対応するピクセルの透過情報のことである。このα値の描画リスト上における設定の仕方として、上記一律α値を指定する方法と、αデータ指定を行う方法とがある。一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU131における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、2次元の静止画像データやテクスチャデータの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。当該αデータは、同一の静止画像データ又は同一のテクスチャデータの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。   Here, the α value is the transmission information of the corresponding pixel. As a method of setting the α value on the drawing list, there are a method of specifying the uniform α value and a method of specifying α data. The uniform α value is transmission information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 131. The uniform α value is uniformly applied to all the pixels of the image data. On the other hand, the α data is transmission information applied in units of pixels of two-dimensional still image data and texture data, and is stored in advance in the memory module 133 as image data. The alpha data can have different transmission information for each pixel within the range of the same still image data or the same texture data. The α data has a larger data capacity than program data for setting a uniform α value.

上記のように一律α値とαデータとが設定されていることにより、2次元の静止画像データやテクスチャデータの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。   Since the α value and α data are set uniformly as described above, the transparency of two-dimensional still image data and texture data can be controlled uniformly for all pixels, not finely controlled in units of pixels. In a good situation, it is possible to cope with uniform α values, so that the required data capacity can be reduced, and by applying α data, it is possible to finely control the transparency in units of pixels.

フォグとは、ワールド座標系において所定方向、具体的にはZ軸方向の位置に対する明るさの度合いを調整するための情報である。フォグは、霧を表現したり、洞窟内を表現したりする場合に使用される。ここで、1フレーム分の画像の全体に対して単一のフォグを適用してもよい。この場合、1フレーム分の画像に一定の態様でフォグがかかることとなる。また、これに代えて、1フレーム分の画像の全体に対して複数のフォグを適用してもよい。この場合、Z軸方向の奥側に配置されているオブジェクトに対してその他のオブジェクトと同様のフォグを適用すると暗すぎることで質感がでないような状況において、当該オブジェクトには別のフォグを設定する構成とするとよい。これにより、上記質感を損なわせないようにしつつ、フォグを設定することによる効果を得ることができる。   The fog is information for adjusting the degree of brightness with respect to a position in a predetermined direction, specifically, the Z-axis direction in the world coordinate system. Fog is used to express fog or inside a cave. Here, a single fog may be applied to the entire image for one frame. In this case, fog is applied to the image for one frame in a certain manner. Alternatively, a plurality of fogs may be applied to the entire image for one frame. In this case, when a fog similar to that of other objects is applied to an object arranged on the far side in the Z-axis direction, another fog is set for the object in a situation where the material is not too dark due to being too dark. It may be configured. Thereby, the effect by setting fog can be acquired, without impairing the said texture.

パラメータ情報P(2)といった他のパラメータでは、図43(c)に示すように、上記図43(b)の各種情報のうち、背面用の画像データの情報に代えて、オブジェクトの情報とテクスチャの情報とが設定されている。これらの情報としては、メモリモジュール133においてオブジェクトやテクスチャが記憶されているエリアのアドレスの情報が設定されている。   With other parameters such as parameter information P (2), as shown in FIG. 43 (c), the object information and texture are replaced with the image data information for the back of the various types of information shown in FIG. 43 (b). And information are set. As these pieces of information, information on addresses of areas where objects and textures are stored in the memory module 133 is set.

VDP135における描画処理について、図44のフローチャートを参照しながら説明する。なお、以下の説明では、描画処理の実行に伴い描画データが作成される様子を、図45を参照しながら説明する。   Drawing processing in the VDP 135 will be described with reference to the flowchart of FIG. In the following description, how drawing data is created as the drawing process is executed will be described with reference to FIG.

まずステップS2301では、表示CPU131から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS2302にて、背景用の設定処理を実行する。   First, in step S2301, it is determined whether a new drawing list is received from the display CPU 131 or not. If a new drawing list has been received, background setting processing is executed in step S2302.

背景用の設定処理では、今回の描画リストにて指定されている画像データのうち、背景画像を表示するための背面用の画像データ及びキャラクタを表示するためのオブジェクトデータを把握する。そして、それら画像データやオブジェクトデータが、ワールド座標系に既に配置されているか否かを判定する。   In the setting process for the background, the image data for the back for displaying the background image and the object data for displaying the character among the image data specified in the current drawing list are grasped. Then, it is determined whether or not the image data and object data are already arranged in the world coordinate system.

配置されていない場合には、ワールド座標系への配置を行うために参照する空きバッファ領域を画像データ毎に検索し、空きバッファ領域を確保した場合にはその領域の初期化処理を実行する。その後、メモリモジュール133においてその画像データが記憶されているアドレスを把握して読み出すとともに、描画リストに指定された座標、回転角度及びスケールとなるように、その画像データについてのローカル座標系の座標値をワールド座標系の座標値に変換させるワールド変換処理を実行して、上記確保したバッファ領域に設定する。   If it is not arranged, a free buffer area to be referred to for placement in the world coordinate system is searched for each image data, and if a free buffer area is secured, initialization processing of that area is executed. Thereafter, the memory module 133 grasps and reads out the address where the image data is stored, and the coordinate value of the local coordinate system for the image data so that the coordinates, rotation angle and scale specified in the drawing list are obtained. A world conversion process is performed to convert to a coordinate value of the world coordinate system, and the buffer area is set as described above.

配置されている場合には、既に確保されたバッファ領域に設定されている各種パラメータの更新処理を実行する。また、背景用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない背景用の画像データを消去する制御終了処理を実行する。   If it is arranged, update processing of various parameters set in the already secured buffer area is executed. In the background setting process, a control end process for erasing the background image data not specified in the current drawing list among the image data already arranged in the world coordinate system is executed.

続くステップS2303では、演出用の設定処理を実行する。演出用の設定処理では、今回の描画リストにて指定されている画像データのうち、演出画像を表示するためのオブジェクトデータを把握する。そして、その把握したオブジェクトデータが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、演出用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない演出用の画像データを消去する制御終了処理を実行する。   In a succeeding step S2303, a setting process for effect is executed. In the effect setting process, object data for displaying the effect image is grasped from the image data specified in the current drawing list. Then, it is determined whether the grasped object data is already arranged in the world coordinate system. If not, the process for starting the arrangement is executed in the same manner as described in the background setting process. If it is arranged, update processing of various parameters is executed. In the effect setting process, a control end process for erasing effect image data not specified in the current drawing list among image data already arranged in the world coordinate system is executed.

続くステップS2304では、図柄用の設定処理を実行する。図柄用の設定処理では、今回の描画リストにて指定されている画像データのうち、図柄を表示するためのオブジェクトデータを把握する。そして、その把握したオブジェクトデータが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、図柄用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない図柄用の画像データを消去する制御終了処理を実行する。   In the subsequent step S2304, a symbol setting process is executed. In the symbol setting process, object data for displaying symbols is grasped from the image data specified in the current drawing list. Then, it is determined whether the grasped object data is already arranged in the world coordinate system. If not, the process for starting the arrangement is executed in the same manner as described in the background setting process. If it is arranged, update processing of various parameters is executed. Further, in the symbol setting process, a control end process is executed to erase the symbol image data not specified in the current drawing list among the image data already arranged in the world coordinate system.

上記ステップS2302〜ステップS2304の処理が実行されることにより、図45に示すように、X軸,Y軸,Z軸で規定されたワールド座標系内に、描画リストにより配置対象として指定されている最背面画像用の画像データPC1と、各種オブジェクトデータPC2〜PC10とが、同じく描画リストにより指定されている座標、回転角度及びスケールで配置されたシーンの設定が完了する。   As a result of the processing in steps S2302 to S2304, the drawing list designates an arrangement target in the world coordinate system defined by the X, Y, and Z axes, as shown in FIG. The setting of the scene in which the image data PC1 for the rearmost image and the various object data PC2 to PC10 are arranged with the coordinates, the rotation angle, and the scale specified by the drawing list is completed.

なお、図45においては、最背面画像用の画像データPC1や各種オブジェクトデータPC2〜PC10が配置されている様子を簡易的に示している。また、最背面画像用の画像データPC1は、各種オブジェクトデータPC2〜PC10の全てに対してZ軸方向の座標が奥側に設定されている必要はなく、例えば、最背面画像用の画像データPC1が曲げられた状態又は傾斜した状態で配置されていることにより、一部のオブジェクトデータよりもZ軸方向の座標が手前側となる構成としてもよい。但し、この一部のオブジェクトデータとX軸方向の座標及びY軸方向の座標が同一である最背面画像用の画像データPC1の領域は、そのオブジェクトデータよりもZ軸方向の座標が奥側であることにより、全てのオブジェクトデータが最背面画像用の画像データPC1により覆われない状態となる。   In FIG. 45, the state in which the image data PC1 for the rearmost image and the various object data PC2 to PC10 are arranged is simply shown. Further, the image data PC1 for the rearmost image does not need to have the coordinates in the Z-axis direction on the back side with respect to all of the various object data PC2 to PC10. For example, the image data PC1 for the rearmost image It is good also as a structure by which the coordinate of a Z-axis direction becomes a near side rather than some object data by arrange | positioning in the state which was bent or inclined. However, the area of the image data PC1 for the rearmost image in which the coordinates in the X-axis direction and the coordinates in the Y-axis direction are the same as this part of the object data, the coordinates in the Z-axis direction are behind the object data. As a result, all the object data is not covered by the image data PC1 for the rearmost image.

続くステップS2305では、カメラ座標系(カメラ空間)への変換処理を実行する。カメラ座標系への変換処理では、描画リストにより指定されたカメラの情報により、視点の座標及び向きを決定するとともに、その視点の座標及び向きに基づいて、ワールド座標系を、視点を原点としたカメラ座標系(カメラ空間)に変換する。これにより、図45に示すように、カメラ形状で示す視点PC11が設定され、それに対応した座標系が設定された状態となる。   In a succeeding step S2305, conversion processing to a camera coordinate system (camera space) is executed. In the conversion process to the camera coordinate system, the coordinates and orientation of the viewpoint are determined based on the camera information specified by the drawing list, and the world coordinate system is used as the origin based on the coordinates and orientation of the viewpoint. Convert to camera coordinate system (camera space). As a result, as shown in FIG. 45, the viewpoint PC11 indicated by the camera shape is set, and the coordinate system corresponding thereto is set.

ここで、カメラの情報は、個別画像(最背面画像用の画像データPC1及び各種オブジェクトデータPC2〜PC10)毎に設定されており、実際には個別画像毎にカメラ座標系が存在することとなる。このように個別画像毎にカメラ座標系が設定されることにより、視点切換を個別に行うことが可能となり、描画データの作成の自由度が高められる。但し、説明の便宜上、図45には全ての個別画像が単一の視点に設定されている状態を示す。   Here, the camera information is set for each individual image (the image data PC1 for the backmost image and the various object data PC2 to PC10), and in fact, there is a camera coordinate system for each individual image. . Thus, by setting the camera coordinate system for each individual image, the viewpoint can be switched individually, and the degree of freedom in creating drawing data is increased. However, for convenience of explanation, FIG. 45 shows a state in which all the individual images are set to a single viewpoint.

続くステップS2306では、視野座標系(視野空間)への変換処理を実行する。視野座標系への変換処理では、上記各カメラ座標系を、視点からの視野(視野角)に対応する視野座標系に変換する。これにより、各個別画像について、対応する視点の視野内に含まれている場合にはそれが抽出されるとともに、視点から近い個別画像が拡大されるとともに、視点から遠い個別画像が縮小される。   In subsequent step S2306, conversion processing to a visual field coordinate system (visual field space) is executed. In the conversion process to the visual field coordinate system, each camera coordinate system is converted into a visual field coordinate system corresponding to the visual field (viewing angle) from the viewpoint. Thereby, when each individual image is included in the field of view of the corresponding viewpoint, it is extracted, the individual image close to the viewpoint is enlarged, and the individual image far from the viewpoint is reduced.

続くステップS2307では、クリッピング処理を実行する。クリッピング処理では、ステップS2306にて抽出された各個別画像が、それぞれ対応する視点を共通の原点として把握される。そして、その状態で描画対象のフレーム領域142a,142b(すなわち、図柄表示装置41の表示面P)に応じたスクリーン領域PC12(図45を参照)に対応する空間を基準として、ステップS2306にて抽出された各個別画像をクリッピングする。   In a succeeding step S2307, a clipping process is executed. In the clipping process, each individual image extracted in step S2306 is grasped with a corresponding viewpoint as a common origin. In this state, extraction is performed in step S2306 with reference to a space corresponding to the screen area PC12 (see FIG. 45) corresponding to the frame areas 142a and 142b to be drawn (that is, the display surface P of the symbol display device 41). Clip each individual image.

続くステップS2308では、ライティング処理を実行する。ライティング処理では、描画リストにより指定されたライトの情報により、仮想光源の種類、座標及び向きを決定するとともに、上記クリッピング処理により抽出された各オブジェクトについて上記仮想光源に基づき陰影や反射等を演算する。   In a succeeding step S2308, a lighting process is executed. In the lighting process, the type, coordinates, and orientation of the virtual light source are determined based on the light information specified by the drawing list, and shadows and reflections are calculated based on the virtual light source for each object extracted by the clipping process. .

続くステップS2309では、色情報の設定処理を実行する。色情報の設定処理では、上記クリッピング処理により抽出された各オブジェクトに対して、ピクセル単位(すなわちポリゴン単位)又は頂点単位で、色情報を設定することで、各オブジェクトの外観を決定する。かかる色情報の設定処理では、基本的に、上記クリッピング処理により抽出された各オブジェクトデータに対して、それぞれに対応するテクスチャデータを貼り付けるテクスチャマッピング処理が実行される。また、状況によっては、バンプマッピングや透明度マッピングなどの処理が実行される。   In a succeeding step S2309, a color information setting process is executed. In the color information setting process, the appearance of each object is determined by setting color information for each object extracted by the clipping process in units of pixels (that is, in units of polygons) or in units of vertices. In such color information setting processing, basically, texture mapping processing for pasting texture data corresponding to each object data extracted by the clipping processing is executed. Further, depending on the situation, processes such as bump mapping and transparency mapping are executed.

その後、ステップS2310及びステップS2311にて、ステップS2307にて抽出され、さらにライティング処理や色情報の設定処理が完了した各個別画像を、仮想2次元平面であるスクリーン領域PC12に投影(例えば、透視投影や平行投影)することで描画データを作成する。   Thereafter, in step S2310 and step S2311, each individual image extracted in step S2307 and completed with the lighting process and the color information setting process is projected onto the screen area PC12 which is a virtual two-dimensional plane (for example, perspective projection). Drawing data is created by performing parallel projection.

具体的には、まずステップS2310にて、背景用の描画データ作成処理を実行する。背景用の描画データ作成処理では、背景画像として設定されている最背面画像用の画像データ及びオブジェクトデータに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、背景用の描画データを作成する。   Specifically, in step S2310, a background drawing data creation process is executed. In the drawing data creation process for the background, the drawing for the background is performed by performing projection onto the screen area PC12 while performing hidden surface removal on the image data and object data for the backmost image set as the background image. Create data.

ここで、VRAM134には、図41に示すようにスクリーン用バッファ144が設けられており、スクリーン用バッファ144には背景用の描画データが書き込まれる背景用のバッファと、演出用の描画データ及び図柄用の描画データがまとめて書き込まれる演出及び図柄用のバッファとが設定されている。また、背景用のバッファ、演出及び図柄用のバッファには、スクリーン領域PC12のピクセル数と同一のドット数のエリアが設定されている。ステップS2310にて作成される背景用の描画データは、背景用のバッファに書き込まれる。なお、描画リストにおいて背景用の画像データが指定されていない場合には、背景用の描画データは作成されない。   Here, as shown in FIG. 41, the VRAM 134 is provided with a screen buffer 144. The screen buffer 144 has a background buffer into which drawing data for background is written, and drawing data and design for rendering. An effect and a design buffer in which drawing data for writing are collectively written are set. In addition, an area having the same number of dots as the number of pixels of the screen area PC12 is set in the background buffer, the effect, and the design buffer. The background drawing data created in step S2310 is written into the background buffer. If no background image data is specified in the drawing list, no background drawing data is created.

続くステップS2311では、演出及び図柄用の描画データ作成処理を実行する。演出及び図柄用の描画データ作成処理では、演出画像として設定されているオブジェクトデータ及び図柄として設定されているオブジェクトデータに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、スクリーン用バッファ144における演出及び図柄用のバッファに演出及び図柄用の描画データを作成する。なお、描画リストにおいて演出及び図柄用の画像データが指定されていない場合には、演出及び図柄用の描画データは作成されない。   In a succeeding step S2311, a drawing data creation process for effects and symbols is executed. In the rendering data creation process for effects and symbols, projection is performed on the screen area PC12 while performing hidden surface removal on the object data set as the effect image and the object data set as the pattern. The rendering data for effects and symbols is created in the buffer for effects and symbols in the buffer 144 for use. If the image data for effects and symbols is not specified in the drawing list, the rendering data for effects and symbols is not created.

その後、ステップS2312にて、描画データ合成処理を実行した後に、本描画処理を終了する。ステップS2312の描画データ合成処理では、ステップS2310及びステップS2311の処理によりそれぞれ個別にスクリーン用バッファ144に作成されている背景用の描画データと、演出及び図柄用の描画データとを合成して、その合成結果を描画対象のフレーム領域142a,142bに1フレーム分の描画データとして書き込む。   Thereafter, in step S2312, the drawing data synthesis process is executed, and then the drawing process is terminated. In the drawing data composition processing in step S2312, the background drawing data created in the screen buffer 144 individually by the processing in step S2310 and step S2311, and the drawing data for effects and symbols are synthesized. The composite result is written as drawing data for one frame in the drawing target frame regions 142a and 142b.

この場合、その書き込む順序は、背景用の描画データ→演出及び図柄用の描画データの順序で奥側から手前側に並ぶように規定されている。したがって、描画対象のフレーム領域142a,142bに対して、まず背景用の描画データを書き込み、次に演出及び図柄用の描画データを書き込む。この際、描画の実行対象となったピクセルに完全透明のα値が設定されている場合には奥側の画像がそのまま利用され、半透明のα値が設定されている場合にはα値を基準とした比率での奥側の画像と手前側の画像との融合が行われ、不透明のα値が設定されている場合には奥側の画像に対する手前側の画像の上書きが行われるように、ブレンド用の演算が実行される。   In this case, the order of writing is defined to be arranged from the back side to the front side in the order of background drawing data → effect and symbol drawing data. Therefore, the drawing data for background is first written in the frame areas 142a and 142b to be drawn, and then the drawing data for effects and symbols is written. At this time, if a completely transparent α value is set for the pixel to be rendered, the back image is used as it is, and if a semi-transparent α value is set, the α value is set. The back side image and the near side image are merged at the reference ratio, and when the opaque α value is set, the near side image is overwritten with the back side image. The blending operation is executed.

ちなみに、各描画データは1フレーム分の面積を有するように規定されているが、演出及び図柄用の描画データにおいて投影が行われなかったブランク部分については完全透明のα値が設定されている。   Incidentally, although each drawing data is defined to have an area for one frame, a completely transparent α value is set for a blank portion that is not projected in the drawing data for production and design.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路155から図柄表示装置41に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分だけ後の更新タイミングに対応する描画データの作成と並行して行われる。また、表示回路155は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域142a,142bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、描画データの描画対象となっているフレーム領域142a,142bが画像信号を出力するための出力対象とならないように規制されている。   The drawing data for one frame is generated so as to be completed within a 20 msec cycle. An image signal is output from the display circuit 155 to the symbol display device 41 based on the created drawing data. Since the double buffer method is adopted as described above, the output of the image signal is output to the output. This is performed in parallel with the creation of the drawing data corresponding to the update timing after one frame with respect to such a frame. Further, the display circuit 155 has a selector circuit that alternately switches the frame areas 142a and 142b to be referred to every time the output of the image signal for one frame is completed. By the switching by the selector circuit, the drawing data The frame regions 142a and 142b that are the drawing targets are restricted so as not to be output targets for outputting image signals.

なお、上記ステップS2302〜ステップS2307までがジオメトリ演算部151により実行される処理であり、上記ステップS2308〜ステップS2312がレンダリング部152により実行される処理である。   Steps S2302 to S2307 are processes executed by the geometry calculation unit 151, and steps S2308 to S2312 are processes executed by the rendering unit 152.

<ループ演出を行うための構成>
次に、ループ演出を行うための構成について説明する。
<Configuration for loop production>
Next, a configuration for performing a loop effect will be described.

ループ演出とは、複数の画像更新タイミングからなる所定期間においてループ演出用キャラクタが所定の動作を行う動画が繰り返し表示される演出である。当該ループ演出用の動画において最終フレームの画像と開始フレームの画像とは連続性を有するように設定されている。具体的には、ループ演出用キャラクタの動作が連続した動作であると遊技者に認識されるように、最終フレームの画像と開始フレームの画像とは連続性を有するように設定されている。これにより、ループ演出用の動画が1周した後において同一のループ演出用の動画を再度表示する場合に、ループ演出用キャラクタの動きを滑らかなものとすることが可能となる。   The loop effect is an effect in which a moving image in which a loop effect character performs a predetermined operation in a predetermined period including a plurality of image update timings is repeatedly displayed. In the loop effect moving image, the image of the last frame and the image of the start frame are set to have continuity. Specifically, the image of the last frame and the image of the start frame are set to have continuity so that the player can recognize that the motion of the loop effect character is a continuous motion. Thus, when the same loop effect moving image is displayed again after the loop effect moving image has made one round, the movement of the loop effect character can be made smooth.

ループ演出の内容について、図46を参照しながら詳細に説明する。図46(a)及び図46(b)はループ演出における動画表示の内容を説明するための説明図である。   The contents of the loop effect will be described in detail with reference to FIG. 46 (a) and 46 (b) are explanatory diagrams for explaining the contents of the moving image display in the loop effect.

図46(a)及び図46(b)に示すように、ループ演出に際しては図柄表示装置41の表示面Pに複数のループ演出用キャラクタCH8,CH9が同時に表示される。具体的には、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とが同時に表示される。図46(a)及び図46(b)においてはループ演出用キャラクタCH8,CH9を簡略化して示しているが、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9は顔、胴体、両手、両足を有する人が表現されていると遊技者に認識されるように表示される。また、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とは、顔の表情や服装の柄を含めた模様、外縁形状及びサイズの少なくとも一つが相違していることにより、相互に異なるキャラクタであると遊技者に認識されるように表示される。ループ演出に際しては、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とが異なる動作を行っていると遊技者に認識されるように動画表示が行われる。   As shown in FIGS. 46 (a) and 46 (b), a plurality of loop effect characters CH8 and CH9 are simultaneously displayed on the display surface P of the symbol display device 41 during the loop effect. Specifically, the loop effect A character CH8 and the loop effect B character CH9 are displayed simultaneously. 46 (a) and 46 (b), the loop effect characters CH8 and CH9 are simplified, but the loop effect A character CH8 and the loop effect B character CH9 are the face, the torso, both hands, and both feet. It is displayed so that the player can recognize that the person having the is expressed. Also, the loop effect A character CH8 and the loop effect B character CH9 are different from each other because at least one of the pattern including the facial expression and the clothes pattern, the outer edge shape, and the size is different. If there is, it is displayed to be recognized by the player. In the loop effect, a moving image is displayed so that the player can recognize that the A character CH8 for loop effect and the B character CH9 for loop effect are performing different actions.

ループ演出として、図46(a)に示す第1ループ演出態様と、図46(b)に示す第2ループ演出態様とが設定されている。第1ループ演出態様と第2ループ演出態様とでは、図46(a)及び図46(b)に示すように、対応するループ演出用の動画の1周において行われるループ演出用AキャラクタCH8の動作内容が相違しているとともに、対応するループ演出用の動画の1周において行われるループ演出用BキャラクタCH9の動作内容が相違している。そして、ループ演出が実行される場合には、第1ループ演出態様によるループ演出用の動画が複数回繰り返される第1アニメーション期間が行われた後に、第2ループ演出態様によるループ演出用の動画が複数回繰り返される第2アニメーション期間が行われる。   As the loop effect, a first loop effect mode shown in FIG. 46A and a second loop effect mode shown in FIG. 46B are set. In the first loop effect mode and the second loop effect mode, as shown in FIGS. 46 (a) and 46 (b), the loop effect A character CH8 performed in one lap of the corresponding loop effect video is shown. The action contents are different, and the action contents of the loop effect B character CH9 performed in one turn of the corresponding loop effect moving image are different. When the loop effect is executed, after the first animation period in which the loop effect movie according to the first loop effect mode is repeated a plurality of times, the loop effect movie according to the second loop effect mode is displayed. A second animation period is repeated a plurality of times.

ループ演出は遊技回用の演出として実行され、大当たり結果となる遊技回において発生する。第1アニメーション期間は図柄表示装置41の表示面Pにおいて大当たり結果であることを示す図柄の組合せが表示される前に発生し、第2アニメーション期間は表示面Pにおいて大当たり結果であることを示す図柄の組合せが表示された後に発生する。したがって、第1アニメーション期間においては大当たり結果となることを期待するような動作表示がループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれにて行われ、第2アニメーション期間においては大当たり結果となったことを祝福するような動作表示がループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれにて行われる。   The loop effect is executed as an effect for game times, and occurs in a game time that results in a jackpot. The first animation period occurs before the combination of symbols indicating that it is a jackpot result on the display surface P of the symbol display device 41, and the second animation period is a symbol that indicates that it is a jackpot result on the display surface P. Occurs after the combination is displayed. Therefore, an action display that is expected to be a jackpot result in the first animation period is performed in each of the loop effect A character CH8 and the loop effect B character CH9, and in the second animation period, the jackpot result is displayed. An operation display that congratulates the user is made on the loop effect A character CH8 and the loop effect B character CH9.

上記のようにループ演出が実行される場合、第1ループ演出態様及び第2演出態様のそれぞれでループ演出用の動画が繰り返される場合には、最終フレームの画像と開始フレームの画像とでループ演出用AキャラクタCH8の動作が連続性を有するとともにループ演出用BキャラクタCH9の動作が連続性を有する。それに対して、第1ループ演出態様によるループ演出用の動画における最終フレームの画像と、第2ループ演出態様によるループ演出用の動画における開始フレームの画像との間では、ループ演出用AキャラクタCH8の動作が連続性を有さないとともにループ演出用BキャラクタCH9の動作が連続性を有さない。   When the loop effect is executed as described above, when the loop effect moving image is repeated in each of the first loop effect mode and the second effect mode, the loop effect is generated with the image of the final frame and the image of the start frame. The operation of the A character CH8 for the operation has continuity and the operation of the B character CH9 for the loop effect has the continuity. On the other hand, between the image of the last frame in the moving image for loop effect in the first loop effect mode and the image of the start frame in the moving image for loop effect in the second loop effect mode, the A character CH8 for loop effect The motion does not have continuity, and the motion of the loop effect B character CH9 does not have continuity.

そこで、第1アニメーション期間が行われた後に、第2アニメーション期間が行われる場合には、第1ループ演出態様によるループ演出用の動画における最終フレームの画像を表示するためのデータと第2ループ演出態様によるループ演出用の動画における開始フレームの画像を表示するためのデータとを利用して導出されたデータによる補間表示が行われる補間表示期間が実行された後に、第2アニメーション期間が開始される。以下、上記ループ演出を実行するための具体的な構成を説明する。   Therefore, when the second animation period is performed after the first animation period is performed, the data for displaying the image of the last frame in the moving image for the loop effect according to the first loop effect mode and the second loop effect are displayed. The second animation period is started after the interpolation display period in which the interpolation display is performed using the data derived using the data for displaying the image of the start frame in the moving image for the loop effect according to the aspect. . Hereinafter, a specific configuration for executing the loop effect will be described.

まずループ演出を実行するためのデータ構成について説明する。図47(a)はループ演出を実行するためのメモリモジュール133のデータ構成を説明するための説明図である。図47(a)に示すように、メモリモジュール133には、第1ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用AキャラクタCH8に行わせるためのAキャラクタ用の第1アニメーションデータAD1と、第2ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用AキャラクタCH8に行わせるためのAキャラクタ用の第2アニメーションデータAD2と、第1ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用BキャラクタCH9に行わせるためのBキャラクタ用の第1アニメーションデータAD3と、第2ループ演出態様によるループ演出用の動画に対応した動作表示をループ演出用BキャラクタCH9に行わせるためのBキャラクタ用の第2アニメーションデータAD4と、が予め記憶されている。   First, a data configuration for executing a loop effect will be described. FIG. 47A is an explanatory diagram for explaining a data configuration of the memory module 133 for executing the loop effect. As shown in FIG. 47A, in the memory module 133, the first A character for A character for causing the A character CH8 for loop effect to perform the operation display corresponding to the moving image for loop effect in the first loop effect mode. According to the animation data AD1, the second animation data AD2 for A character for causing the A character CH8 for loop effect to perform the operation display corresponding to the moving image for loop effect in the second loop effect mode, and the first loop effect mode First animation data AD3 for B character for causing the B character CH9 for loop effect to perform an operation display corresponding to the moving image for loop effect, and an operation display corresponding to the moving image for loop effect in the second loop effect mode. 2nd animation for B character to make B character CH9 for loop production perform And Ndeta AD4, but are stored in advance.

各アニメーションデータAD1〜AD4は、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9を表示するためのオブジェクトデータにおける各頂点の座標を決定付けるデータである。各アニメーションデータAD1〜AD4には、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには、対応するオブジェクトデータにおける各頂点の座標データが設定されている。ポインタ情報は、ループ演出が行われている状況において1フレーム分進行する場合(画像更新タイミングとなる度)に更新され、ポインタ情報の更新に伴って参照すべき座標データが次の順番のものに変更されることとなる。この場合に、それら連続する座標データは、対応するループ演出用キャラクタCH8,CH9が対応するループ演出用の動画に対応した動作表示を行うように設定されている。   The animation data AD1 to AD4 are data for determining the coordinates of each vertex in the object data for displaying the loop effect A character CH8 and the loop effect B character CH9. In each of the animation data AD1 to AD4, a plurality of pointer information is set so as to be serial numbers, and coordinate data of each vertex in the corresponding object data is set in each pointer information. The pointer information is updated when one frame progresses in a situation where the loop effect is being performed (every time the image update timing is reached), and the coordinate data to be referred to in accordance with the update of the pointer information is in the next order. Will be changed. In this case, the continuous coordinate data is set so as to perform an operation display corresponding to the loop effect moving image corresponding to the corresponding loop effect characters CH8 and CH9.

上記のとおり第1ループ演出態様によるループ演出用の動画を表示するために第1アニメーションデータAD1,AD3が設けられており、第2ループ演出態様によるループ演出用の動画を表示するために第2アニメーションデータAD2,AD4が設けられている。このように各ループ演出態様によるループ演出用の動画に対応させてアニメーションデータAD1〜AD4が区別して設けられていることにより、各期間におけるループ演出用の動画の繰り返し表示を可能としながら、一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることが可能となる。一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることで、アニメーションデータAD1〜AD4の読み出しに要する期間を分散することが可能となる。   As described above, the first animation data AD1 and AD3 are provided for displaying the moving image for loop effect in the first loop effect mode, and the second animation data for displaying the moving image for loop effect in the second loop effect mode. Animation data AD2 and AD4 are provided. As described above, the animation data AD1 to AD4 are provided so as to correspond to the loop effect videos according to the loop effect modes, thereby enabling the loop effect videos to be repeatedly displayed in each period at a time. It becomes possible to suppress the data amount of the animation data AD1 to AD4 to be read. By suppressing the data amount of the animation data AD1 to AD4 read at a time, it is possible to disperse the period required for reading the animation data AD1 to AD4.

また、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9が同時に表示されて同一の期間においてループ演出用の動画が表示される構成であっても、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれに対応させてアニメーションデータAD1〜AD4が設けられている。これにより、ループ演出用AキャラクタCH8を動作させるためのアニメーションデータAD1,AD3と、ループ演出用BキャラクタCH9を動作させるためのアニメーションデータAD2,AD4とを個別に扱うことが可能となる。   Even if the loop effect A character CH8 and the loop effect B character CH9 are displayed at the same time and a moving image for the loop effect is displayed in the same period, the loop effect A character CH8 and the loop effect B are displayed. Animation data AD1 to AD4 are provided corresponding to each character CH9. Thereby, the animation data AD1, AD3 for operating the loop effect A character CH8 and the animation data AD2, AD4 for operating the loop effect B character CH9 can be handled individually.

メモリモジュール133には、図47(a)に示すように、ループ演出を実行するためのデータとして上記アニメーションデータAD1〜AD4以外にも配合テーブルCTが設けられている。配合テーブルCTは、補間表示期間の各更新タイミングにおける第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとの配合割合を決定付けるデータである。   As shown in FIG. 47A, the memory module 133 is provided with a blending table CT in addition to the animation data AD1 to AD4 as data for executing a loop effect. The blending table CT is data that determines the blending ratio between the coordinate data based on the first animation data AD1 and AD3 and the coordinate data based on the second animation data AD2 and AD4 at each update timing in the interpolation display period.

配合テーブルCTについて図47(b)の説明図を参照しながら詳細に説明する。配合テーブルCTには、補間表示期間に含まれる全ての更新タイミングと1対1で対応させて設定されたポインタ情報と、各ポインタ情報に対応した更新タイミングにおける第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとの配合割合のデータとが設定されている。具体的には、補間表示期間の開始タイミングから終了タイミングに亘って、第1アニメーションデータAD1,AD3による座標データの配合割合が徐々に小さくなるとともに第2アニメーションデータAD2,AD4による座標データの配合割合が徐々に大きくなるように、配合テーブルCTが設定されている。この場合に、配合テーブルCTによる座標テーブルの配合は、第1アニメーションデータAD1,AD3による最終タイミングの座標データと、第2アニメーションデータAD2,AD4による開始タイミングの座標データとを対象に行われる。したがって、補間表示期間においてループ演出用キャラクタCH8,CH9は、第1アニメーション期間の最終タイミングにおける表示態様から第2アニメーション期間の開始タイミングにおける表示態様に徐々に変化するように動画表示される。   The blending table CT will be described in detail with reference to the explanatory diagram of FIG. In the blending table CT, pointer information set in a one-to-one correspondence with all update timings included in the interpolation display period, and coordinate data by the first animation data AD1 and AD3 at the update timing corresponding to each pointer information And data of the blending ratio of the coordinate data based on the second animation data AD2 and AD4 are set. Specifically, from the start timing to the end timing of the interpolation display period, the blending ratio of the coordinate data by the first animation data AD1, AD3 gradually decreases and the blending ratio of the coordinate data by the second animation data AD2, AD4. The blending table CT is set so that gradually increases. In this case, the blending of the coordinate table by the blending table CT is performed on the coordinate data of the final timing based on the first animation data AD1, AD3 and the coordinate data of the start timing based on the second animation data AD2, AD4. Accordingly, during the interpolation display period, the loop effect characters CH8 and CH9 are displayed as moving images so as to gradually change from the display mode at the final timing of the first animation period to the display mode at the start timing of the second animation period.

次に、ループ演出が実行される様子について図48のタイミングチャートを参照しながら説明する。図48(a)は第1アニメーション期間を示し、図48(b)は第1アニメーションデータAD1,AD3に基づく第1ループ演出態様によるループ演出用の動画が新たに開始されるタイミングを示し、図48(c)は補間表示期間を示し、図48(d)は第2アニメーション期間を示し、図48(e)は第2アニメーションデータAD2,AD4に基づく第2ループ演出態様によるループ演出用の動画が新たに開始されるタイミングを示す。   Next, how the loop effect is executed will be described with reference to the timing chart of FIG. FIG. 48A shows the first animation period, and FIG. 48B shows the timing at which a video for loop effect in the first loop effect mode based on the first animation data AD1 and AD3 is newly started. 48 (c) shows an interpolation display period, FIG. 48 (d) shows a second animation period, and FIG. 48 (e) shows a moving image for loop effect in the second loop effect mode based on the second animation data AD2 and AD4. Indicates a new start timing.

t1のタイミングで図48(a)に示すように第1アニメーション期間が開始され、t1のタイミング、t2のタイミング及びt3のタイミングのそれぞれで、図48(b)に示すように、第1ループ演出態様によるループ演出用の動画の表示周回が新たに開始される。その後、t3のタイミングで開始された第1ループ演出態様によるループ演出用の動画の表示周回が終了するタイミングであるt4のタイミングで、図48(a)に示すように第1アニメーション期間が終了され、図48(c)に示すように補間表示期間が開始される。補間表示期間は、t5のタイミングまで継続する。   The first animation period is started at the timing t1, as shown in FIG. 48A, and the first loop effect is shown at each of the timing t1, the timing t2, and the timing t3, as shown in FIG. 48B. A display cycle of a moving image for loop effect according to the mode is newly started. Thereafter, the first animation period ends at the timing t4, which is the timing at which the display loop of the video for the loop effect in the first loop effect mode started at the timing t3 ends, as shown in FIG. The interpolation display period is started as shown in FIG. The interpolation display period continues until the timing t5.

t5のタイミングで補間表示期間が終了されることで、図48(d)に示すように第2アニメーション期間が開始される。そして、t5のタイミング、t6のタイミング及びt7のタイミングのそれぞれで、図48(e)に示すように、第2ループ演出態様によるループ演出用の動画の表示周回が新たに開始される。その後、t7のタイミングで開始された第2ループ演出態様によるループ演出用の動画の表示周回が終了するタイミングであるt8のタイミングで、図48(d)に示すように第2アニメーション期間が終了される。   When the interpolation display period ends at the timing t5, the second animation period starts as shown in FIG. Then, at each of the timing t5, the timing t6, and the timing t7, as shown in FIG. 48 (e), the display cycle of the moving image for loop effect in the second loop effect mode is newly started. Thereafter, the second animation period is ended as shown in FIG. 48 (d) at the timing t8, which is the timing at which the display loop of the moving image for loop effect in the second loop effect mode started at the timing t7 ends. The

ちなみに、補間表示期間の継続期間T2は、第1アニメーション期間において第1ループ演出態様によるループ演出用の動画が1周するために要する期間T1及び第2アニメーション期間において第2ループ演出態様によるループ演出用の動画が1周するために要する期間T3よりも短く設定されている。   Incidentally, the continuation period T2 of the interpolation display period is a period effect T1 required for a loop effect moving image in the first animation effect period to make one round in the first animation period and a loop effect in the second animation effect period in the second animation period. It is set to be shorter than the period T3 required for one moving image to go around.

以下、ループ演出を実行するための具体的な処理構成を説明する。図49は、表示CPU131にて実行されるループ演出用の演算処理を示すフローチャートである。ループ演出用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該ループ演出用の演算処理は、現状設定されている実行対象テーブルにおいてループ演出についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for executing the loop effect will be described. FIG. 49 is a flowchart showing a loop effect calculation process executed by the display CPU 131. The loop effect calculation process is executed in the effect calculation process of step S2209 in the task process (FIG. 42). The calculation process for the loop effect is activated when information on the loop effect is set in the currently set execution target table.

第1アニメーション期間である場合(ステップS2401:YES)、ステップS2402にて第1アニメーション期間の開始タイミングであるか否かを判定する。第1アニメーション期間の開始タイミングである場合(ステップS2402:YES)、Aキャラクタ用の第1アニメーションデータAD1及びBキャラクタ用の第1アニメーションデータAD3をメモリモジュール133からワークRAM132に読み出す(ステップS2403)。続くステップS2404では、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9を表示するための画像データのメモリモジュール133における各アドレスを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。その後、ステップS2405にて、ループ演出を開始すべきことをVDP135に認識させるためのループ演出開始指定情報を表示CPU131のレジスタに記憶する。   If it is the first animation period (step S2401: YES), it is determined in step S2402 whether it is the start timing of the first animation period. If it is the start timing of the first animation period (step S2402: YES), the first animation data AD1 for A character and the first animation data AD3 for B character are read from the memory module 133 to the work RAM 132 (step S2403). In the following step S2404, each address in the memory module 133 of the image data for displaying the loop effect A character CH8 and the loop effect B character CH9 is grasped. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and the loop effect B character CH9. Corresponding texture data is included. Thereafter, in step S2405, loop effect start designation information for causing the VDP 135 to recognize that the loop effect should be started is stored in the register of the display CPU 131.

ステップS2402にて否定判定をした場合又はステップS2405の処理を実行した場合、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2406)。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。   If a negative determination is made in step S2402 or if the process of step S2405 is executed, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table (step S2406). The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and the loop effect B character CH9. Corresponding texture data is included.

その後、ステップS2407にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。具体的には、今回は第1アニメーション期間であるため、Aキャラクタ用の第1アニメーションデータAD1において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出すとともに、Bキャラクタ用の第1アニメーションデータAD3において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出す。そして、これら読み出した座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。これにより、Aキャラクタ用の第1アニメーションデータAD1に従ってループ演出用AキャラクタCH8を動作させることが可能となるとともに、Bキャラクタ用の第1アニメーションデータAD3に従ってループ演出用BキャラクタCH9を動作させることが可能となる。   Thereafter, in step S2407, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. Specifically, since this time is the first animation period, the coordinate data of all vertices set in correspondence with the pointer information at the current update timing in the first animation data AD1 for A character are read out, In the first animation data AD3 for B character, the coordinate data of all vertices set in correspondence with the pointer information at the current update timing is read. The read coordinate data is written in the area secured in correspondence with the object data of the loop effect A character CH8 and the area secured in correspondence with the object data of the loop effect B character CH9 in the work RAM 132. As a result, the control information is updated. As a result, the loop effect A character CH8 can be operated in accordance with the first animation data AD1 for A character, and the loop effect B character CH9 can be operated in accordance with the first animation data AD3 for B character. It becomes possible.

続くステップS2408では、ステップS2406にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2409にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。   In the following step S2408, parameter information other than the coordinate data is calculated and derived for the various image data grasped in step S2406, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the area secured in association with the object data of the loop effect B character CH9. Thereafter, in step S2409, loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

補間表示期間である場合(ステップS2401:NO、ステップS2410:YES)、ステップS2411にて補間表示期間用処理を実行する。補間表示期間用処理では、図50のフローチャートに示すように、まずステップS2501にて先側の補間表示開始タイミングであるか否かを判定する。   If it is an interpolation display period (step S2401: NO, step S2410: YES), an interpolation display period process is executed in step S2411. In the interpolating display period process, as shown in the flowchart of FIG. 50, it is first determined in step S2501 whether or not it is the front-side interpolation display start timing.

補間表示期間においては、既に説明したとおり、ループ演出用AキャラクタCH8における各頂点の座標データがAキャラクタ用の第1アニメーションデータAD1とAキャラクタ用の第2アニメーションデータAD2とを所定の割合で配合することにより導出されるとともに、ループ演出用BキャラクタCH9における各頂点の座標データがBキャラクタ用の第1アニメーションデータAD3とBキャラクタ用の第2アニメーションデータAD4とを所定の割合で配合することにより導出される。この場合に、配合による座標データの導出は、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて同時に開始されるのではなく、ループ演出用AキャラクタCH8についての配合による座標データの導出が先に開始され、その次の画像の更新タイミングにおいてループ演出用BキャラクタCH9についての配合による座標データの導出が開始される。   In the interpolation display period, as already described, the coordinate data of each vertex in the loop effect A character CH8 is composed of the first animation data AD1 for the A character and the second animation data AD2 for the A character at a predetermined ratio. And the coordinate data of the vertices in the loop effect B character CH9 are blended with the first animation data AD3 for the B character and the second animation data AD4 for the B character at a predetermined ratio. Derived. In this case, the derivation of coordinate data by blending is not started simultaneously for each of the loop effect A character CH8 and the loop effect B character CH9, but is derived by blending the loop effect A character CH8. Is started first, and at the next image update timing, derivation of coordinate data by blending for the loop effect B character CH9 is started.

かかる内容について図51のタイミングチャートを参照しながら説明する。図51(a)は画像の更新タイミングを示し、図51(b)はループ演出用AキャラクタCH8の第1アニメーション期間を示し、図51(c)はループ演出用AキャラクタCH8の補間表示期間を示し、図51(d)はループ演出用BキャラクタCH9の第1アニメーション期間を示し、図51(e)はループ演出用BキャラクタCH9の補間表示期間を示す。   This will be described with reference to the timing chart of FIG. 51A shows the image update timing, FIG. 51B shows the first animation period of the A character CH8 for loop effect, and FIG. 51C shows the interpolation display period of the A character CH8 for loop effect. FIG. 51 (d) shows the first animation period of the loop effect B character CH9, and FIG. 51 (e) shows the interpolation display period of the loop effect B character CH9.

t1のタイミング、t2のタイミング、t3のタイミング及びt4のタイミングのそれぞれで図51(a)に示すように画像の更新タイミングとなる。この場合に、ループ演出用AキャラクタCH8については、t2のタイミングで、図51(b)に示すように第1アニメーション期間が終了するとともに図51(c)に示すように補間表示期間が開始される。但し、当該t2のタイミングでは、ループ演出用BキャラクタCH9については第1アニメーション期間が継続される。その後、1フレーム分だけ後の更新タイミングであるt3のタイミングで、ループ演出用BキャラクタCH9について、図51(d)に示すように第1アニメーション期間が終了するとともに図51(e)に示すように補間表示期間が開始される。   Each of the timing t1, the timing t2, the timing t3, and the timing t4 is an image update timing as shown in FIG. In this case, for the loop effect A character CH8, at the timing of t2, the first animation period ends as shown in FIG. 51 (b) and the interpolation display period starts as shown in FIG. 51 (c). The However, at the timing t2, the first animation period is continued for the loop effect B character CH9. Thereafter, at the timing of t3, which is the update timing after one frame, for the loop effect B character CH9, as shown in FIG. 51 (d), the first animation period ends and as shown in FIG. 51 (e). The interpolation display period starts.

補間表示期間用処理(図50)の説明に戻り、補間表示期間の開始タイミングは、ループ演出用AキャラクタCH8についての配合による座標データの導出の開始タイミングである。この場合、ステップS2501にて肯定判定をしてステップS2502に進む。ステップS2502では、Aキャラクタ用の第2アニメーションデータAD2をメモリモジュール133からワークRAM132に読み出す。また、ステップS2503にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。   Returning to the description of the process for the interpolation display period (FIG. 50), the start timing of the interpolation display period is the start timing of the derivation of the coordinate data by the blending for the loop effect A character CH8. In this case, an affirmative determination is made in step S2501 and the process proceeds to step S2502. In step S2502, the second animation data AD2 for A character is read from the memory module 133 to the work RAM 132. In step S2503, the blending table CT is read from the memory module 133 to the work RAM 132.

続くステップS2504では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。   In subsequent step S2504, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and the loop effect B character CH9. Corresponding texture data is included.

その後、ステップS2505にて、ループ演出用AキャラクタCH8について各頂点の座標データを更新する。当該更新処理では、Aキャラクタ用の第1アニメーションデータAD1における最終タイミングの各頂点の座標データと、Aキャラクタ用の第2アニメーションデータAD2における開始タイミングの各頂点の座標データとを、配合テーブルCTにおいて最初のポインタ情報に対応した割合で配合する。具体的には、対応する頂点同士において第1アニメーションデータAD1における最終タイミングの座標データと第2アニメーションデータAD2における開始タイミングの座標データとを95対5の割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。   Thereafter, in step S2505, the coordinate data of each vertex is updated for the loop effect A character CH8. In the update process, the coordinate data of each vertex at the final timing in the first animation data AD1 for A character and the coordinate data of each vertex at the start timing in the second animation data AD2 for A character are stored in the blending table CT. It mixes with the ratio corresponding to the first pointer information. Specifically, the coordinate data of the final timing in the first animation data AD1 and the coordinate data of the start timing in the second animation data AD2 are blended at a ratio of 95: 5 at corresponding vertices. Then, the control information is updated by writing the coordinate data obtained by the blending in the area secured in the work RAM 132 in correspondence with the object data of the loop effect A character CH8.

その後、ステップS2506にて、ループ演出用BキャラクタCH9について各頂点の座標データを更新する。具体的には、Bキャラクタ用の第1アニメーションデータAD3において最終タイミングの各頂点の座標データを読み出す。そして、これら読み出した座標データを、ワークRAM132においてループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。ここで、直前の更新タイミング、すなわち第1アニメーション期間の最終タイミングにおいても、ループ演出用BキャラクタCH9の各頂点の座標データとしてBキャラクタ用の第1アニメーションデータAD3における最終タイミングの各頂点の座標データが使用されている。したがって、補間表示期間の開始タイミングにおいてはループ演出用BキャラクタCH9における各頂点の座標データは直前の更新タイミングから変更されない。   Thereafter, in step S2506, the coordinate data of each vertex is updated for the loop effect B character CH9. Specifically, the coordinate data of each vertex at the final timing is read in the first animation data AD3 for the B character. Then, the read coordinate data is written in an area secured in the work RAM 132 corresponding to the object data of the loop effect B character CH9 to update the control information. Here, at the last update timing, that is, at the final timing of the first animation period, the coordinate data of each vertex at the final timing in the first animation data AD3 for B character is used as the coordinate data of each vertex of the B character CH9 for loop effect. Is used. Therefore, at the start timing of the interpolation display period, the coordinate data of each vertex in the loop effect B character CH9 is not changed from the immediately preceding update timing.

続くステップS2507では、ステップS2504にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2508にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。   In subsequent step S2507, parameter information other than coordinate data is calculated and derived for the various image data grasped in step S2504, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the area secured in association with the object data of the loop effect B character CH9. Thereafter, in step S2508, loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

補間表示期間の開始タイミングに対して次の画像の更新タイミングである場合(ステップS2501:NO、ステップS2509:YES)、Bキャラクタ用の第2アニメーションデータAD4をメモリモジュール133からワークRAM132に読み出す(ステップS2510)。また、ステップS2511にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。ここで、補間表示期間の開始タイミングにおいては既に説明したとおり、Aキャラクタ用のアニメーションデータAD1,AD2に適用するための配合テーブルCTが、ステップS2503にて既にワークRAM132に読み出されている。これに対して、ステップS2511にて配合テーブルCTを新たに読み出すことにより、Aキャラクタ用のアニメーションデータAD1,AD2に適用するための配合テーブルCTとBキャラクタ用のアニメーションデータAD3,AD4に適用するための配合テーブルCTとがワークRAM132に個別に読み出されることとなる。これにより、配合テーブルCTを利用した座標データの配合が、ループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで1回の更新タイミング分ずれて開始される構成であったとしても、配合テーブルCTによる最初のポインタ情報に対応した割合から座標データの配合を開始することが可能となる。   If it is the next image update timing relative to the start timing of the interpolation display period (step S2501: NO, step S2509: YES), the second animation data AD4 for the B character is read from the memory module 133 to the work RAM 132 (step). S2510). In step S2511, the blending table CT is read from the memory module 133 to the work RAM 132. Here, at the start timing of the interpolation display period, as already described, the blending table CT to be applied to the animation data AD1 and AD2 for the A character has already been read to the work RAM 132 in step S2503. On the other hand, by newly reading out the blending table CT in step S2511, it is applied to the blending table CT to be applied to the animation data AD1 and AD2 for the A character and the animation data AD3 and AD4 for the B character. The combination table CT is read out individually into the work RAM 132. Thereby, even if the composition of the coordinate data using the composition table CT is a configuration in which the A character CH8 for loop effect and the B character CH9 for loop effect are started with a shift of one update timing, It becomes possible to start blending coordinate data from a ratio corresponding to the first pointer information by CT.

続くステップS2512では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。   In subsequent step S2512, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and the loop effect B character CH9. Corresponding texture data is included.

その後、ステップS2513にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。当該更新処理では、Aキャラクタ用の第1アニメーションデータAD1における最終タイミングの各頂点の座標データと、Aキャラクタ用の第2アニメーションデータAD2における開始タイミングの各頂点の座標データとを、ループ演出用AキャラクタCH8に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。また、Bキャラクタ用の第1アニメーションデータAD3における最終タイミングの各頂点の座標データと、Bキャラクタ用の第2アニメーションデータAD4における開始タイミングの各頂点の座標データとを、ループ演出用BキャラクタCH9に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。   Thereafter, in step S2513, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. In the update process, the coordinate data of each vertex at the final timing in the first animation data AD1 for A character and the coordinate data of each vertex at the start timing in the second animation data AD2 for A character are used for loop effect A. In the blending table CT corresponding to the character CH8, blending is performed at a ratio corresponding to the current pointer information. Then, the control information is updated by writing the coordinate data obtained by the blending in the area secured in the work RAM 132 in correspondence with the object data of the loop effect A character CH8. Further, the coordinate data of each vertex at the final timing in the first animation data AD3 for B character and the coordinate data of each vertex at the start timing in the second animation data AD4 for B character are used as the B character CH9 for loop effect. In the corresponding blending table CT, blending is performed at a ratio corresponding to the current pointer information. Then, the control information is updated by writing the coordinate data obtained by the blending in an area secured in the work RAM 132 in correspondence with the object data of the loop effect B character CH9.

続くステップS2507では、ステップS2512にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2508にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。   In subsequent step S2507, parameter information other than coordinate data is calculated and derived for the various image data grasped in step S2512, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The information for control is updated by writing in the area secured in correspondence with the object data of the B effect CH9 for loop effect and the area secured. Thereafter, in step S2508, loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

補間表示期間であって後側の補間表示開始タイミングよりも後の更新タイミングである場合(ステップS2501:NO、ステップS2509:NO)、ステップS2510及びステップS2511の処理を実行することなくステップS2512に進む。ステップS2512では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。   If it is the interpolation display period and the update timing is later than the interpolation display start timing on the rear side (step S2501: NO, step S2509: NO), the process proceeds to step S2512 without executing the processing of steps S2510 and S2511. . In step S2512, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table. The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and the loop effect B character CH9. Corresponding texture data is included.

その後、ステップS2513にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。当該更新処理では、Aキャラクタ用の第1アニメーションデータAD1における最終タイミングの各頂点の座標データと、Aキャラクタ用の第2アニメーションデータAD2における開始タイミングの各頂点の座標データとを、ループ演出用AキャラクタCH8に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。また、Bキャラクタ用の第1アニメーションデータAD3における最終タイミングの各頂点の座標データと、Bキャラクタ用の第2アニメーションデータAD4における開始タイミングの各頂点の座標データとを、ループ演出用BキャラクタCH9に対応する配合テーブルCTにおいて今回のポインタ情報に対応した割合で配合する。そして、当該配合によって得られた座標データを、ワークRAM132においてループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。   Thereafter, in step S2513, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. In the update process, the coordinate data of each vertex at the final timing in the first animation data AD1 for A character and the coordinate data of each vertex at the start timing in the second animation data AD2 for A character are used for loop effect A. In the blending table CT corresponding to the character CH8, blending is performed at a ratio corresponding to the current pointer information. Then, the control information is updated by writing the coordinate data obtained by the blending in the area secured in the work RAM 132 in correspondence with the object data of the loop effect A character CH8. Further, the coordinate data of each vertex at the final timing in the first animation data AD3 for B character and the coordinate data of each vertex at the start timing in the second animation data AD4 for B character are used as the B character CH9 for loop effect. In the corresponding blending table CT, blending is performed at a ratio corresponding to the current pointer information. Then, the control information is updated by writing the coordinate data obtained by the blending in an area secured in the work RAM 132 in correspondence with the object data of the loop effect B character CH9.

続くステップS2507では、ステップS2512にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2508にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。   In subsequent step S2507, parameter information other than coordinate data is calculated and derived for the various image data grasped in step S2512, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The information for control is updated by writing in the area secured in correspondence with the object data of the B effect CH9 for loop effect and the area secured. Thereafter, in step S2508, loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

ループ演出用の演算処理(図49)の説明に戻り、第2アニメーション期間である場合(ステップS2401及びステップS2410:NO)、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2406)。当該画像データには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが含まれる。   Returning to the description of the calculation process for the loop effect (FIG. 49), when it is the second animation period (step S2401 and step S2410: NO), it corresponds to the current update timing based on the currently set execution target table. The type of image data is grasped (step S2406). The image data includes object data corresponding to the loop effect A character CH8, texture data corresponding to the loop effect A character CH8, object data corresponding to the loop effect B character CH9, and the loop effect B character CH9. Corresponding texture data is included.

その後、ステップS2407にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。具体的には、今回は第2アニメーション期間であるため、Aキャラクタ用の第2アニメーションデータAD2において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出すとともに、Bキャラクタ用の第2アニメーションデータAD4において今回の更新タイミングにおけるポインタ情報に対応させて設定されている全ての頂点の座標データを読み出す。そして、これら読み出した座標データを、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。これにより、Aキャラクタ用の第2アニメーションデータAD2に従ってループ演出用AキャラクタCH8を動作させることが可能となるとともに、Bキャラクタ用の第2アニメーションデータAD4に従ってループ演出用BキャラクタCH9を動作させることが可能となる。   Thereafter, in step S2407, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. Specifically, since this time is the second animation period, the coordinate data of all the vertices set in correspondence with the pointer information at the current update timing in the second animation data AD2 for A character is read, In the second animation data AD4 for B character, the coordinate data of all vertices set corresponding to the pointer information at the current update timing is read. The read coordinate data is written in the area secured in correspondence with the object data of the loop effect A character CH8 and the area secured in correspondence with the object data of the loop effect B character CH9 in the work RAM 132. As a result, the control information is updated. As a result, the loop effect A character CH8 can be operated according to the second animation data AD2 for A character, and the loop effect B character CH9 can be operated according to the second animation data AD4 for B character. It becomes possible.

続くステップS2408では、ステップS2406にて把握した各種画像データについて、座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてループ演出用AキャラクタCH8のオブジェクトデータに対応させて確保されたエリア、及びループ演出用BキャラクタCH9のオブジェクトデータに対応させて確保されたエリアに書き込むことで制御用の情報を更新する。その後、ステップS2409にて、ループ演出の実行期間であることをVDP135に認識させるためのループ演出指定情報を表示CPU131のレジスタに記憶する。   In the following step S2408, parameter information other than the coordinate data is calculated and derived for the various image data grasped in step S2406, and the derived parameter information is made to correspond to the object data of the loop effect A character CH8 in the work RAM 132. The control information is updated by writing in the area secured in association with the object data of the loop effect B character CH9. Thereafter, in step S2409, loop effect designation information for causing the VDP 135 to recognize that it is the execution period of the loop effect is stored in the register of the display CPU 131.

上記のようにループ演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、ループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータの使用指示の情報が設定される。また、当該描画リストには、各頂点の座標データを含めて、それら画像データに適用するパラメータ情報が設定される。また、当該描画リストにはループ演出指定情報が設定され、さらにループ演出の開始タイミングにおいてはループ演出開始指定情報が設定される。   When the calculation process for the loop effect is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output process (step S609) includes the object data corresponding to the loop effect A character CH8, the loop Information on the texture data corresponding to the effect A character CH8, the object data corresponding to the loop effect B character CH9, and the use instruction information of the texture data corresponding to the loop effect B character CH9 is set. In the drawing list, parameter information to be applied to the image data including the coordinate data of each vertex is set. In addition, loop effect designation information is set in the drawing list, and loop effect start designation information is set at the start timing of the loop effect.

次に、VDP135にて実行されるループ演出用の設定処理を、図52のフローチャートを参照しながら説明する。ループ演出用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいてループ演出指定情報が設定されている場合に、ループ演出用の設定処理が実行される。   Next, loop effect setting processing executed in the VDP 135 will be described with reference to the flowchart of FIG. The loop effect setting process is executed as a part of the effect setting process executed in step S2303 of the drawing process (FIG. 44). Further, when the loop effect designation information is set in the drawing list, the loop effect setting process is executed.

今回の描画リストにループ演出開始指定情報が設定されている場合(ステップS2601:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133においてループ演出用AキャラクタCH8に対応するオブジェクトデータ、ループ演出用AキャラクタCH8に対応するテクスチャデータ、ループ演出用BキャラクタCH9に対応するオブジェクトデータ、及びループ演出用BキャラクタCH9に対応するテクスチャデータが記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール133からこれら画像データをVRAM134の展開用バッファ141に読み出す(ステップS2602)。   When the loop effect start designation information is set in the current drawing list (step S2601: YES), the object corresponding to the loop effect A character CH8 in the memory module 133 is determined from the address information set in the drawing list. Data, the texture data corresponding to the loop effect A character CH8, the object data corresponding to the loop effect B character CH9, and the address where the texture data corresponding to the loop effect B character CH9 is stored. Based on the result, these image data are read from the memory module 133 to the development buffer 141 of the VRAM 134 (step S2602).

ステップS2601にて否定判定をした場合、又はステップS2602の処理を実行した場合、ステップS2603にて、今回の更新タイミングに対応した種類の画像データを把握する。また、ステップS2604にて、ループ演出用AキャラクタCH8を表示するためのオブジェクトデータ及びループ演出用BキャラクタCH9を表示するためのオブジェクトデータのそれぞれについてのワールド座標系における各頂点の座標データを今回の描画リストから把握し、さらにステップS2605にて、これらオブジェクトデータ及び対応するテクスチャデータの他のパラメータ情報を把握する。そして、ステップS2606にて、ステップS2603〜ステップS2605の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。   If a negative determination is made in step S2601, or if the process of step S2602 is executed, in step S2603, the type of image data corresponding to the current update timing is grasped. In step S2604, the coordinate data of the vertices in the world coordinate system for the object data for displaying the loop effect A character CH8 and the object data for displaying the loop effect B character CH9 are obtained in this time. From the drawing list, in step S2605, the object data and other parameter information of the corresponding texture data are grasped. In step S2606, the setting process to the world coordinate system is executed according to the contents corresponding to the grasp results in steps S2603 to S2605.

上記のようにループ演出用の設定処理が実行されることにより、ワールド座標系にループ演出用AキャラクタCH8のオブジェクトデータ及びループ演出用BキャラクタCH9のオブジェクトデータが配置されるとともに、それらオブジェクトデータにおける各頂点の座標データとして各アニメーションデータAD1〜AD4から導出された座標データが適用される。これにより、表示面Pでは、第1アニメーション期間、補間表示期間及び第2アニメーション期間のそれぞれに対応した態様でループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9が動作するように動画表示が行われる。   By executing the setting process for the loop effect as described above, the object data of the loop effect A character CH8 and the object data of the loop effect B character CH9 are arranged in the world coordinate system. Coordinate data derived from the animation data AD1 to AD4 is applied as the coordinate data of each vertex. Thereby, on the display surface P, the moving image display is performed so that the loop effect A character CH8 and the loop effect B character CH9 operate in a manner corresponding to each of the first animation period, the interpolation display period, and the second animation period. Is called.

第1ループ演出態様によるループ演出用の動画を表示するために第1アニメーションデータAD1,AD3が設けられており、第2ループ演出態様によるループ演出用の動画を表示するために第2アニメーションデータAD2,AD4が設けられている。このように各ループ演出態様によるループ演出用の動画に対応させてアニメーションデータAD1〜AD4が区別して設けられていることにより、各期間におけるループ演出用の動画の繰り返し表示を可能としながら、一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることが可能となる。一度に読み出すアニメーションデータAD1〜AD4のデータ量を抑えることで、アニメーションデータAD1〜AD4の読み出しに要する期間を分散することが可能となる。   First animation data AD1 and AD3 are provided to display a loop effect moving image according to the first loop effect aspect, and second animation data AD2 to display a loop effect moving image according to the second loop effect aspect. , AD4 are provided. As described above, the animation data AD1 to AD4 are provided so as to correspond to the loop effect videos according to the loop effect modes, thereby enabling the loop effect videos to be repeatedly displayed in each period at a time. It becomes possible to suppress the data amount of the animation data AD1 to AD4 to be read. By suppressing the data amount of the animation data AD1 to AD4 read at a time, it is possible to disperse the period required for reading the animation data AD1 to AD4.

また、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9が同時に表示されて同一の期間においてループ演出用の動画が表示される構成であっても、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれに対応させてアニメーションデータAD1〜AD4が設けられている。これにより、ループ演出用AキャラクタCH8を動作させるためのアニメーションデータAD1,AD3と、ループ演出用BキャラクタCH9を動作させるためのアニメーションデータAD2,AD4とを個別に扱うことが可能となる。   Even if the loop effect A character CH8 and the loop effect B character CH9 are displayed at the same time and a moving image for the loop effect is displayed in the same period, the loop effect A character CH8 and the loop effect B are displayed. Animation data AD1 to AD4 are provided corresponding to each character CH9. Thereby, the animation data AD1, AD3 for operating the loop effect A character CH8 and the animation data AD2, AD4 for operating the loop effect B character CH9 can be handled individually.

第1ループ演出態様によるループ演出用の動画が表示される第1アニメーション期間と、第2ループ演出態様によるループ演出用の動画が表示される第2アニメーション期間との間には、第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとを所定の割合で配合することにより導出された座標データを利用して動画表示を行う補間表示期間が設定されている。これにより、第1アニメーションデータAD1,AD2と第2アニメーションデータAD2,AD4との間でループ演出用キャラクタCH8,CH9の動作表示の連続性を担保しなくても、第1アニメーション期間から第2アニメーション期間への移行に際してループ演出用キャラクタCH8,CH9の動作表示の連続性を担保することが可能となる。   The first animation data is between a first animation period in which a video for loop effect in the first loop effect mode is displayed and a second animation period in which a video for loop effect in the second loop effect mode is displayed. An interpolation display period is set in which moving image display is performed using coordinate data derived by blending coordinate data by AD1, AD3 and coordinate data by second animation data AD2, AD4 at a predetermined ratio. Thus, the second animation from the first animation period can be performed without ensuring the continuity of the action display of the loop effect characters CH8, CH9 between the first animation data AD1, AD2 and the second animation data AD2, AD4. It is possible to ensure the continuity of the action display of the loop effect characters CH8 and CH9 during the transition to the period.

ループ演出用AキャラクタCH8について第1アニメーション期間が終了して補間表示期間が開始されるタイミングと、ループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始されるタイミングとが異なる更新タイミングとなるように設定されている。これにより、補間表示期間の開始タイミングにおける処理負荷が極端に大きくなってしまうことを防止することが可能となる。   The timing when the first animation period ends and the interpolation display period starts for the loop effect A character CH8, and the timing when the first animation period ends and the interpolation display period starts for the loop effect B character CH9. The update timing is set differently. Thereby, it becomes possible to prevent the processing load at the start timing of the interpolation display period from becoming extremely large.

ループ演出用AキャラクタCH8について第1アニメーション期間が終了して補間表示期間が開始されたタイミングに対して、次の画像の更新タイミングにおいてループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始される。これにより、補間表示期間の開始タイミングをループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで異ならせる構成であっても、ループ演出用AキャラクタCH8において第2アニメーション期間が開始された場合にはループ演出用BキャラクタCH9における第2アニメーション期間を早期に開始することが可能となる。   The first animation period ends for the loop effect B character CH9 at the next image update timing with respect to the timing when the first animation period ends for the loop effect A character CH8 and the interpolation display period starts. The display period begins. Thereby, even if it is the structure which makes the start timing of an interpolation display period differ by A character CH8 for loop effects, and B character CH9 for loop effects, when the 2nd animation period is started in A character CH8 for loop effects Can start the second animation period in the loop effect B character CH9 at an early stage.

ループ演出用AキャラクタCH8についての補間表示期間及びループ演出用BキャラクタCH9についての補間表示期間のいずれであっても、同一の配合テーブルCTが利用される。これにより、補間表示期間を実行するために必要なデータ量を抑えることが可能となる。   The same blending table CT is used in both the interpolation display period for the loop effect A character CH8 and the interpolation display period for the loop effect B character CH9. This makes it possible to reduce the amount of data necessary for executing the interpolation display period.

<ループ演出に係る構成の別形態>
・ループ演出が実行される場合には第1アニメーション期間及び第2アニメーション期間の両方が常に発生する構成に限定されることはなく、例えば外れ結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間は発生するものの第2アニメーション期間は発生しない構成であり、大当たり結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間の後に第2アニメーション期間が発生する構成としてもよい。この場合、ループ演出として第1アニメーション期間のみが発生する場合と、第1アニメーション期間の後に第2アニメーション期間が発生する場合とのそれぞれが起こり得るため、アニメーションデータを第1アニメーションデータAD1,AD3と第2アニメーションデータAD2,AD4とで区別することが好ましい。そして、このようにアニメーションデータAD1〜AD4を第1アニメーション期間用と第2アニメーション期間用とで区別して設ける構成においては上記実施形態のようにループ演出用キャラクタCH8,CH9の動作を滑らかなものとすべく補間表示期間を設定することが好ましい。
<Another configuration of the loop production>
-When a loop effect is executed, the present invention is not limited to a configuration in which both the first animation period and the second animation period are always generated. The first animation period occurs as an effect, but the second animation period does not occur. In the game times that result in the jackpot, the second animation period is provided after the first animation period as the reach display effect in the effect for game times. It is good also as composition which generates. In this case, since only a case where the first animation period occurs as a loop effect and a case where the second animation period occurs after the first animation period can occur, the animation data is referred to as the first animation data AD1, AD3. It is preferable to distinguish between the second animation data AD2 and AD4. In the configuration in which the animation data AD1 to AD4 are separately provided for the first animation period and the second animation period as described above, the actions of the loop effect characters CH8 and CH9 are smooth as in the above embodiment. It is preferable to set the interpolation display period as much as possible.

・ループ演出用AキャラクタCH8について第1アニメーション期間が終了して補間表示期間が開始されたタイミングに対して、次の画像の更新タイミングにおいてループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始される構成に限定されることはなく、前者のタイミングに対して複数分の更新タイミングの後に、ループ演出用BキャラクタCH9について第1アニメーション期間が終了して補間表示期間が開始される構成としてもよい。   For the A character CH8 for loop effect, the first animation period ends for the B character CH9 for loop effect at the next image update timing with respect to the timing when the first animation period ends and the interpolation display period starts. The configuration is not limited to the configuration in which the interpolation display period is started, and after the update timing for a plurality of times with respect to the former timing, the first animation period ends and the interpolation display period starts for the loop effect B character CH9. It is good also as a structure to be made.

・第1アニメーションデータAD1,AD3による座標データと第2アニメーションデータAD2,AD4による座標データとを所定の割合で配合することにより座標データを導出する処理の開始タイミングがループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで異なる構成において、配合することにより導出された座標データが利用されることとなる補間表示期間がループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで同時に開始される構成としてもよい。これにより、処理負荷の分散を図りながら、ループ演出用AキャラクタCH8とループ演出用キャラクタCH9との見た目において補間表示期間の動作を同時に開始することが可能となる。   The start timing of the process for deriving the coordinate data by combining the coordinate data by the first animation data AD1, AD3 and the coordinate data by the second animation data AD2, AD4 at a predetermined ratio is the loop effect A character CH8 and the loop. In an arrangement different from that of the effect B character CH9, an interpolating display period in which coordinate data derived by blending is used is simultaneously started for the loop effect A character CH8 and the loop effect B character CH9. It is good also as a structure. Thereby, it is possible to simultaneously start the operation of the interpolation display period in the appearance of the loop effect A character CH8 and the loop effect character CH9 while distributing the processing load.

<補間表示期間用処理の別形態>
上記実施形態では、第1アニメーション期間の終了するタイミングが予め定められており、第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データが、ループ演出が実行される度に一定となる構成としたが、これに代えて、第1アニメーション期間の終了するタイミングが変動し得ることにより、第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データが、ループ演出が実行される度に変動し得る構成としてもよい。このように各頂点の座標データが変動し得る具体的な構成について以下に詳細に説明する。
<Another form of processing for interpolation display period>
In the above embodiment, the end timing of the first animation period is determined in advance, and the loop effect is executed based on the coordinate data of the vertices of the loop effect characters CH8 and CH9 at the end timing of the first animation period. However, instead of this, the timing at which the first animation period ends may vary, so that each loop effect character CH8, CH9 at the end timing of the first animation period may change. The coordinate data may be changed every time the loop effect is executed. A specific configuration in which the coordinate data of each vertex can change as described above will be described in detail below.

本実施形態では、遊技者により操作される演出用操作装置が音声発光制御装置60と電気的に接続されており、第1アニメーション期間の実行途中で演出用操作装置が操作されたことが音光側MPU62にて特定された場合にはそれに対応するコマンドが表示CPU131に送信され、表示CPU131は当該コマンドを受信した場合には第1アニメーション期間を終了させて補間表示期間の実行後に第2アニメーション期間を開始させる。当該構成を、例えば外れ結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間は発生するものの第2アニメーション期間は発生しない構成であり、大当たり結果となる遊技回では遊技回用の演出におけるリーチ表示の演出として第1アニメーション期間の後に第2アニメーション期間が発生する構成に適用した場合、大当たり結果となる遊技回における第1アニメーション期間において演出用操作装置が操作されたタイミングに応じて、大当たり結果となることの確定報知となる第2アニメーション期間の開始タイミングを変動させることが可能となる。この場合、ループ演出を利用しながら、演出用操作装置の操作タイミングに対応したタイミングでの確定報知を行うことが可能となる。   In the present embodiment, the effect operating device operated by the player is electrically connected to the sound emission control device 60, and the effect operating device is operated during the execution of the first animation period. When the side MPU 62 specifies the corresponding command, the corresponding command is transmitted to the display CPU 131. When the display CPU 131 receives the command, the first animation period is ended and the second animation period is executed after the interpolation display period is executed. To start. For example, in the game times that result in a loss, the first animation period occurs as a reach display effect in the effect for game times, but the second animation period does not occur. When applied to a configuration in which the second animation period occurs after the first animation period as the reach display effect in the rendition effect, the timing at which the effect operating device is operated in the first animation period in the game times that results in the jackpot Accordingly, it is possible to vary the start timing of the second animation period that is a definite notification that the jackpot result will be obtained. In this case, it is possible to notify the confirmation at the timing corresponding to the operation timing of the effect operating device while using the loop effect.

上記のように第1アニメーション期間の終了するタイミングが変動し得る構成においては、第1アニメーション期間の終了タイミングにおけるループ演出用AキャラクタCH8の動作態様及びループ演出用BキャラクタCH9の動作態様も変動し得る。そうすると、補間表示期間の開始タイミングをループ演出用AキャラクタCH8とループ演出用BキャラクタCH9とで異なる更新タイミングとする場合において、第1アニメーション期間の終了タイミングにおけるループ演出用キャラクタCH8,CH9の動作態様に応じて補間表示期間を先に開始する対象を変動させることが好ましい。   In the configuration in which the timing at which the first animation period ends may vary as described above, the operation mode of the loop effect A character CH8 and the operation mode of the loop effect B character CH9 at the end timing of the first animation period also vary. obtain. Then, when the start timing of the interpolation display period is set to a different update timing for the loop effect A character CH8 and the loop effect B character CH9, the operation modes of the loop effect characters CH8 and CH9 at the end timing of the first animation period Accordingly, it is preferable to change the target for starting the interpolation display period first.

具体的には、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のうち、第1アニメーション期間の終了タイミングと第2アニメーション期間の開始タイミングとの間におけるループ演出用キャラクタCH8,CH9の変化動作量が多い側の方が、当該変化動作量が少ない側よりも補間表示期間における一の更新タイミングにおける動作量が多くなる。そうすると、上記変化動作量が多い側のループ演出用キャラクタCH8,CH9の方が補間表示期間における画像の更新タイミングは多い方が好ましい。これに対して、補間表示期間の開始タイミングが各ループ演出用キャラクタCH8,CH9が相違する構成であったとしても、補間表示期間の終了タイミグは各ループ演出用キャラクタCH8、CH9で同一となっているため、補間表示期間の終了タイミングが遅い側のループ演出用キャラクタCH8,CH9は早い側よりも補間表示期間において発生する画像の更新タイミングの回数が少なくなる。そこで、本別形態では、各ループ演出用キャラクタCH8,CH9のうち、第1アニメーション期間の終了タイミングとの関係で上記変化動作量が多い側から先に補間表示期間を開始させる構成となっている。   Specifically, among the loop effect A character CH8 and the loop effect B character CH9, the change operation of the loop effect characters CH8 and CH9 between the end timing of the first animation period and the start timing of the second animation period. The amount of operation at one update timing in the interpolation display period is larger on the side with the larger amount than on the side with the smaller amount of change operation. Then, it is preferable that the loop effect characters CH8 and CH9 on the side with the larger amount of change motion have more image update timings in the interpolation display period. On the other hand, even if the start timing of the interpolation display period is different between the loop effect characters CH8 and CH9, the end timing of the interpolation display period is the same for each of the loop effect characters CH8 and CH9. Therefore, the loop effect characters CH8 and CH9 on the side where the end timing of the interpolation display period is late have a smaller number of image update timings occurring in the interpolation display period than on the earlier side. Therefore, in the present embodiment, the interpolation display period is started first from the side with the larger amount of change motion in relation to the end timing of the first animation period among the loop effect characters CH8 and CH9. .

補間表示期間を先に開始させる対象のループ演出用キャラクタCH8,CH9を第1アニメーション期間の終了タイミングとの関係で決定するためのデータとして、本別形態では、メモリモジュール133に先開始対象決定用テーブルPDTが予め記憶されている。図53は、先開始対象決定用テーブルPDTを説明するための説明図である。   As data for determining the loop effect characters CH8 and CH9 for starting the interpolation display period first in relation to the end timing of the first animation period, in this embodiment, the memory module 133 is used for determining the start start target. A table PDT is stored in advance. FIG. 53 is an explanatory diagram for explaining the first start target determination table PDT.

先開始対象決定用テーブルPDTには、第1アニメーション期間として発生し得るフレーム数(画像の更新タイミングの回数)の範囲と、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9との対応関係が予め定められている。当該対応関係は、パチンコ機10の設計段階において第1アニメーション期間の各更新タイミングにおける各ループ演出用キャラクタCH8,CH9の動作態様と、第2アニメーション期間の開始タイミングにおける各ループ演出用キャラクタCH8,CH9の動作態様とを比較することにより決定されている。具体的には、第1アニメーション期間におけるフレーム数が0フレーム目(開始タイミングのフレーム)〜49フレーム目、100フレーム目〜149フレーム目及び200フレーム目〜249フレーム目に対しては先開始側のキャラクタとしてループ演出用BキャラクタCH9が設定されている。一方、第1アニメーション期間におけるフレーム数が50フレーム目〜99フレーム目、150フレーム目〜199フレーム目及び250フレーム目〜299フレーム目(最終タイミングのフレーム)に対しては先開始側のキャラクタとしてループ演出用AキャラクタCH8が設定されている。   In the first start target determination table PDT, the range of the number of frames that can occur as the first animation period (number of times of image update timing) and the loop effect characters CH8 and CH9 that are targets for starting the interpolation display period first. Is previously determined. The correspondence relationship is as follows. In the design stage of the pachinko machine 10, the operation mode of each loop effect character CH8, CH9 at each update timing of the first animation period and each loop effect character CH8, CH9 at the start timing of the second animation period. It is determined by comparing with the operation mode. Specifically, the number of frames in the first animation period is the first start side for the 0th frame (start timing frame) to the 49th frame, the 100th frame to the 149th frame, and the 200th frame to the 249th frame. A loop effect B character CH9 is set as the character. On the other hand, the number of frames in the first animation period is looped as the first character for the 50th to 99th frame, 150th to 199th frame, and 250th to 299th frame (final timing frame). An effect A character CH8 is set.

当該先開始対象決定用テーブルPDTを利用して補間表示期間を先に開始する対象のループ演出用キャラクタCH8,CH9を決定する処理構成について、図54のフローチャートを参照しながら説明する。図54は、表示CPU72にて実行される補間表示期間用処理の別形態を説明するためのフローチャートである。なお、補間表示期間用処理は第1アニメーション期間の途中で演出用操作装置が操作された後又は第1アニメーション期間の最終タイミングとなった後であって、補間表示期間の終了タイミングとなるまで、ループ演出用の演算処理(図49)が起動される度に実行される。   A processing configuration for determining the loop effect characters CH8 and CH9 for which the interpolation display period starts first using the destination start target determination table PDT will be described with reference to the flowchart of FIG. FIG. 54 is a flowchart for explaining another form of the interpolating display period process executed by the display CPU 72. The process for the interpolation display period is after the production operating device is operated in the middle of the first animation period or after the final timing of the first animation period, until the end timing of the interpolation display period. This is executed every time the calculation process for the loop effect (FIG. 49) is activated.

補間表示期間の開始タイミングである場合(ステップS2701:YES)、メモリモジュール133から先開始対象決定用テーブルPDTを読み出し、第1アニメーション期間の現状のフレーム数が先開始側のキャラクタをループ演出用AキャラクタCH8とするフレーム数に対応しているか否かを判定する(ステップS2702)。先開始側のキャラクタをループ演出用AキャラクタCH8とするフレーム数に対応している場合(ステップS2702:YES)、Aキャラクタ用の第2アニメーションデータAD2をメモリモジュール133からワークRAM132に読み出す(ステップS2703)。一方、先開始側のキャラクタをループ演出用BキャラクタCH9とするフレーム数に対応している場合(ステップS2702:NO)、Bキャラクタ用の第2アニメーションデータAD4をメモリモジュール133からワークRAM132に読み出す(ステップS2704)。ステップS2703の処理を実行した場合又はステップS2704の処理を実行した場合、ステップS2705にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。   If it is the start timing of the interpolation display period (step S2701: YES), the pre-start target determination table PDT is read from the memory module 133, and the character whose current start frame number in the first animation period is the pre-start side character A It is determined whether or not the number of frames corresponding to character CH8 is supported (step S2702). When it corresponds to the number of frames in which the first character on the start side is the loop effect A character CH8 (step S2702: YES), the second animation data AD2 for A character is read from the memory module 133 to the work RAM 132 (step S2703). ). On the other hand, when the number of frames corresponding to the first character on the start side is the loop effect B character CH9 (step S2702: NO), the second animation data AD4 for the B character is read from the memory module 133 to the work RAM 132 ( Step S2704). When the process of step S2703 is executed or when the process of step S2704 is executed, the blending table CT is read from the memory module 133 to the work RAM 132 in step S2705.

続くステップS2706では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。その後、ステップS2707にて、補間表示期間を先に開始させる側となったループ演出用キャラクタCH8,CH9について、配合テーブルCTに従った座標データの更新処理を実行する。また、ステップS2708にて、補間表示期間を先に開始させる側とならなかったループ演出用キャラクタCH8,CH9について、直前の更新タイミングにおける座標データと同一の座標データを把握する。その後、ステップS2709にて、その他のパラメータの更新処理を実行するとともに、ステップS2710にて、ループ演出指定情報を記憶する。これらステップS2706〜ステップS2710の各処理内容は、上記実施形態における補間表示期間用処理(図50)のステップS2504〜ステップS2508の処理内容と同一である。   In a succeeding step S2706, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table. Thereafter, in step S2707, coordinate data update processing according to the blending table CT is executed for the loop effect characters CH8 and CH9 on the side that starts the interpolation display period first. Further, in step S2708, the same coordinate data as the coordinate data at the immediately previous update timing is grasped for the loop effect characters CH8 and CH9 that have not started the interpolation display period first. Thereafter, update processing of other parameters is executed in step S2709, and loop effect designation information is stored in step S2710. Each processing content of these step S2706-step S2710 is the same as the processing content of step S2504-step S2508 of the process for interpolation display periods (FIG. 50) in the said embodiment.

補間表示期間の開始タイミングに対して次の画像の更新タイミングである場合(ステップS2701:NO、ステップS2711:YES)、補間表示期間を先に開始させる側とならなかったループ演出用キャラクタCH8,CH9に対応する第2アニメーションデータAD2,AD4をメモリモジュール133からワークRAM132に読み出す(ステップS2712)。具体的には、直前の補間表示期間用処理の処理回にてステップS2703の処理が実行されている場合にはBキャラクタ用の第2アニメーションデータAD4を読み出し、直前の補間表示期間用処理の処理回にてステップS2704の処理が実行されている場合にはAキャラクタ用の第2アニメーションデータAD2を読み出す。その後、ステップS2713にて、配合テーブルCTをメモリモジュール133からワークRAM132に読み出す。   When it is the next image update timing with respect to the start timing of the interpolation display period (step S2701: NO, step S2711: YES), the loop effect characters CH8 and CH9 that have not become the side for starting the interpolation display period first. Are read from the memory module 133 to the work RAM 132 (step S2712). Specifically, when the process of step S2703 is executed in the process time of the immediately preceding interpolation display period process, the second animation data AD4 for B character is read, and the process of the immediately preceding interpolation display period process is performed. If the process of step S2704 is executed at the time, the second animation data AD2 for A character is read. Thereafter, the blending table CT is read from the memory module 133 to the work RAM 132 in step S2713.

続くステップS2714では、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する。その後、ステップS2715にて、ループ演出用AキャラクタCH8及びループ演出用BキャラクタCH9のそれぞれについて各頂点の座標データを更新する。その後、ステップS2709にて、その他のパラメータの更新処理を実行するとともに、ステップS2710にて、ループ演出指定情報を記憶する。これらステップS2709〜ステップS2710及びステップS2714〜ステップS2715の各処理内容は、上記実施形態における補間表示期間用処理(図50)のステップS2507〜ステップS2508及びステップS2512〜ステップS2513の処理内容と同一である。また、ステップS2711にて否定判定をした場合における処理内容は、上記実施形態における補間表示期間用処理(図50)のステップS2509にて否定判定をした場合における処理内容と同一である。   In subsequent step S2714, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table. Thereafter, in step S2715, the coordinate data of each vertex is updated for each of the loop effect A character CH8 and the loop effect B character CH9. Thereafter, update processing of other parameters is executed in step S2709, and loop effect designation information is stored in step S2710. The processing contents of steps S2709 to S2710 and S2714 to S2715 are the same as the processing contents of steps S2507 to S2508 and steps S2512 to S2513 of the interpolation display period processing (FIG. 50) in the above embodiment. . Further, the processing content when a negative determination is made in step S2711 is the same as the processing content when a negative determination is made in step S2509 of the interpolation display period processing (FIG. 50) in the above embodiment.

本別形態によれば、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の種類が第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の動作態様に応じて変更されるため、補間表示期間の開始タイミングにおける処理負荷を低減することができるだけでなく、第1アニメーション期間の終了タイミングに応じた態様で補間表示を行うことが可能となる。よって、第1アニメーション期間の終了タイミングが変動し得る構成であったとしても、各ループ演出用キャラクタCH8,CH9の補間表示を円滑に行えるようにしながら補間表示期間の開始タイミングにおける処理負荷を低減することが可能となる。   According to this form, the types of the loop effect characters CH8 and CH9 that are targets for starting the interpolation display period first depend on the operation mode of each of the loop effect characters CH8 and CH9 at the end timing of the first animation period. Therefore, not only can the processing load at the start timing of the interpolation display period be reduced, but also the interpolation display can be performed in a manner corresponding to the end timing of the first animation period. Therefore, even if the end timing of the first animation period can be changed, the processing load at the start timing of the interpolation display period is reduced while smoothly performing the interpolation display of the characters CH8 and CH9 for loop effects. It becomes possible.

また、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の第1アニメーション期間の終了タイミングに対応する種類が先開始対象決定用テーブルPDTとして予め設定されているため、補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の種類を決定する場合の処理負荷を低減することが可能となる。   In addition, since the type corresponding to the end timing of the first animation period of the loop effect characters CH8 and CH9 that are targets for starting the interpolation display period first is preset as the first start target determination table PDT, the interpolation display is performed. It is possible to reduce the processing load in the case of determining the type of loop effect characters CH8 and CH9 that are targets for starting the period first.

<補間表示期間用処理のさらなる別形態>
・補間表示期間を先に開始させる対象となるループ演出用キャラクタCH8,CH9の種類が先開始対象決定用テーブルPDTとして予め設定されている構成に限定されることはなく、例えば第1アニメーション期間の終了タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データと、第2アニメーション期間の開始タイミングにおける各ループ演出用キャラクタCH8,CH9の各頂点の座標データとから、第1アニメーション期間の終了タイミングから第2アニメーション期間の開始タイミングまでの各ループ演出用キャラクタCH8,CH9の動作量を演算により導出し、その導出した動作量が多い側のループ演出用キャラクタCH8,CH9から先に補間表示期間を開始させる構成としてもよい。
<Another form of processing for interpolation display period>
The type of the loop effect characters CH8 and CH9 that are targets for starting the interpolation display period first is not limited to the configuration set in advance as the first start target determination table PDT. For example, in the first animation period The end of the first animation period from the coordinate data of the vertices of the loop effect characters CH8 and CH9 at the end timing and the coordinate data of the vertices of the loop effect characters CH8 and CH9 at the start timing of the second animation period. The motion amount of each of the loop effect characters CH8 and CH9 from the timing to the start timing of the second animation period is derived by calculation, and the interpolated display period precedes the loop effect characters CH8 and CH9 on the side with the larger derived motion amount. It is good also as a structure which starts.

・第1アニメーション期間の終了タイミングから第2アニメーション期間の開始タイミングまでの動作量が多い側のループ演出用キャラクタCH8,CH9から先に補間表示期間を開始させる構成に代えて、当該動作量が少ない側のループ演出用キャラクタCH8,CH9から先に補間表示期間を開始させる構成としてもよい。   Instead of the configuration in which the interpolation display period is started first from the loop effect characters CH8 and CH9 on the side where the movement amount from the end timing of the first animation period to the start timing of the second animation period is large, the movement amount is small. The interpolation display period may be started first from the side loop effect characters CH8 and CH9.

<ボーンモデル表示演出を行うための構成>
次に、ボーンモデル表示演出を行うための構成について説明する。図55(a)及び図55(b)はボーンモデル表示の内容を説明するための説明図である。
<Configuration for performing the bone model display effect>
Next, a configuration for performing a bone model display effect will be described. FIG. 55A and FIG. 55B are explanatory diagrams for explaining the contents of the bone model display.

ボーンモデル表示とは、図55(a)に示すように人などを表現したボーン表示用キャラクタCH10を3Dで表示する場合に、オブジェクトデータとして、図55(b)に示すように、複数のボーンデータBOD及び複数のジョイントデータJODを有する骨格データFRD1と、骨格データFRD1に関連付けて設定され皮膚の部分を表す皮膚データSKD1とを利用する表示内容のことである。ボーンデータBODはボーン表示用キャラクタCH10の骨部分に対応し、ジョイントデータJODは複数のボーンデータBODを繋ぐ関節部分に対応している。したがって、ジョイントデータJODを基準としながらボーンデータBODの座標データ及び向きのデータを変更することで、骨格データFRD1に関連付けて設定された皮膚データSKD1における各頂点データTDの座標データが変更され、それに応じてボーン表示用キャラクタCH10の形態が変更されることとなる。なお、図55(b)においては皮膚データの一部を省略している。   Bone model display means that when a bone display character CH10 representing a person or the like is displayed in 3D as shown in FIG. 55 (a), a plurality of bones are displayed as object data as shown in FIG. This is display content using skeleton data FRD1 having data BOD and a plurality of joint data JOD and skin data SKD1 set in association with skeleton data FRD1 and representing a skin portion. The bone data BOD corresponds to a bone portion of the bone display character CH10, and the joint data JOD corresponds to a joint portion connecting a plurality of bone data BOD. Therefore, by changing the coordinate data and orientation data of the bone data BOD with reference to the joint data JOD, the coordinate data of each vertex data TD in the skin data SKD1 set in association with the skeleton data FRD1 is changed. Accordingly, the form of the bone display character CH10 is changed. In FIG. 55 (b), a part of the skin data is omitted.

複数のボーンデータBODには親と子の関係が設定されており、親対象のボーンデータBODが移動した場合にはそれに追従して、当該親対象のボーンデータBODに対して子対象の関係にあるボーンデータBODが移動することとなる。ボーン表示用キャラクタCH10においては背骨部分に対応するボーンデータが最上位の親対象としてメイン親対象のボーンデータBODに設定されており、当該メイン親対象のボーンデータBODに対してジョイントデータJODを介して連結されたボーンデータBODは全て子対象のボーンデータBODに相当する。また、子対象のボーンデータBODにおいても、メイン親対象のボーンデータBODから一列に並ぶボーンデータBOD間においてはメイン親対象のボーンデータBODに対して連結が近い側のボーンデータBODが遠い側のボーンデータBODに対して親対象の関係となる。したがって、メイン親対象のボーンデータBODが移動した場合には予め定められたボーン重み付けデータBWD1に従って、他のボーンデータBODも移動することとなる。また、メイン親対象のボーンデータBODが移動しない場合であっても、当該メイン親対象のボーンデータBODから一列に並ぶ複数のボーンデータBODのうち親対象の関係にあるボーンデータBODが移動した場合にはそれに対して子対象の関係にあるボーンデータBODも予め定められたボーン重み付けデータBWD1に従って移動することとなる。   A plurality of bone data BODs have a parent-child relationship, and when the parent target bone data BOD moves, the parent target bone data BOD follows the parent target bone data BOD and changes to a child target relationship. A certain bone data BOD moves. In the bone display character CH10, the bone data corresponding to the spine portion is set as the main parent target bone data BOD as the highest parent target, and the main parent target bone data BOD is set via the joint data JOD. All the bone data BODs connected in this manner correspond to the child target bone data BOD. Also, in the bone data BOD of the child target, the bone data BOD on the side closer to the main parent target bone data BOD is located farther between the bone data BODs arranged in a row from the main parent target bone data BOD. It becomes a parent target relationship with the bone data BOD. Therefore, when the main parent target bone data BOD is moved, the other bone data BOD is also moved in accordance with the predetermined bone weighting data BWD1. Even if the main parent target bone data BOD does not move, the bone data BOD in the parent target relationship among the plurality of bone data BODs arranged in a row from the main parent target bone data BOD moves. On the other hand, the bone data BOD having a child object relationship also moves according to the predetermined bone weighting data BWD1.

皮膚データSKD1は多数の頂点データTDを有しており、3個又は4個の頂点データTDによって一のポリゴンが規定され、多数のポリゴンにより皮膚データSKD1が表現されている。各頂点データTDは、一又は複数のボーンデータBODに対して皮膚重み付けデータSWD1に従って関連付けられている。これにより、ボーンデータBODが移動した場合には皮膚重み付けデータSWD1に従って各頂点データTDの座標データが変更され、それに伴って皮膚データSKD1が変形され、最終的にボーンデータBODの動作に応じた態様でボーン表示用キャラクタCH10が動作するとともに当該ボーン表示用キャラクタCH10の皮膚部分が変形する。   Skin data SKD1 has a large number of vertex data TD, one polygon is defined by three or four vertex data TD, and skin data SKD1 is expressed by a large number of polygons. Each vertex data TD is associated with one or a plurality of bone data BOD according to the skin weight data SWD1. Thereby, when the bone data BOD is moved, the coordinate data of each vertex data TD is changed according to the skin weighting data SWD1, and the skin data SKD1 is deformed accordingly, and finally the mode according to the operation of the bone data BOD. Thus, the bone display character CH10 operates and the skin portion of the bone display character CH10 is deformed.

ボーンモデル表示演出においては、ボーン表示用キャラクタCH10を含めて複数のボーン表示用キャラクタが表示される。当該ボーンモデル表示演出を実行するためのデータ構成について説明する。図56はボーンモデル表示を行うためのデータ構成を説明するための説明図である。   In the bone model display effect, a plurality of bone display characters including the bone display character CH10 are displayed. A data structure for executing the bone model display effect will be described. FIG. 56 is an explanatory diagram for explaining a data configuration for performing bone model display.

図56に示すように、メモリモジュール133には、ボーンモデル表示を行うための画像データを記憶するためのエリアとして、ボーン表示用キャラクタCH10の骨格データFRD1を含めて複数のボーン表示用キャラクタのそれぞれに対応した骨格データが予め記憶された骨格データ記憶エリア161と、ボーン表示用キャラクタCH10の皮膚データSKD1を含めて複数のボーン表示用キャラクタのそれぞれに対応した皮膚データが予め記憶された皮膚データ記憶エリア162と、ボーン表示用キャラクタCH10のテクスチャデータBTD1を含めて複数のボーン表示用キャラクタのそれぞれに対応したテクスチャデータが予め記憶されたテクスチャデータ記憶エリア163と、が設けられている。骨格データ及び皮膚データは既に説明したとおりである。テクスチャデータBTD1は、ボーン表示用キャラクタCH10の色情報を決定付けるデータであり、皮膚データSKD1の頂点データとの関係で色情報が定められている。したがって、骨格データFRD1に皮膚データSKD1を適用した後にテクスチャデータBTD1を適用することで、ボーン表示用キャラクタCH10を表示することが可能となる。これら骨格データFRD1、皮膚データSKD1及びテクスチャデータBTD1はVDP135により使用される。   As shown in FIG. 56, each of a plurality of bone display characters including the skeleton data FRD1 of the bone display character CH10 is stored in the memory module 133 as an area for storing image data for bone model display. Skeleton data storage area 161 in which skeleton data corresponding to each of the bones is stored in advance, and skin data storage in which skin data corresponding to each of a plurality of bone display characters including skin data SKD1 of bone display character CH10 are stored in advance. An area 162 and a texture data storage area 163 in which texture data corresponding to each of a plurality of bone display characters including the texture data BTD1 of the bone display character CH10 are stored in advance are provided. Skeletal data and skin data are as described above. The texture data BTD1 is data for determining the color information of the bone display character CH10, and the color information is determined in relation to the vertex data of the skin data SKD1. Therefore, the bone display character CH10 can be displayed by applying the texture data BTD1 after applying the skin data SKD1 to the skeleton data FRD1. These skeleton data FRD1, skin data SKD1, and texture data BTD1 are used by the VDP 135.

メモリモジュール133には、ボーンモデル表示を行うためのデータとして画像データ以外にも制御用データが予め記憶されている。当該制御用データを記憶するためのエリアとして、ボーン表示用キャラクタCH10のボーン重み付けデータBWD1を含めて複数のボーン表示用キャラクタのそれぞれに対応したボーン重み付けデータが予め記憶されたボーン重み付けデータ記憶エリア164と、ボーン表示用キャラクタCH10の皮膚重み付けデータSWD1を含めて複数のボーン表示用キャラクタのそれぞれに対応した皮膚重み付けデータが予め記憶された皮膚重み付けデータ記憶エリア165と、ボーン表示用キャラクタCH10のボーンアニメーションデータBAD1を含めて複数のボーン表示用キャラクタのそれぞれに対応したボーンアニメーションデータが予め記憶されたボーンアニメーションデータ記憶エリア166と、が設けられている。   The memory module 133 stores control data in addition to image data as data for performing bone model display. As an area for storing the control data, bone weight data storage area 164 in which bone weight data corresponding to each of a plurality of bone display characters including bone weight data BWD1 of bone display character CH10 is stored in advance. A skin weight data storage area 165 in which skin weight data corresponding to each of a plurality of bone display characters including the skin weight data SWD1 of the bone display character CH10 and a bone animation of the bone display character CH10 are stored. A bone animation data storage area 166 in which bone animation data corresponding to each of a plurality of bone display characters including the data BAD1 is stored in advance is provided.

ボーン重み付けデータBWD1は、骨格データFRD1に含まれる複数のボーンデータBODにおける親対象と子対象との関係を定めるとともに親対象のボーンデータBODが移動した場合の移動量を子対象のボーンデータBODに対して反映させる場合の割合を定める。皮膚重み付けデータSWD1は、ボーンデータBODと皮膚データSKD1の各頂点データとの対応関係を定めるとともにボーンデータBODが移動した場合の移動量を各頂点データに対して反映させる場合の割合を定める。   The bone weighting data BWD1 defines the relationship between the parent object and the child object in the plurality of bone data BOD included in the skeleton data FRD1, and the amount of movement when the parent object bone data BOD is moved to the child object bone data BOD. Determine the ratio of reflection. Skin weighting data SWD1 defines a correspondence relationship between bone data BOD and each vertex data of skin data SKD1, and also defines a ratio when the amount of movement when bone data BOD moves is reflected in each vertex data.

ボーンアニメーションデータBAD1は、ボーン表示用キャラクタCH10に複数の更新タイミングに亘って所定の動作を行わせるために、各更新タイミングにおけるボーンデータBODの座標を決定付けるデータである。ボーンアニメーションデータBAD1には、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには移動設定対象となるボーンデータBODのそれぞれについて前回の座標データからの今回の差分データが設定されている。この場合、当該差分データの設定対象となるボーンデータBODはボーン表示用キャラクタCH10の大まかな動きを決定付けるのに必要となる一部のボーンデータBODについてのみ差分データが設定されており、残りのボーンデータBODについてはボーン重み付けデータBWD1に従って座標データが決定される。また、差分データの設定対象となっているボーンデータBODであっても、他のボーンデータBODに対して子対象の関係にある場合にはボーンアニメーションデータBAD1により定められた差分データだけでなく、親対象のボーンデータBODの座標データとボーン重み付けデータBWD1に従って座標データが決定される。   The bone animation data BAD1 is data for determining the coordinates of the bone data BOD at each update timing in order to cause the bone display character CH10 to perform a predetermined operation over a plurality of update timings. A plurality of pointer information is set in the bone animation data BAD1 so as to be serial numbers, and each of the pointer information is the current coordinate data from the previous coordinate data for the bone data BOD to be moved. Difference data is set. In this case, the bone data BOD to be set for the difference data is set only for a part of the bone data BOD necessary for determining the rough movement of the bone display character CH10, and the remaining data is set. For the bone data BOD, coordinate data is determined according to the bone weighting data BWD1. In addition, even if the bone data BOD is the target for setting the difference data, if the bone data BOD has a child target relationship with the other bone data BOD, not only the difference data defined by the bone animation data BAD1, Coordinate data is determined according to the coordinate data of the parent target bone data BOD and the bone weighting data BWD1.

ここで、各ボーン表示用キャラクタCH10を表示させる場合には、対応する骨格データFRD1の各ボーンデータBODの座標データが演算により決定される。骨格データFRD1には、図57(a)の説明図に示すように複数のボーンデータBOD1〜BOD50が設定されている。具体的には、第1〜第50ボーンデータBOD1〜BOD50の50個のボーンデータが設定されている。なお、ボーンモデル表示演出において表示されるボーン表示用キャラクタCH10はいずれも最大50個の範囲内でボーンデータBOD1〜BOD50を複数備えている。これら各ボーンデータBOD1〜BOD50の座標データを演算するためのエリアとして、図57(b)の説明図に示すようにワークRAM132には座標演算用エリア169が設けられている。座標演算用エリア169にはボーン表示用キャラクタCH10のボーンデータBOD1〜BOD50の最大数に相当する50個の単位演算用エリアが設けられており、各単位演算用エリアに1対1で対応させてアドレス(第1〜第50アドレス)が設定されている。   Here, when displaying each bone display character CH10, the coordinate data of each bone data BOD of the corresponding skeleton data FRD1 is determined by calculation. In the skeleton data FRD1, a plurality of bone data BOD1 to BOD50 are set as shown in the explanatory diagram of FIG. Specifically, 50 bone data of first to 50th bone data BOD1 to BOD50 are set. The bone display character CH10 displayed in the bone model display effect has a plurality of bone data BOD1 to BOD50 within a maximum of 50 ranges. As an area for calculating the coordinate data of each of the bone data BOD1 to BOD50, the work RAM 132 is provided with a coordinate calculation area 169 as shown in the explanatory diagram of FIG. The coordinate calculation area 169 includes 50 unit calculation areas corresponding to the maximum number of bone data BOD1 to BOD50 of the bone display character CH10, and each unit calculation area has a one-to-one correspondence. Addresses (first to 50th addresses) are set.

以下、ボーンモデル表示演出を実行するための具体的な処理構成を説明する。図58は、表示CPU131にて実行されるボーンモデル表示演出用の演算処理を示すフローチャートである。ボーンモデル表示演出用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該ボーンモデル表示演出用の演算処理は、現状設定されている実行対象テーブルにおいてボーンモデル表示演出についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for executing the bone model display effect will be described. FIG. 58 is a flowchart showing a calculation process for a bone model display effect executed by the display CPU 131. The calculation process for the bone model display effect is executed in the effect calculation process in step S2209 in the task process (FIG. 42). The calculation process for the bone model display effect is activated when information on the bone model display effect is set in the currently set execution target table.

ボーンモデル表示演出の開始タイミングである場合(ステップS2801:YES)、今回のボーンモデル表示演出において表示されることとなる複数のボーン表示用キャラクタのそれぞれに対応した制御用データをメモリモジュール133からワークRAM132に読み出す。具体的には、表示対象となる複数のボーン表示用キャラクタのそれぞれに対応したボーン重み付けデータ、皮膚重み付けデータ及びボーンアニメーションデータを読み出す(ステップS2802)。続くステップS2803では、複数のボーン表示用キャラクタのそれぞれを表示するための画像データのメモリモジュール133における各アドレスを把握する。当該画像データには、複数のボーン表示用キャラクタのそれぞれに対応した骨格データ、皮膚データ及びテクスチャデータが含まれる。その後、ステップS2804にて、ボーンモデル表示演出を開始すべきことをVDP135に認識させるためのボーンモデル表示演出の開始指定情報を表示CPU131のレジスタに記憶する。   If it is the start timing of the bone model display effect (step S2801: YES), control data corresponding to each of the plurality of bone display characters to be displayed in the current bone model display effect is transferred from the memory module 133 to the work. Read to RAM132. Specifically, bone weighting data, skin weighting data, and bone animation data corresponding to each of the plurality of bone display characters to be displayed are read (step S2802). In the subsequent step S2803, each address in the memory module 133 of the image data for displaying each of the plurality of bone display characters is grasped. The image data includes skeleton data, skin data, and texture data corresponding to each of a plurality of bone display characters. Thereafter, in step S2804, start designation information of the bone model display effect for allowing the VDP 135 to recognize that the bone model display effect should be started is stored in the register of the display CPU 131.

ステップS2801にて否定判定をした場合又はステップS2804の処理を実行した場合、現状設定されている実行対象テーブルに基づき、今回の更新タイミングに対応した種類の画像データを把握する(ステップS2805)。当該画像データには、複数のボーン表示用キャラクタのそれぞれに対応した骨格データ、皮膚データ及びテクスチャデータが含まれる。   If a negative determination is made in step S2801, or if the processing of step S2804 is executed, the type of image data corresponding to the current update timing is grasped based on the currently set execution target table (step S2805). The image data includes skeleton data, skin data, and texture data corresponding to each of a plurality of bone display characters.

その後、ステップS2806にて、ワークRAM132に設けられたボーンモデル数カウンタに今回の表示対象となっているボーン表示用キャラクタの数に対応した値をセットする。続くステップS2807では、ワークRAM132に設けられた単位ボーン数カウンタへのセット処理を実行する。単位ボーン数カウンタへのセット処理では、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタの骨格データに含まれるボーンデータの数を単位ボーン数カウンタにセットする。   After that, in step S2806, a value corresponding to the number of bone display characters that are currently displayed is set in the bone model number counter provided in the work RAM 132. In a succeeding step S2807, a setting process to a unit bone number counter provided in the work RAM 132 is executed. In the setting process to the unit bone number counter, the number of bone data included in the skeleton data of the bone display character corresponding to the current value of the bone model number counter is set to the unit bone number counter.

その後、ステップS2808にて、ワークRAM132の座標演算用エリア169に含まれる各単位演算用エリアを「0」クリアする。続くステップS2809では、今回の座標演算対象となっているボーン表示用キャラクタにおける各ボーンデータの前回の更新タイミングにおいて設定された座標データを当該ボーン表示用キャラクタに対応させて確保されているエリアから読み出し、座標演算用エリア169の対応する各単位演算用エリアにセットする。   Thereafter, in step S2808, “0” is cleared for each unit calculation area included in the coordinate calculation area 169 of the work RAM 132. In the following step S2809, the coordinate data set at the previous update timing of each bone data in the bone display character that is the current coordinate calculation target is read out from the area secured in correspondence with the bone display character. The coordinate calculation area 169 is set in the corresponding unit calculation area.

その後、ステップS2810にて座標演算処理を実行する。座標演算処理は今回の座標演算対象となっているボーン表示用キャラクタに対応する全てのボーンデータに対して実行されるが、その実行順序はメイン親対象のボーンデータが最初であり、その後は親対象としての優先度が高いボーンデータから順に行われる。これにより、メイン親対象のボーンデータの座標データが最初に算出され、その後は当該メイン親対象のボーンデータに近い側の親対象のボーンデータから順に座標データが算出され、最後に末端の子対象のボーンデータの座標データが算出される。   Thereafter, coordinate calculation processing is executed in step S2810. The coordinate calculation process is executed for all bone data corresponding to the bone display character that is the current coordinate calculation target, but the execution order is the bone data of the main parent target first, and then the parent data It is performed in order from bone data having a high priority as a target. As a result, the coordinate data of the main parent target bone data is calculated first, and then the coordinate data is calculated in order from the parent target bone data closer to the main parent target bone data. The coordinate data of the bone data is calculated.

座標演算処理について図59のフローチャートを参照しながら説明する。単位ボーン数カウンタの現状の値に対応したボーンデータがメイン親対象のボーンデータではない場合(ステップS2901:NO)、ステップS2902にて、今回のボーンデータに対して親対象の関係にあるボーンデータについて今回の更新タイミング用に新たに算出された座標データと前回の更新タイミングにおいて設定された座標データ(すなわち座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれている座標データ)との差分データを算出するとともに、その算出した差分データと、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタに対応するボーン重み付けデータとから現状の演算対象のボーンデータに適用すべき座標データの差分データを算出する。そして、その差分データを現状の演算対象のボーンデータにおける前回の更新タイミングにおける座標データ(すなわち座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれている座標データ)に適用することで、新たな座標データを算出する。この算出された座標データは、座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれる。   The coordinate calculation process will be described with reference to the flowchart of FIG. If the bone data corresponding to the current value of the unit bone number counter is not the main parent target bone data (step S2901: NO), in step S2902, the bone data having a parent target relationship with the current bone data. The coordinate data newly calculated for the current update timing and the coordinate data set at the previous update timing (that is, written in the unit calculation area corresponding to the current calculation target bone data in the coordinate calculation area 169). Current coordinate data) and the calculated difference data and the bone weighting data corresponding to the bone display character corresponding to the current value of the bone model number counter. Calculate difference data of coordinate data to be applied to dataThen, the difference data is converted into coordinate data at the previous update timing in the current calculation target bone data (that is, coordinate data written in the unit calculation area corresponding to the current calculation target bone data in the coordinate calculation area 169). ) To calculate new coordinate data. The calculated coordinate data is written in the unit calculation area corresponding to the current bone data to be calculated in the coordinate calculation area 169.

ステップS2901にて肯定判定をした場合又はステップS2902の処理を実行した場合、ステップS2903にて、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタに対応するボーンアニメーションデータに、現状の演算対象のボーンデータについて差分データが設定されているか否かを判定する。差分データが設定されている場合(ステップS2903:YES)、ステップS2904にて、そのボーンアニメーションデータに設定されている差分データを、座標演算用エリア169において現状の演算対象のボーンデータに対応した単位演算用エリアに書き込まれている座標データに対して適用し、その適用後の座標データを当該単位演算用エリアに書き込む。   If an affirmative determination is made in step S2901, or if the process of step S2902 is executed, the current calculation is performed on the bone animation data corresponding to the bone display character corresponding to the current value of the bone model number counter in step S2903. It is determined whether difference data is set for the target bone data. If difference data is set (step S2903: YES), the difference data set in the bone animation data in step S2904 is converted into the unit corresponding to the current calculation target bone data in the coordinate calculation area 169. This is applied to the coordinate data written in the calculation area, and the coordinate data after the application is written in the unit calculation area.

ボーンモデル表示演出用の演算処理(図58)の説明に戻り、ステップS2810にて座標演算処理を実行した後は、ステップS2811にて、ワークRAM132の単位ボーン数カウンタの値を1減算する。その1減算後の単位ボーン数カウンタの値が1以上である場合(ステップS2812:NO)、単位ボーン数カウンタの現状の値に対応したボーンデータについて座標演算処理(ステップS2810)を実行する。   Returning to the description of the calculation process for the bone model display effect (FIG. 58), after the coordinate calculation process is executed in step S2810, the value of the unit bone number counter in the work RAM 132 is decremented by 1 in step S2811. If the value of the unit bone number counter after the subtraction is 1 or more (step S2812: NO), coordinate calculation processing (step S2810) is performed on bone data corresponding to the current value of the unit bone number counter.

単位ボーン数カウンタの値が「0」である場合(ステップS2812:YES)、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタについて全てのボーンデータの座標演算処理が完了したことを意味する。この場合、ステップS2813にて座標データの更新処理を実行する。座標データの更新処理では、座標演算用エリア169の単位演算用エリアに書き込まれている今回の更新タイミングに対応する座標データを、ワークRAM132において今回の演算対象となったボーン表示用キャラクタに対応させて確保されたエリアに書き込む。   If the value of the unit bone number counter is “0” (step S2812: YES), it means that the coordinate calculation processing of all bone data has been completed for the bone display character corresponding to the current value of the bone model number counter. To do. In this case, a coordinate data update process is executed in step S2813. In the coordinate data update process, the coordinate data corresponding to the current update timing written in the unit calculation area of the coordinate calculation area 169 is associated with the bone display character that is the current calculation target in the work RAM 132. Write to the reserved area.

続くステップS2814では、皮膚データの座標演算処理を実行する。皮膚データの座標演算処理では、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタに対応する皮膚重み付けデータを参照しながら、当該ボーン表示用キャラクタの各ボーンデータの座標データに対応させて皮膚データの各頂点データの座標データを算出する。そして、それら座標データを、ワークRAM132において今回の演算対象となったボーン表示用キャラクタに対応させて確保されたエリアに書き込む。   In a succeeding step S2814, a skin data coordinate calculation process is executed. In the skin data coordinate calculation process, referring to the skin weighting data corresponding to the bone display character corresponding to the current value of the bone model number counter, it is made to correspond to the coordinate data of each bone data of the bone display character. Coordinate data of each vertex data of the skin data is calculated. Then, the coordinate data is written in an area secured in the work RAM 132 in correspondence with the bone display character that is the current calculation target.

続くステップS2815では、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタについて、ボーンデータの座標データ及び皮膚データの座標データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132において今回の演算対象となったボーン表示用キャラクタに対応させて確保されたエリアに書き込む。   In the following step S2815, parameter information other than the coordinate data of the bone data and the coordinate data of the skin data is calculated and derived for the bone display character corresponding to the current value of the bone model number counter, and the derived parameter information is In the work RAM 132, the data is written in an area secured in correspondence with the bone display character that is the current calculation target.

その後、ステップS2816にて、ワークRAM132のボーンモデル数カウンタの値を1減算する。その1減算後のボーンモデル数カウンタの値が1以上である場合(ステップS2817:NO)、ボーンモデル数カウンタの現状の値に対応したボーン表示用キャラクタについてステップS2807〜ステップS2816の処理を実行する。ボーンモデル数カウンタの値が「0」である場合(ステップS2817:YES)、ステップS2818にて、ボーンモデル表示演出の実行期間であることをVDP135に認識させるためのボーンモデル表示演出の指定情報を表示CPU131のレジスタに記憶する。   Thereafter, in step S2816, 1 is subtracted from the value of the bone model number counter of the work RAM 132. When the value of the bone model number counter after the subtraction is 1 or more (step S2817: NO), the processing of steps S2807 to S2816 is executed for the bone display character corresponding to the current value of the bone model number counter. . When the value of the bone model number counter is “0” (step S2817: YES), in step S2818, designation information of the bone model display effect for allowing the VDP 135 to recognize that it is the execution period of the bone model display effect. Store in the register of the display CPU 131.

上記のようにボーンモデル表示演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、表示対象となる複数のボーン表示用キャラクタに対応する骨格データ、皮膚データ及びテクスチャデータの使用指示の情報が設定される。また、当該描画リストには、各ボーン表示用キャラクタにおけるボーンデータの座標データ及び皮膚データの各頂点データの座標データを含めて、各画像データに適用するパラメータ情報が設定される。また、当該描画リストにはボーンモデル表示演出の指定情報が設定され、さらにボーンモデル表示演出の開始タイミングにおいてはボーンモデル表示演出の開始指定情報が設定される。   When the calculation process for the bone model display effect is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output process (step S609) includes a plurality of bone display characters to be displayed. Corresponding skeleton data, skin data, and texture data use instruction information are set. In the drawing list, parameter information to be applied to each image data is set including the coordinate data of bone data and the coordinate data of each vertex data of skin data in each bone display character. In addition, bone model display effect designation information is set in the drawing list, and bone model display effect start designation information is set at the start timing of the bone model display effect.

次に、VDP135にて実行されるボーンモデル表示演出用の設定処理を、図60のフローチャートを参照しながら説明する。ボーンモデル表示演出用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいてボーンモデル表示演出の指定情報が設定されている場合に、ボーンモデル表示演出用の設定処理が実行される。   Next, the setting process for the bone model display effect executed in the VDP 135 will be described with reference to the flowchart of FIG. The setting process for the bone model display effect is executed as a part of the effect setting process executed in step S2303 of the drawing process (FIG. 44). Also, when the bone model display effect designation information is set in the drawing list, the setting process for the bone model display effect is executed.

今回の描画リストにボーンモデル表示演出の開始指定情報が設定されている場合(ステップS3001:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている複数のボーン表示用キャラクタに対応する骨格データ、皮膚データ及びテクスチャデータが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール133からこれら画像データをVRAM134の展開用バッファ141に読み出す(ステップS3002)。   When the start specification information of the bone model display effect is set in the current drawing list (step S3001: YES), the memory module 133 becomes the current display target from the address information set in the drawing list. The address of the area where the skeleton data, skin data and texture data corresponding to a plurality of bone display characters are stored is grasped, and based on the grasped result, these image data are stored in the development buffer 141 of the VRAM 134. Read (step S3002).

ステップS3001にて否定判定をした場合、又はステップS3002の処理を実行した場合、ステップS3003にて、今回の更新タイミングに対応した種類の画像データを把握する。また、ステップS3004にて、表示対象となっている各ボーン表示用キャラクタのそれぞれに対応する各ボーンデータのワールド座標系における座標データを今回の描画リストから把握し、ステップS3005にて、表示対象となっている各ボーン表示用キャラクタのそれぞれに対応する皮膚データの各頂点データのワールド座標系における座標データを今回の描画リストから把握し、さらにステップS3006にて、表示対象となっている各ボーン表示用キャラクタについての他のパラメータ情報を今回の描画リストから把握する。そして、ステップS3007にて、ステップS3003〜ステップS3006の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。   If a negative determination is made in step S3001, or if the process of step S3002 is executed, the type of image data corresponding to the current update timing is grasped in step S3003. In step S3004, coordinate data in the world coordinate system of each bone data corresponding to each bone display character that is a display target is grasped from the current drawing list. The coordinate data in the world coordinate system of each vertex data of the skin data corresponding to each of the bone display characters is grasped from the current drawing list, and each bone display to be displayed is displayed in step S3006. The other parameter information about the character for use is grasped from the current drawing list. In step S3007, the setting process to the world coordinate system is executed according to the contents corresponding to the grasp results in steps S3003 to S3006.

上記のようにボーンモデル表示演出用の設定処理が実行されることにより、ワールド座標系に今回の表示対象となっている複数のボーン表示用キャラクタのそれぞれに対応する骨格データ及び皮膚データが配置されるとともに、各ボーンデータ及び皮膚データの座標データとしてボーン重み付けデータ、皮膚重み付けデータ及びボーンアニメーションデータを利用して導出された座標データが適用される。これにより、表示面Pでは、複数のボーン表示用キャラクタが動作するように動画表示が行われる。   By executing the setting process for the bone model display effect as described above, the skeleton data and the skin data corresponding to each of the plurality of bone display characters that are currently displayed are arranged in the world coordinate system. In addition, coordinate data derived using bone weighting data, skin weighting data and bone animation data is applied as coordinate data of each bone data and skin data. Thereby, on the display surface P, a moving image is displayed so that a plurality of bone display characters operate.

<集合単位キャラクタCHG1〜CHG5の説明>
ここで、ボーン表示用キャラクタの1種として、集合キャラクタ群CHGが設定されている。図61(a)及び図61(b)は当該集合キャラクタ群CHGを説明するための説明図である。
<Description of Set Unit Characters CHG1 to CHG5>
Here, a collective character group CHG is set as one type of bone display character. 61 (a) and 61 (b) are explanatory diagrams for explaining the collective character group CHG.

図61(a)に示すように、集合キャラクタ群CHGは、複数(具体的には5個)の集合単位キャラクタCHG1〜CHG5からなる。各集合単位キャラクタCHG1〜CHG5はいずれも、図61(b)に示すように、複数のボーンデータABD及び複数のジョイントデータAJDを有する集合用骨格データFRD2と、集合用皮膚データSKD2と、集合用テクスチャデータBTD2とを利用して表示される。各集合単位キャラクタCHG1〜CHG5について既に説明したボーンモデル表示演出用の演算処理(図58)及びボーンモデル表示演出用の設定処理(図60)が実行されることにより、所定の座標データに設定された集合用骨格データFRD2に対して集合用皮膚データSKD2が適用され、図61(b)に示すようにワールド座標系において各集合単位キャラクタCHG1〜CHG5の3D表示が行われる。そして、それに対して集合用テクスチャデータBTD2を適用しながら描画を行うことで図61(a)に示すように表示面Pにおいて各集合単位キャラクタCHG1〜CHG5の画像表示が行われる。なお、これら各データFRD2,SKD2,BTD2は図56に示すようにメモリモジュール133に予め記憶されている。   As shown in FIG. 61A, the collective character group CHG includes a plurality (specifically, five) of collective unit characters CHG1 to CHG5. As shown in FIG. 61 (b), each set unit character CHG1 to CHG5 has a set skeleton data FRD2 having a plurality of bone data ABD and a plurality of joint data AJD, set skin data SKD2, and set data. Displayed using the texture data BTD2. By executing the calculation process for the bone model display effect (FIG. 58) and the setting process for the bone model display effect (FIG. 60) already described for each set unit character CHG1 to CHG5, the predetermined coordinate data is set. The collective skin data SKD2 is applied to the collective skeleton data FRD2, and the collective unit characters CHG1 to CHG5 are displayed in 3D in the world coordinate system as shown in FIG. 61 (b). Then, drawing is performed while applying the set texture data BTD2 to the image of the set unit characters CHG1 to CHG5 on the display surface P as shown in FIG. 61 (a). These data FRD2, SKD2, and BTD2 are stored in advance in the memory module 133 as shown in FIG.

各集合単位キャラクタCHG1〜CHG5はいずれも、図61(a)に示すように、同一の形状、模様及びサイズのキャラクタであると遊技者に認識される態様で表示される。これら集合単位キャラクタCHG1〜CHG5は例えばボーン表示用キャラクタCH10が所定の動作をするように表示面Pにて表示されている状況において、当該ボーン表示用キャラクタCH10の周囲で特定の動作をするように表示面Pにて表示される。この場合、ボーン表示用キャラクタCH10にて大当たり結果といった利益の付与期待度を示す動作表示が行われるのに対して、そのような付与期待度を示す動作表示が集合単位キャラクタCHG1〜CHG5においては行われない。そうすると、遊技者はボーンモデル表示演出が実行された場合、ボーン表示用キャラクタCH10に注目することとなる。このような事情において、ボーン表示用キャラクタCH10においては細かな動きが必要となるのに対して、各集合単位キャラクタCHG1〜CHG5においては細かな動きが必要とならない。そこで、各集合単位キャラクタCHG1〜CHG5のボーンデータABDの数はボーン表示用キャラクタCH10のボーンデータBODの数よりも少なく設定されており、さらに各集合単位キャラクタCHG1〜CHG5を表示するために必要なデータ量を少なくするための工夫及び各集合単位キャラクタCHG1〜CHG5を表示するための処理負荷を低減するための工夫が施されている。   Each of the collective unit characters CHG1 to CHG5 is displayed in such a manner that the player recognizes that the characters have the same shape, pattern and size, as shown in FIG. 61 (a). These set unit characters CHG1 to CHG5, for example, perform specific actions around the bone display character CH10 in a situation where the bone display character CH10 is displayed on the display surface P so as to perform a predetermined action. It is displayed on the display surface P. In this case, while the bone display character CH10 performs an action display indicating the expected degree of grant such as a jackpot result, the action display indicating such an expected degree of grant is performed in the collective unit characters CHG1 to CHG5. I will not. Then, when the bone model display effect is executed, the player pays attention to the bone display character CH10. Under such circumstances, the bone display character CH10 requires fine movement, whereas the collective unit characters CHG1 to CHG5 do not require fine movement. Therefore, the number of bone data ABD of each set unit character CHG1 to CHG5 is set to be smaller than the number of bone data BOD of the bone display character CH10, and is further necessary to display each set unit character CHG1 to CHG5. A device for reducing the amount of data and a device for reducing the processing load for displaying each set unit character CHG1 to CHG5 are provided.

以下、各集合単位キャラクタCHG1〜CHG5を表示するためのデータ構成について詳細に説明する。図62は各集合単位キャラクタCHG1〜CHG5の骨格データFRD2を説明するための説明図であり、図63(a)〜図63(c)はボーン表示用キャラクタCH10と集合単位キャラクタCHG1〜CHG5との各データ量を比較するための説明図である。   Hereinafter, the data structure for displaying each set unit character CHG1-CHG5 is demonstrated in detail. FIG. 62 is an explanatory diagram for explaining the skeleton data FRD2 of the set unit characters CHG1 to CHG5. FIGS. 63A to 63C show the bone display character CH10 and the set unit characters CHG1 to CHG5. It is explanatory drawing for comparing each data amount.

図62に示すように、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10の数、第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20の数、第3集合単位キャラクタCHG3のボーンデータABD21〜ABD30の数、第4集合単位キャラクタCHG4のボーンデータABD31〜ABD40の数、及び第5集合単位キャラクタCHG5のボーンデータABD41〜ABD50の数はいずれも10個となっており、全ての集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数は合計で50個となっている。そして、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50は一の集合用骨格データFRD2に集約させて設定されている。   As shown in FIG. 62, the number of bone data ABD1 to ABD10 of the first set unit character CHG1, the number of bone data ABD11 to ABD20 of the second set unit character CHG2, and the number of bone data ABD21 to ABD30 of the third set unit character CHG3. The number of bone data ABD31 to ABD40 of the fourth set unit character CHG4 and the number of bone data ABD41 to ABD50 of the fifth set unit character CHG5 are all 10, and all the set unit characters CHG1 to CHG5 The total number of bone data ABD1 to ABD50 is 50. Then, the bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 are set to be aggregated into one set skeleton data FRD2.

各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の合計数は、ボーン表示用キャラクタCH10のボーンデータBODの合計数と同一となっている。したがって、図63(a−1)及び図63(a−2)に示すように、骨格データFRD1によりボーン表示用キャラクタCH10という1キャラクタのみが表示され、集合用骨格データFRD2により第1〜第5集合単位キャラクタCHG1〜CHG5という5キャラクタの表示が可能であるにも関わらず、ボーン表示用キャラクタCH10を表示するための骨格データFRD1と各集合単位キャラクタCHG1〜CHG5を表示するための集合用骨格データFRD2とはデータ量が同一又は略同一となっている。この場合、各集合単位キャラクタCHG1〜CHG5のそれぞれに対応させてボーン表示用キャラクタCH10と同数のボーンデータを設定する構成に比べデータ容量を削減することが可能となる。また、各骨格データFRD1,FRD2にはVDP135にて参照されるヘッダデータが付随することとなるが、各集合単位キャラクタCHG1〜CHG5毎に骨格データを個別に設定するのではなく一の集合用骨格データFRD2として集約することにより、そのような付随するデータを削減することが可能となる。   The total number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is the same as the total number of bone data BOD of the bone display character CH10. Therefore, as shown in FIGS. 63 (a-1) and 63 (a-2), only one character, bone display character CH10, is displayed by the skeleton data FRD1, and the first to fifth skeleton data FRD2 are used. Despite being able to display five characters, the collective unit characters CHG1 to CHG5, the skeleton data FRD1 for displaying the bone display character CH10 and the collective skeleton data for displaying the collective unit characters CHG1 to CHG5 The amount of data is the same or substantially the same as FRD2. In this case, it is possible to reduce the data capacity compared to a configuration in which the same number of bone data as the bone display character CH10 is set corresponding to each of the set unit characters CHG1 to CHG5. Each skeleton data FRD1, FRD2 is accompanied by header data referred to by the VDP 135, but the skeleton data is not set individually for each set unit character CHG1 to CHG5, but one set skeleton. By consolidating as data FRD2, it is possible to reduce such accompanying data.

各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数が50個であり、これらボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約して設定されていることにより、ボーン表示演出用の演算処理(図58)では、各ボーンデータABD1〜ABD50の座標データの演算が一のボーン表示用キャラクタのボーンデータと同様にまとめて行われる。   The number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is 50, and these bone data ABD1 to ABD50 are aggregated and set in one set skeleton data FRD2. In the calculation process (FIG. 58), the calculation of the coordinate data of each of the bone data ABD1 to ABD50 is performed in the same manner as the bone data of one bone display character.

詳細には、ボーン表示演出用の演算処理(図58)では、既に説明したとおり、各ボーンデータの座標データが演算に導出されることとなるが、この演算に際しては一の骨格データに含まれるボーンデータがまとめて読み出されてまとめて処理される(ステップS2808〜ステップS2813)。そして、この演算処理に際しては、ワークRAM132に設けられた座標演算用エリア169を利用することとなるが、座標演算用エリア169において各ボーンデータの座標データを演算するためのデータを格納可能な単位演算用エリアの数は50個となっている。これに対して、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50は上記のとおり一の集合用骨格データFRD2に集約させて設定されているとともに、当該ボーンデータABD1〜ADB50の合計数は座標演算用エリア169における単位演算用エリアの合計数以下となっている。したがって、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の座標データを演算する場合にはそれらボーンデータABD1〜ABD50を一度に読み出して演算処理を実行することが可能となる。よって、集合単位キャラクタCHG1〜CHG5毎に個別にデータの読み出しを行い、一の集合単位キャラクタCHG1〜CHG5についてのボーンデータの座標データの演算が完了した後に次の一の集合単位キャラクタCHG1〜CHG5についてのボーンデータの座標データの演算を行う構成に比べて、処理負荷の低減が図られる。   Specifically, in the calculation process for bone display effect (FIG. 58), as already described, the coordinate data of each bone data is derived in the calculation, and this calculation includes the one skeleton data. The bone data is read together and processed together (steps S2808 to S2813). In this calculation process, the coordinate calculation area 169 provided in the work RAM 132 is used. The coordinate calculation area 169 can store data for calculating the coordinate data of each bone data. The number of calculation areas is 50. On the other hand, the bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 are set as one set of the skeleton data FRD2 as described above, and the total number of the bone data ABD1 to ADB50 is the coordinate. The total number of unit calculation areas in the calculation area 169 is less than or equal to the total number. Therefore, when calculating the coordinate data of the bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5, the bone data ABD1 to ABD50 can be read at a time and the calculation process can be executed. Therefore, data is individually read for each set unit character CHG1 to CHG5, and after the calculation of the coordinate data of bone data for one set unit character CHG1 to CHG5 is completed, the next set unit character CHG1 to CHG5 is set. The processing load can be reduced as compared with the configuration in which the coordinate data of the bone data is calculated.

集合単位キャラクタCHG1〜CHG5の各ボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約させて設定されている構成において、各ボーンデータABD1〜ABD50の親対象と子対象との関係が異なるキャラクタ間で設定されている。具体的には、図62に示すように、各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数は同一であり、さらに図61(b)に示すように、各集合単位キャラクタCHG1〜CHG5におけるボーンデータABD1〜ABD50の配列態様が相互に同一であることにより各集合単位キャラクタCHG1〜CHG5の骨格は同一形状及び同一サイズとなっている。この場合、図62において同一のグループG1〜G10に含まれる各ボーンデータABD1〜ABD50は、各集合単位キャラクタCHG1〜CHG5において同一の位置の骨格部分に対応している。例えば、第1グループG1に含まれる第1ボーンデータABD1、第11ボーンデータABD11、第21ボーンデータABD21、第31ボーンデータABD31及び第41ボーンデータABD41は、それぞれ対応する集合単位キャラクタCHG1〜CHG5において頭の骨格部分に対応しており、第10グループG10に含まれる第10ボーンデータABD10、第20ボーンデータABD20、第30ボーンデータABD30、第40ボーンデータABD40及び第50ボーンデータABD50は、それぞれ対応する集合単位キャラクタCHG1〜CHG5において右足の骨格部分に対応している。   In a configuration in which the bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 are set to be aggregated into one set skeleton data FRD2, the characters having different relationships between the parent and child targets of the bone data ABD1 to ABD50 Is set between. Specifically, as shown in FIG. 62, the number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is the same, and further, as shown in FIG. 61 (b), each set unit character CHG1 to CHG5. Since the arrangement modes of the bone data ABD1 to ABD50 are the same, the skeletons of the set unit characters CHG1 to CHG5 have the same shape and the same size. In this case, the bone data ABD1 to ABD50 included in the same group G1 to G10 in FIG. 62 correspond to the skeleton portions at the same positions in the set unit characters CHG1 to CHG5. For example, the first bone data ABD1, the 11th bone data ABD11, the 21st bone data ABD21, the 31st bone data ABD31, and the 41st bone data ABD41 included in the first group G1 are respectively in the corresponding set unit characters CHG1 to CHG5. It corresponds to the skeleton of the head, and the 10th bone data ABD10, 20th bone data ABD20, 30th bone data ABD30, 40th bone data ABD40 and 50th bone data ABD50 included in the 10th group G10 correspond respectively. The set unit characters CHG1 to CHG5 correspond to the skeleton portion of the right foot.

各グループG1〜G10のそれぞれにおいて第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10が、第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対して親対象の関係に設定されている。例えば、第1グループG1においては第1集合単位キャラクタCHG1の第1ボーンデータABD1が第2〜第5集合単位キャラクタCHG2〜CHG5の第11ボーンデータABD11、第21ボーンデータABD21、第31ボーンデータABD31及び第41ボーンデータABD41のそれぞれに対して親対象の関係に設定されている。   In each of the groups G1 to G10, the bone data ABD1 to ABD10 of the first set unit character CHG1 are set to have a parent object relationship with the bone data ABD11 to ABD50 of the second to fifth set unit characters CHG2 to CHG5. Yes. For example, in the first group G1, the first bone data ABD1 of the first set unit character CHG1 is the 11th bone data ABD11, 21st bone data ABD21, and 31st bone data ABD31 of the second to fifth set unit characters CHG2 to CHG5. The 41th bone data ABD41 is set to have a parent object relationship.

その一方、それ以外については、同一の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50間及び異なる集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50間のいずれにおいても親対象と子対象との関係は設定されていない。例えば、第1集合単位キャラクタCHG1の第1〜第10ボーンデータABD1〜ABD10間において親対象と子対象との関係は設定されていない。また、例えば第1グループG1における第2〜第5集合単位キャラクタCHG2〜CHG5の第11ボーンデータABD11、第21ボーンデータABD21、第31ボーンデータABD31及び第41ボーンデータABD41間において親対象と子対象との関係は設定されていない。   On the other hand, in other cases, the relationship between the parent object and the child object is the bone data ABD1 to ABD50 of the same set unit character CHG1 to CHG5 and the bone data ABD1 to ABD50 of the different set unit characters CHG1 to CHG5. Is not set. For example, the relationship between the parent object and the child object is not set between the first to tenth bone data ABD1 to ABD10 of the first set unit character CHG1. Further, for example, a parent object and a child object between the 11th bone data ABD11, 21st bone data ABD21, 31st bone data ABD31 and 41st bone data ABD41 of the 2nd to 5th set unit characters CHG2 to CHG5 in the first group G1 The relationship with is not set.

上記のように親対象と子対象との関係が設定されている構成において、メモリモジュール133に記憶された集合用ボーン重み付けデータBWD2(図56参照)は、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10のいずれかに対して座標データの差分データが適用される場合には、その差分データの適用対象となるボーンデータABD1〜ABD10と同一グループG1〜G10に含まれる他の集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対してそのまま適用されるように設定されている。したがって、第2〜第5集合単位キャラクタCHG2〜CHG5は第1集合単位キャラクタCHG1が移動する場合にはそれに追従することとなる。   In the configuration in which the relationship between the parent object and the child object is set as described above, the set bone weighting data BWD2 (see FIG. 56) stored in the memory module 133 is the bone data ABD1 of the first set unit character CHG1. When difference data of coordinate data is applied to any one of ABD10, other set unit characters CHG2 included in the same group G1 to G10 as bone data ABD1 to ABD10 to which the difference data is applied. It is set to be applied as it is to the bone data ABD11 to ABD50 of CHG5. Accordingly, the second to fifth set unit characters CHG2 to CHG5 follow the first set unit character CHG1 when the first set unit character CHG1 moves.

その一方、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10間においては親対象と子対象との関係が設定されていないため、第1集合単位キャラクタCHG1の一のボーンデータABD1〜ABD10が移動したとしても他のボーンデータABD1〜ABD10がそれに追従して移動することはない。これは第2〜第5集合単位キャラクタCHG2〜CHG5においても同様である。また、第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50間においては親対象と子対象との関係が設定されていないため、例えば第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20が移動したとしても、第3〜第5集合単位キャラクタCHG3〜CHG5のボーンデータABD31〜ABD50がそれに追従して移動することはない。なお、当然のことながら、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10は第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20に対して親対象の関係にあるため、第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20が移動したとしても、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10がそれに追従して移動することはない。   On the other hand, since the relationship between the parent object and the child object is not set between the bone data ABD1 to ABD10 of the first set unit character CHG1, the bone data ABD1 to ABD10 of the first set unit character CHG1 has moved. However, the other bone data ABD1 to ABD10 do not move following it. The same applies to the second to fifth set unit characters CHG2 to CHG5. Further, since the relationship between the parent object and the child object is not set between the bone data ABD11 to ABD50 of the second to fifth set unit characters CHG2 to CHG5, for example, the bone data ABD11 to ABD20 of the second set unit character CHG2 is set. Is moved, the bone data ABD31 to ABD50 of the third to fifth set unit characters CHG3 to CHG5 do not move following the movement. As a matter of course, since the bone data ABD1 to ABD10 of the first set unit character CHG1 are in a parent object relationship with the bone data ABD11 to ABD20 of the second set unit character CHG2, the second set unit character CHG2 Even if the bone data ABD11 to ABD20 move, the bone data ABD1 to ABD10 of the first set unit character CHG1 does not move following it.

各集合単位キャラクタCHG1〜CHG5を動作させるための集合用ボーンアニメーションデータBAD2及び当該集合用ボーンアニメーションデータBAD2を利用した場合における各集合単位キャラクタCHG1〜CHG5の動作内容について、図64及び図65を参照しながら説明する。図64は集合用ボーンアニメーションデータBAD2を説明するための説明図であり、図65は各集合単位キャラクタCHG1〜CHG5の動作内容を説明するための説明図である。   FIG. 64 and FIG. 65 are referred to for the contents of the collective bone animation data BAD2 for operating the collective unit character CHG1 to CHG5 and the operation contents of the collective unit character CHG1 to CHG5 when the collective bone animation data BAD2 is used. While explaining. FIG. 64 is an explanatory view for explaining the bone animation data for collection BAD2, and FIG. 65 is an explanatory view for explaining the operation content of each of the set unit characters CHG1 to CHG5.

図64に示すように、集合用ボーンアニメーションデータBAD2には画像の一の更新タイミングに対応したポインタ情報が設定されているとともに、各ポインタ情報に対応させて差分データが設定されている。「0」〜「m」のポインタ情報に対しては、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対してのみ差分データが設定されている。当該差分データは第1集合単位キャラクタCHG1の形状を維持したまま一方向に移動させるデータに対応している。   As shown in FIG. 64, pointer information corresponding to one update timing of the image is set in the collective bone animation data BAD2, and difference data is set corresponding to each pointer information. For the pointer information “0” to “m”, difference data is set only for the bone data ABD1 to ABD10 of the first set unit character CHG1. The difference data corresponds to data that is moved in one direction while maintaining the shape of the first set unit character CHG1.

かかる差分データが設定された期間においては、図65(a)に示すように各集合単位キャラクタCHG1〜CHG5が動画表示されることとなる。具体的には、各集合単位キャラクタCHG1〜CHG5の初期表示位置においては、図65(a−1)に示すように、各集合単位キャラクタCHG1〜CHG5が相互に同一の形状となった状態で所定方向に等間隔で並んでいる。この場合に、「0」〜「m」のポインタ情報に設定されている差分データが第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に適用された場合には、当該差分データがそのまま第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に適用されるため、図65(a−2)に示すように、各集合単位キャラクタCHG1〜CHG5が形状及び間隔を維持したまま一方向に移動する。   During the period in which such difference data is set, each set unit character CHG1 to CHG5 is displayed as a moving image as shown in FIG. Specifically, at the initial display positions of the set unit characters CHG1 to CHG5, as shown in FIG. 65 (a-1), the set unit characters CHG1 to CHG5 are predetermined in a state in which they have the same shape. It is lined up at equal intervals in the direction. In this case, when the difference data set in the pointer information of “0” to “m” is applied to the bone data ABD1 to ABD10 of the first set unit character CHG1, the difference data is directly stored in the second to second data. Since it is applied to the bone data ABD11 to ABD50 of the fifth set unit characters CHG2 to CHG5, as shown in FIG. 65 (a-2), each set unit character CHG1 to CHG5 maintains the shape and the interval in one direction. Moving.

図64に示す集合用ボーンアニメーションデータBAD2の説明に戻り、「m+1」〜「n」のポインタ情報に対しては、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対してだけでなく、第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対しても差分データが設定されている。これら差分データは第1集合単位キャラクタCHG1についてはその形状を維持したまま一方向に移動させるデータに対応しており、第2集合単位キャラクタCHG2及び第4集合単位キャラクタCHG4についてはその形状を維持したまま上記一方向とは逆方向に移動させるデータに対応しており、第3集合単位キャラクタCHG3及び第5集合単位キャラクタCHG5についてはその形状を変更させるデータに対応している。   Returning to the description of the collective bone animation data BAD2 shown in FIG. 64, the pointer information of “m + 1” to “n” is not only for the bone data ABD1 to ABD10 of the first collective unit character CHG1, but Difference data is also set for the bone data ABD11 to ABD50 of the second to fifth set unit characters CHG2 to CHG5. The difference data corresponds to data that moves in one direction while maintaining the shape of the first set unit character CHG1, and maintains the shape of the second set unit character CHG2 and the fourth set unit character CHG4. This corresponds to data that is moved in the direction opposite to the one direction, and corresponds to data that changes the shape of the third set unit character CHG3 and the fifth set unit character CHG5.

かかる差分データが設定された期間においては、図65(b)に示すように各集合単位キャラクタCHG1〜CHG5が動画表示されることとなる。具体的には、各集合単位キャラクタCHG1〜CHG5が図65(b−1)に示すように表示されている状態から、図65(b−2)に示すように第1〜第5集合単位キャラクタCHG1〜CHG5の全体として一方向に移動しながら、第2集合単位キャラクタCHG2と第3集合単位キャラクタCHG3との間の距離及び第4集合単位キャラクタCHG4と第5集合単位キャラクタCHG5との間の距離が短くなるとともに、第3集合単位キャラクタCHG3及び第5集合単位キャラクタCHG5の形状が変更される。   During the period in which such difference data is set, the set unit characters CHG1 to CHG5 are displayed as moving images as shown in FIG. Specifically, from the state where each set unit character CHG1 to CHG5 is displayed as shown in FIG. 65 (b-1), the first to fifth set unit characters as shown in FIG. 65 (b-2). The distance between the second set unit character CHG2 and the third set unit character CHG3 and the distance between the fourth set unit character CHG4 and the fifth set unit character CHG5 while moving in one direction as a whole of CHG1 to CHG5. And the shapes of the third set unit character CHG3 and the fifth set unit character CHG5 are changed.

次に、集合用皮膚データSKD2及び集合用テクスチャデータBTD2のデータ量について説明する。   Next, the data amounts of the collection skin data SKD2 and the collection texture data BTD2 will be described.

各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に対しては共通の集合用皮膚データSKD2が設定されているとともに、共通の集合用テクスチャデータBTD2が設定されている。つまり、集合用皮膚データSKD2は1個の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に適用されるデータとして設定されている。さらに言うと、集合用皮膚データSKD2は10個のボーンデータに適用されるデータとして設定されている。そして、第1〜第5集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に集合用皮膚データSKD2が適用される場合には、メモリモジュール133から読み出された一の集合用皮膚データSKD2が第1〜第5集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50のそれぞれに対して適用される。   For the bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5, common set skin data SKD2 is set and common set texture data BTD2 is set. That is, the collective skin data SKD2 is set as data applied to the bone data ABD1 to ABD50 of one collective unit character CHG1 to CHG5. Furthermore, the collection skin data SKD2 is set as data applied to 10 bone data. When the collection skin data SKD2 is applied to the bone data ABD1 to ABD50 of the first to fifth set unit characters CHG1 to CHG5, the one collection skin data SKD2 read from the memory module 133 is the first. This is applied to each of the bone data ABD1 to ABD50 of the first to fifth set unit characters CHG1 to CHG5.

当該適用を行うための集合用皮膚データSKD2の各頂点データATDの座標データは、メモリモジュール133に記憶された集合用皮膚重み付けデータSWD2を参照することにより決定される。集合用皮膚重み付けデータSWD2においては、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10と集合用皮膚データSKD2との対応関係、第2集合単位キャラクタCHG2のボーンデータABD11〜ABD20と集合用皮膚データSKD2との対応関係、第3集合単位キャラクタCHG3のボーンデータABD21〜ABD30と集合用皮膚データSKD2との対応関係、第4集合単位キャラクタCHG4のボーンデータABD31〜ABD40と集合用皮膚データSKD2との対応関係、及び第5集合単位キャラクタCHG5のボーンデータABD41〜ABD50と集合用皮膚データSKD2との対応関係が設定されている。   The coordinate data of each vertex data ATD of the collection skin data SKD2 for performing the application is determined by referring to the collection skin weight data SWD2 stored in the memory module 133. In the set skin weighting data SWD2, the correspondence between the bone data ABD1 to ABD10 of the first set unit character CHG1 and the set skin data SKD2, the bone data ABD11 to ABD20 of the second set unit character CHG2 and the set skin data SKD2 , The correspondence between the bone data ABD21 to ABD30 of the third set unit character CHG3 and the skin data SKD2 for gathering, the correspondence between the bone data ABD31 to ABD40 of the fourth set unit character CHG4 and the skin data SKD2 for gathering The correspondence relationship between the bone data ABD41 to ABD50 of the fifth collective unit character CHG5 and the collective skin data SKD2 is set.

第1集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約させて設定された構成において、集合用皮膚データSKD2が1個の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50に適用されるデータとして設定されていることにより、図63(b−1)及び図63(b−2)に示すように、ボーン表示用キャラクタCH10を表示するための皮膚データSKD1に対して、集合用皮膚データSKD2は1/5のデータ量となっている。   In a configuration in which the bone data ABD1 to ABD50 of the first set unit characters CHG1 to CHG5 are aggregated and set in one set skeleton data FRD2, the set skin data SKD2 is bone data of one set unit character CHG1 to CHG5. By being set as data applied to ABD1 to ABD50, as shown in FIGS. 63 (b-1) and 63 (b-2), the skin data SKD1 for displaying the bone display character CH10 is displayed. On the other hand, the collection skin data SKD2 has a data amount of 1/5.

集合用テクスチャデータBTD2についても同様に、集合用テクスチャデータBTD2は1個の集合単位キャラクタCHG1〜CHG5に適用されるデータとして設定されている。そして、集合単位キャラクタCHG1〜CHG5を表示するために集合用テクスチャデータBTD2が適用される場合には、メモリモジュール133から読み出された一の集合用テクスチャデータBTD2が第1〜第5集合単位キャラクタCHG1〜CHG5のそれぞれに対して適用される。これにより、図63(c−1)及び図63(c−2)に示すように、ボーン表示用キャラクタCH10を表示するためのテクスチャデータBTD1に対して、集合用テクスチャデータBTD2は1/5のデータ量となっている。   Similarly, the collective texture data BTD2 is set as data applied to one collective unit character CHG1 to CHG5. When the collective texture data BTD2 is applied to display the collective unit characters CHG1 to CHG5, the one collective texture data BTD2 read from the memory module 133 is the first to fifth collective unit characters. This is applied to each of CHG1 to CHG5. As a result, as shown in FIGS. 63 (c-1) and 63 (c-2), the texture data BTD2 for collection is 1/5 of the texture data BTD1 for displaying the bone display character CH10. The amount of data.

ボーンモデル表示演出用の演算処理(図58)では、複数のボーン表示用キャラクタのボーンデータの座標データを演算する場合、一の骨格データに含まれるボーンデータに対応するデータをワークRAM132の座標演算用エリア169にまとめて読み出し、これらボーンデータに対して座標データの演算が完了した後に、次の骨格データについてボーンデータの座標データの演算を行う。これにより、座標データの演算が一の骨格データの単位で行われることとなり、一の骨格データに含まれるボーンデータの座標データを演算するための各種設定が複数回に分けて実行される構成に比べて、ステップS2808及びステップS2809の処理の実行回数を抑えられる点で処理負荷を低減することが可能となる。   In the calculation process for the bone model display effect (FIG. 58), when the coordinate data of the bone data of a plurality of bone display characters is calculated, the data corresponding to the bone data included in one skeleton data is calculated by the coordinate calculation of the work RAM 132. The data is read in the area 169 and coordinate data is calculated for the bone data, and then the bone data coordinate data is calculated for the next skeleton data. As a result, the calculation of coordinate data is performed in units of one skeleton data, and various settings for calculating the coordinate data of bone data included in one skeleton data are executed in multiple times. In comparison, the processing load can be reduced in that the number of executions of the processes in steps S2808 and S2809 can be suppressed.

細かな動きの制御を必要としない複数の集合単位キャラクタCHG1〜CHG5については各集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の数が少なく抑えられているとともにそれらボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約して設定されている。これにより、複数の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の座標データを演算する場合に、それらボーンデータABD1〜ABD50の座標演算をまとめて行うことが可能となり、集合単位キャラクタCHG1〜CHG5毎に座標データを演算するための各種設定が行われる構成に比べて処理負荷を低減することが可能となる。   For a plurality of set unit characters CHG1 to CHG5 that do not require fine movement control, the number of bone data ABD1 to ABD50 of each set unit character CHG1 to CHG5 is reduced, and the bone data ABD1 to ABD50 are one. The aggregate skeleton data FRD2 is aggregated and set. Thereby, when calculating the coordinate data of the bone data ABD1 to ABD50 of the plurality of collective unit characters CHG1 to CHG5, it is possible to perform coordinate calculation of the bone data ABD1 to ABD50 collectively, and the collective unit characters CHG1 to CHG5. The processing load can be reduced compared to a configuration in which various settings for calculating coordinate data are performed every time.

集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50が一の集合用骨格データFRD2に集約して設定されている構成において、第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10が第2〜第5集合単位キャラクタCHG2〜CHG5のボーンデータABD11〜ABD50に対して親対象の関係に設定されている。これにより、集合用ボーンアニメーションデータBAD2において第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対する座標データの設定を行うだけで、第1〜第5集合単位キャラクタCHG1〜CHG5の全てを一体的に移動させることが可能となる。よって、集合用ボーンアニメーションデータBAD2のデータ量を少なく抑えながら、第1〜第5集合単位キャラクタCHG1〜CHG5を一体的に移動させることが可能となる。その一方、親対象のボーンデータABD1〜ABD10の座標データに影響を与えないようにしながら、各子対象のボーンデータABD11〜ABD50の座標データを調整することが可能である。これにより、上記のように第1集合単位キャラクタCHG1のボーンデータABD1〜ABD10に対する座標データの設定を行うだけで第1〜第5集合単位キャラクタCHG1〜CHG5の全てを一体的に移動させることを可能としながら、第2〜第5集合単位キャラクタCHG2〜CHG5の表示位置を個別に変化させることが可能となる。   In a configuration in which the bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 are aggregated and set in one set skeleton data FRD2, the bone data ABD1 to ABD10 of the first set unit character CHG1 are the second to fifth sets. The parent character relationship is set for the bone data ABD11 to ABD50 of the unit characters CHG2 to CHG5. As a result, all the first to fifth collective unit characters CHG1 to CHG5 are moved together by simply setting the coordinate data for the bone data ABD1 to ABD10 of the first collective unit character CHG1 in the collective bone animation data BAD2. It becomes possible to make it. Therefore, it is possible to move the first to fifth collective unit characters CHG1 to CHG5 integrally while suppressing the data amount of the collective bone animation data BAD2. On the other hand, it is possible to adjust the coordinate data of the bone data ABD11 to ABD50 of each child object without affecting the coordinate data of the bone data ABD1 to ABD10 of the parent object. As a result, it is possible to move all of the first to fifth collective unit characters CHG1 to CHG5 integrally by simply setting the coordinate data for the bone data ABD1 to ABD10 of the first collective unit character CHG1 as described above. However, the display positions of the second to fifth collective unit characters CHG2 to CHG5 can be individually changed.

集合用皮膚データSKD2は1個の集合単位キャラクタCHG1〜CHG5に適用されるデータとして設定されており、各集合単位キャラクタCHG1〜CHG5に対しては同一の集合用皮膚データSKD2が適用される。これにより、皮膚データを予め記憶するために必要なデータ容量を抑えることが可能となる。同様に、集合用テクスチャデータBTD2は1個の集合単位キャラクタCHG1〜CHG5に適用されるデータとして設定されており、各集合単位キャラクタCHG1〜CHG5に対しては同一の集合用テクスチャデータBTD2が適用される。これにより、テクスチャデータを予め記憶するために必要なデータ容量を抑えることが可能となる。   The collective skin data SKD2 is set as data applied to one collective unit character CHG1 to CHG5, and the same collective skin data SKD2 is applied to each collective unit character CHG1 to CHG5. As a result, it is possible to reduce the data capacity necessary for storing skin data in advance. Similarly, the set texture data BTD2 is set as data applied to one set unit character CHG1 to CHG5, and the same set texture data BTD2 is applied to each set unit character CHG1 to CHG5. The This makes it possible to reduce the data capacity necessary for storing texture data in advance.

<ボーンモデル表示演出に係る構成の別形態>
・集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の合計数が、ボーン表示用キャラクタCH10のボーンデータBODの合計数よりも少ない構成としてもよく、多い構成としてもよい。また、集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50の合計数が、座標演算用エリア169の単位演算用エリアの数よりも少ない構成としてもよい。
<Another form of configuration related to bone model display effect>
The total number of the bone data ABD1 to ABD50 of the collective unit characters CHG1 to CHG5 may be smaller or larger than the total number of the bone data BOD of the bone display character CH10. The total number of bone data ABD1 to ABD50 of the set unit characters CHG1 to CHG5 may be smaller than the number of unit calculation areas in the coordinate calculation area 169.

・一の集合単位キャラクタCHG1〜CHG5のボーンデータABD1〜ABD50間においては親対象と子対象との関係が設定されている構成としてもよい。この場合、各集合単位キャラクタCHG1〜CHG5の動作をよりリアルに表現することが可能となる。   -It is good also as a structure by which the relationship of a parent object and a child object is set between the bone data ABD1-ABD50 of one set unit character CHG1-CHG5. In this case, it is possible to more realistically represent the actions of the set unit characters CHG1 to CHG5.

・第1の骨格データに含まれるボーンデータと第2の骨格データに含まれるボーンデータとの間で親対象と子対象との関係が設定されている構成としてもよい。この場合、第1の骨格データにより表示されるキャラクタ、及び第2の骨格データにより表示されるキャラクタのうち一方を移動させた場合にはそれに追従させて他方のキャラクタを移動させることが可能となる。   A configuration in which a relationship between a parent object and a child object is set between bone data included in the first skeleton data and bone data included in the second skeleton data may be adopted. In this case, when one of the character displayed by the first skeleton data and the character displayed by the second skeleton data is moved, the other character can be moved following the movement. .

・各集合単位キャラクタCHG1〜CHG5のそれぞれにおいてボーンデータABD1〜ABD50の数及び配列態様が同一である構成に限定されることはなく、ボーンデータABD1〜ABD50の数及び配列態様の少なくとも一方が相違するものの、数及び配列態様が略同一である構成としてもよい。   The number and arrangement mode of the bone data ABD1 to ABD50 are not limited to the same in each set unit character CHG1 to CHG5, and at least one of the number and arrangement mode of the bone data ABD1 to ABD50 is different. However, it is good also as a structure where the number and arrangement | sequence aspect are substantially the same.

・表示CPU131におけるボーンモデル表示演出用の演算処理(図58)においてステップS2808及びステップS2809による導出前状態への設定の後において複数の個別画像についてまとめて算出されるパラメータ情報は骨格データの座標データに限定されることはなく、回転角度、スケール、ライトの情報、及びカメラの情報といった他のパラメータ情報であってもよい。   In the calculation process for the bone model display effect in the display CPU 131 (FIG. 58), the parameter information calculated for a plurality of individual images after setting to the pre-derivation state in steps S2808 and S2809 is coordinate data of skeleton data However, the parameter information may be other parameter information such as rotation angle, scale, light information, and camera information.

<平面影表示を行うための構成>
次に、平面影表示を行うための構成について説明する。図66(a)及び図66(b)は平面影表示の内容を説明するための説明図である。図67は平面影表示を行うために必要なメモリモジュール133のデータ構成を説明するための説明図である。
<Configuration for plane shadow display>
Next, a configuration for performing plane shadow display will be described. 66 (a) and 66 (b) are explanatory diagrams for explaining the contents of the plane shadow display. FIG. 67 is an explanatory diagram for explaining the data configuration of the memory module 133 necessary for performing the plane shadow display.

平面影表示とは、図66(a)及び図66(b)に示すように、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識される演出用キャラクタCH11が歩いて移動している動画表示が行われている状況において、地面を表す地面画像BGに対して演出用キャラクタCH11の影画像CH12を表示する表示内容である。影画像CH12の表示内容は演出用キャラクタCH11の動きに合わせて変化する。具体的には、図66(a)に示すように演出用キャラクタCH11が左腕を前に出し右腕を後に出している表示内容においてはそれに対応した形状の影画像CH12が表示され、図66(b)に示すように演出用キャラクタCH11が右腕を前に出し左腕を後に出している表示内容においてはそれに対応した形状の影画像CH12が表示される。   As shown in FIGS. 66 (a) and 66 (b), the plane shadow display means that an effect character CH11 that is recognized by the player when a person having a face, a torso, both hands, and both feet is expressed is walking. In the situation where the moving moving image is being displayed, the shadow image CH12 of the effect character CH11 is displayed on the ground image BG representing the ground. The display content of the shadow image CH12 changes in accordance with the movement of the effect character CH11. Specifically, as shown in FIG. 66 (a), in the display content in which the effect character CH11 puts out the left arm and puts out the right arm, a shadow image CH12 having a shape corresponding to that is displayed. In the display contents where the effect character CH11 puts out the right arm and puts out the left arm as shown, a shadow image CH12 having a shape corresponding to that is displayed.

演出用キャラクタCH11を表示するための画像データとして、図67に示すように、メモリモジュール133にはキャラクタ用オブジェクトデータCODとキャラクタ用テクスチャデータCTDとが予め記憶されている。また、地面画像BGを表示するための画像データとして、メモリモジュール133には地面用オブジェクトデータBGDと地面用テクスチャデータBGTDとが予め記憶されている。また、影画像CH12を表示するための画像データとして、メモリモジュール133には平面影用板状オブジェクトデータBSDと平面影用テクスチャデータBST1,BST2とが予め記憶されている。   As image data for displaying the effect character CH11, as shown in FIG. 67, the memory module 133 stores character object data COD and character texture data CTD in advance. In addition, as image data for displaying the ground image BG, the memory module 133 stores ground object data BGD and ground texture data BGTD in advance. Further, as the image data for displaying the shadow image CH12, the plane shadow plate-like object data BSD and the plane shadow texture data BST1 and BST2 are stored in advance in the memory module 133.

影画像CH12の表示に際しては、ワールド座標系において平面影用板状オブジェクトデータBSDが演出用キャラクタCH11を表示するためのキャラクタ用オブジェクトデータCODと地面画像BGを表示するための地面用オブジェクトデータBGDとの間に配置される。平面影用板状オブジェクトデータBSDは、肉厚のない平面状に構成され、人などのキャラクタを表示するための肉厚を有する通常オブジェクトに比べて単位表示面当たりのポリゴン数が少ないオブジェクトデータである。そして、平面影用板状オブジェクトデータBSDに対して影画像CH12を表示するための平面影用テクスチャデータBST1,BST2が適用されることにより、影画像CH12が表示される。   In displaying the shadow image CH12, the plane shadow plate-like object data BSD in the world coordinate system includes character object data COD for displaying the effect character CH11 and ground object data BGD for displaying the ground image BG. It is arranged between. The plane shadow plate-like object data BSD is object data that is configured in a flat shape without a wall thickness and has a smaller number of polygons per unit display surface than a normal object having a wall thickness for displaying a character such as a person. is there. Then, the shadow image CH12 is displayed by applying the plane shadow texture data BST1 and BST2 for displaying the shadow image CH12 to the plane shadow plate-like object data BSD.

平面影用板状オブジェクトデータBSDは、ワールド座標系において地面用オブジェクトデータBGDよりも距離X分(具体的には1ピクセル分)、上方に離間させた位置に配置され、当該平面影用板状オブジェクトデータBSDの上方にキャラクタ用オブジェクトデータCODが配置される。このように地面用オブジェクトデータBGDに対して上方に離間させた位置に平面影用板状オブジェクトデータBSDを配置することにより、地面画像BGの上方に影画像CH12が確実に表示される。平面影用テクスチャデータBST1,BST2は複数種類設定されており、具体的には図66(a)に示す形状の影画像CH12を表示させるための第1平面影用テクスチャデータBST1と、図66(b)に示す形状の影画像CH12を表示させるための第2平面影用テクスチャデータBST2とが設定されている。   The plane shadow plate-like object data BSD is arranged at a position spaced apart from the ground object data BGD by a distance X (specifically, one pixel) in the world coordinate system. Character object data COD is arranged above the object data BSD. Thus, by arranging the planar shadow plate-like object data BSD at a position spaced upward from the ground object data BGD, the shadow image CH12 is reliably displayed above the ground image BG. Plural types of plane shadow texture data BST1 and BST2 are set. Specifically, the first plane shadow texture data BST1 for displaying the shadow image CH12 having the shape shown in FIG. Second plane shadow texture data BST2 for displaying the shadow image CH12 having the shape shown in b) is set.

以下、平面影表示を実行するための具体的な処理構成を説明する。図68は、表示CPU131にて実行される平面影表示用の演算処理を示すフローチャートである。平面影表示用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該平面影表示用の演算処理は、現状設定されている実行対象テーブルにおいて平面影表示についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for executing plane shadow display will be described. FIG. 68 is a flowchart showing the calculation process for plane shadow display executed by the display CPU 131. The plane shadow display calculation process is executed in the effect calculation process in step S2209 in the task process (FIG. 42). The calculation process for plane shadow display is started when information about plane shadow display is set in the currently set execution target table.

平面影表示の開始タイミングである場合(ステップS3101:YES)、平面影表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3102)。当該画像データには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD、平面影用板状オブジェクトデータBSD、第1平面影用テクスチャデータBST1及び第2平面影用テクスチャデータBST2が含まれる。その後、ステップS3103にて、平面影表示を開始すべきことをVDP135に認識させるための平面影表示の開始指定情報を表示CPU131のレジスタに記憶する。   If it is the start timing of the plane shadow display (step S3101: YES), each address in the memory module 133 of the image data for performing the plane shadow display is grasped (step S3102). The image data includes character object data COD, character texture data CTD, ground object data BGD, ground texture data BGTD, plane shadow plate-like object data BSD, first plane shadow texture data BST1, and second data. Plane shadow texture data BST2 is included. After that, in step S3103, the start designation information for plane shadow display for causing the VDP 135 to recognize that the plane shadow display should be started is stored in the register of the display CPU 131.

ステップS3101にて否定判定をした場合又はステップS3103の処理を実行した場合、ステップS3104にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDを把握する。そして、これら地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBGD,BGTDに対応させて確保されたエリアに書き込む(ステップS3105)。この場合、地面画像BGを所定範囲に亘って表示させることが可能なように、地面用オブジェクトデータBGDの各ピクセルのワールド座標系における座標データが更新される。   If a negative determination is made in step S3101, or if the process of step S3103 is executed, in step S3104, the ground object data BGD and the ground use data are used as current use target data based on the currently set execution target table. Grasping texture data BGTD. Then, parameter information is calculated and derived for the ground object data BGD and the ground texture data BGTD, and the derived parameter information is written in an area secured in the work RAM 132 corresponding to the image data BGD and BGTD. (Step S3105). In this case, the coordinate data in the world coordinate system of each pixel of the ground object data BGD is updated so that the ground image BG can be displayed over a predetermined range.

また、ステップS3106にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとしてキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDを把握する。そして、これらキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データCOD,CTDに対応させて確保されたエリアに書き込む(ステップS3107)。この場合、演出用キャラクタCH11が図66(a)に示す第1表示態様及び図66(b)に示す第2表示態様を交互に繰り返しながら移動しているかのように表示されるように、キャラクタ用オブジェクトデータCODの各ピクセルのワールド座標系における座標データが更新される。   In step S3106, based on the currently set execution target table, the character object data COD and the character texture data CTD are grasped as the data to be used this time. Then, parameter information is calculated and derived for the character object data COD and the character texture data CTD, and the derived parameter information is written in an area secured in the work RAM 132 corresponding to the image data COD and CTD. (Step S3107). In this case, the character for presentation CH11 is displayed as if it is moving while alternately repeating the first display mode shown in FIG. 66 (a) and the second display mode shown in FIG. 66 (b). The coordinate data in the world coordinate system of each pixel of the object data COD is updated.

その後、ステップS3108にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして平面影用板状オブジェクトデータBSDを把握する。続くステップS3109では、今回の更新タイミングが第1影表示期間であるか否かを判定する。第1影表示期間は影画像CH12を表示するためのテクスチャデータとして第1平面影用テクスチャデータBST1が使用される期間であり、第2影表示期間は影画像CH12を表示するためのテクスチャデータとして第2平面影用テクスチャデータBST2が使用される期間である。第1影表示期間である場合(ステップS3109:YES)、ステップS3110にて第1平面影用テクスチャデータBST1を把握し、第2影表示期間である場合(ステップS3109:NO)、ステップS3111にて第2平面影用テクスチャデータBST2を把握する。   Thereafter, in step S3108, based on the currently set execution target table, the plane shadow plate-like object data BSD is grasped as the current target data. In a succeeding step S3109, it is determined whether or not the current update timing is the first shadow display period. The first shadow display period is a period in which the first plane shadow texture data BST1 is used as texture data for displaying the shadow image CH12, and the second shadow display period is as texture data for displaying the shadow image CH12. This is a period during which the second plane shadow texture data BST2 is used. When it is the first shadow display period (step S3109: YES), the first plane shadow texture data BST1 is grasped at step S3110, and when it is the second shadow display period (step S3109: NO), at step S3111. The second plane shadow texture data BST2 is grasped.

これら第1影表示期間及び第2影表示期間は、演出用キャラクタCH11が図66(a)に示すように第1表示態様となっている場合に影画像CH12を表示するための画像データとして当該第1表示態様に対応する第1平面影用テクスチャデータBST1が使用され、演出用キャラクタCH11が図66(b)に示すように第2表示態様となっている場合に影画像CH12を表示するための画像データとして当該第2表示態様に対応する第2平面影用テクスチャデータBST2が使用されるように設定されている。つまり、演出用キャラクタCH11が移動するように表示される場合において第1表示態様と第2表示態様との間で交互に表示態様が切り換えられる場合に、その表示態様の切り換わりに合わせて使用対象となる平面影用テクスチャデータBST1,BST2が切り換えられる構成となっている。   These first shadow display period and second shadow display period are the image data for displaying the shadow image CH12 when the effect character CH11 is in the first display mode as shown in FIG. 66 (a). To display the shadow image CH12 when the first plane shadow texture data BST1 corresponding to the first display mode is used and the effect character CH11 is in the second display mode as shown in FIG. 66 (b). The second plane shadow texture data BST2 corresponding to the second display mode is used as the image data. In other words, when the display character CH11 is displayed so as to move, when the display mode is alternately switched between the first display mode and the second display mode, the usage target is adjusted in accordance with the switching of the display mode. The plane shadow texture data BST1 and BST2 are switched.

ステップS3110の処理を実行した場合又はステップS3111の処理を実行した場合、ステップS3112にて、平面影用板状オブジェクトデータBSD及び今回の使用対象の平面影用テクスチャデータBST1,BST2について、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBSD,BST1,BST2に対応させて確保されたエリアに書き込む。その後、ステップS3113にて、平面影表示の実行期間であることをVDP135に認識させるための平面影表示指定情報を表示CPU131のレジスタに記憶する。   When the process of step S3110 is executed or when the process of step S3111 is executed, parameter information is obtained for the plane shadow plate-like object data BSD and the current plane shadow texture data BST1 and BST2 in step S3112. It is derived by calculation, and the derived parameter information is written in an area secured in the work RAM 132 in correspondence with these image data BSD, BST1, and BST2. Thereafter, in step S 3113, plane shadow display designation information for causing the VDP 135 to recognize that it is the execution period of plane shadow display is stored in the register of the display CPU 131.

この場合、平面影用板状オブジェクトデータBSDのワールド座標系における座標データとして、図66(a)及び図66(b)に示すように演出用キャラクタCH11の下方に影画像CH12を表示させることが可能なように、ステップS3107にて把握したキャラクタ用オブジェクトデータCODの座標データに対応する座標データを把握する。また、この場合に把握される座標データは、地面画像BGから離れる側に1ピクセル分、離れた位置に平面影用板状オブジェクトデータBSDが配置されるように、ステップS3105にて把握した地面用オブジェクトデータBGDの座標データに対応する座標データとなる。   In this case, as the coordinate data in the world coordinate system of the planar shadow plate-like object data BSD, as shown in FIGS. 66 (a) and 66 (b), the shadow image CH12 is displayed below the effect character CH11. As possible, the coordinate data corresponding to the coordinate data of the character object data COD acquired in step S3107 is determined. Also, the coordinate data grasped in this case is the ground data grasped in step S3105 so that the planar shadow plate-like object data BSD is arranged at a position separated by one pixel on the side away from the ground image BG. The coordinate data corresponds to the coordinate data of the object data BGD.

ここで、平面影用板状オブジェクトデータBSDには既に説明したとおり、平面影用テクスチャデータBST1,BST2が適用されることとなるが、その適用位置はUV座標データを利用して決定される。詳細には、平面影用板状オブジェクトデータBSDにはベースUV座標データが設定されており、平面影用テクスチャデータBST1,BST2にはUV座標データが設定されている。そして、平面影用テクスチャデータBST1,BST2のUV座標データが平面影用板状オブジェクトデータBSDのベースUV座標データと対応するように、平面影用テクスチャデータBST1,BST2の色情報が適用される。この場合に、UV座標データは平面影用テクスチャデータBST1,BST2において固定のデータとして設定されているため表示CPU131においてUV座標データを変更することはできない。一方、平面影用板状オブジェクトデータBSDのベースUV座標データは表示CPU131において変更可能であるが、当該ベースUV座標データは平面影表示の実行期間において変更されない。例えば第1影表示期間及び第2影表示期間のいずれであってもベースUV座標データ及びUV座標データは一定である。これにより、演出用キャラクタCH11が移動するように表示されそれに合わせて平面影用板状オブジェクトデータBSDの座標データが変更されるとしても、当該平面影用板状オブジェクトデータBSDの各ピクセルにおける平面影用テクスチャデータBST1,BST2の適用対象は変更されない。   Here, as already described, the plane shadow texture data BST1 and BST2 are applied to the plane shadow plate-like object data BSD, and the application position is determined using the UV coordinate data. Specifically, base UV coordinate data is set in the plane shadow plate-like object data BSD, and UV coordinate data is set in the plane shadow texture data BST1 and BST2. The color information of the plane shadow texture data BST1 and BST2 is applied so that the UV coordinate data of the plane shadow texture data BST1 and BST2 corresponds to the base UV coordinate data of the plane shadow plate-like object data BSD. In this case, since the UV coordinate data is set as fixed data in the plane shadow texture data BST1 and BST2, the display CPU 131 cannot change the UV coordinate data. On the other hand, the base UV coordinate data of the planar shadow plate-like object data BSD can be changed by the display CPU 131, but the base UV coordinate data is not changed in the execution period of the planar shadow display. For example, the base UV coordinate data and the UV coordinate data are constant in both the first shadow display period and the second shadow display period. Thus, even if the effect character CH11 is displayed to move and the coordinate data of the planar shadow plate-like object data BSD is changed accordingly, the planar shadow at each pixel of the planar shadow plate-like object data BSD is changed. The application target of the texture data BST1, BST2 is not changed.

上記のように平面影表示用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD及び平面影用板状オブジェクトデータBSDの使用指示の情報が設定されるとともに、第1影表示期間であれば第1平面影用テクスチャデータBST1の使用指示の情報が設定され、第2影表示期間であれば第2平面影用テクスチャデータBST2の使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには平面影表示指定情報が設定され、さらに平面影表示の開始タイミングにおいては平面影表示の開始指定情報が設定される。   When the plane shadow display calculation process is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output process (step S609) includes character object data COD, character texture data CTD, Information on the use instruction of the ground object data BGD, the ground texture data BGTD, and the planar shadow plate-like object data BSD is set, and the first flat shadow texture data BST1 is used during the first shadow display period. In the second shadow display period, information on the instruction to use the second plane shadow texture data BST2 is set. In addition, parameter information to be applied to each of these image data is set in the drawing list. Also, plane shadow display designation information is set in the drawing list, and plane shadow display start designation information is set at the start timing of plane shadow display.

次に、VDP135にて実行される平面影表示用の設定処理を、図69のフローチャートを参照しながら説明する。平面影表示用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて平面影表示指定情報が設定されている場合に、平面影表示用の設定処理が実行される。   Next, the setting process for plane shadow display executed in the VDP 135 will be described with reference to the flowchart of FIG. The plane shadow display setting process is executed as a part of the effect setting process executed in step S2303 of the drawing process (FIG. 44). Further, when plane shadow display designation information is set in the drawing list, setting processing for plane shadow display is executed.

今回の描画リストに平面影表示の開始指定情報が設定されている場合(ステップS3201:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS3202)。当該画像データには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD、平面影用板状オブジェクトデータBSD、第1平面影用テクスチャデータBST1及び第2平面影用テクスチャデータBST2が含まれる。   When the plane shadow display start designation information is set in the current drawing list (step S3201: YES), the memory module 133 is the current display target from the address information set in the drawing list. The address where the various image data is stored is grasped, and based on the grasp result, the various image data is read from the memory module 133 to the development buffer 141 of the VRAM 134 (step S3202). The image data includes character object data COD, character texture data CTD, ground object data BGD, ground texture data BGTD, plane shadow plate-like object data BSD, first plane shadow texture data BST1, and second data. Plane shadow texture data BST2 is included.

ステップS3201にて否定判定をした場合、又はステップS3202の処理を実行した場合、ステップS3203にて、今回の描画リストに基づき地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDを表示対象のデータとして把握する。また、ステップS3204にて、それら地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDのパラメータ情報を今回の描画リストに基づき把握する。この場合、地面用オブジェクトデータBGDの各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。   If a negative determination is made in step S3201, or if the process of step S3202 is executed, the ground object data BGD and the ground texture data BGTD are grasped as display target data based on the current drawing list in step S3203. . In step S3204, the parameter information of the ground object data BGD and the ground texture data BGTD is grasped based on the current drawing list. In this case, various parameter information including the coordinate data in the world coordinate system of each pixel of the ground object data BGD is grasped.

その後、ステップS3205にて、今回の描画リストに基づきキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDを表示対象のデータとして把握する。また、ステップS3206にて、それらキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDのパラメータ情報を今回の描画リストに基づき把握する。この場合、演出用キャラクタCH11が図66(a)に示す第1表示態様及び図66(b)に示す第2表示態様を交互に繰り返しながら移動しているかのように表示されるようにするためのキャラクタ用オブジェクトデータCODの各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。   Thereafter, in step S3205, the character object data COD and the character texture data CTD are grasped as display target data based on the current drawing list. In step S3206, the parameter information of the character object data COD and the character texture data CTD is grasped based on the current drawing list. In this case, the production character CH11 is displayed as if it is moving while alternately repeating the first display mode shown in FIG. 66 (a) and the second display mode shown in FIG. 66 (b). Various parameter information including the coordinate data in the world coordinate system of each pixel of the character object data COD is obtained.

その後、ステップS3207にて、今回の描画リストに基づき平面影用板状オブジェクトデータBSDを表示対象のデータとして把握する。また、ステップS3208にて、当該平面影用板状オブジェクトデータBSDの座標データを今回の描画リストに基づき把握する。この場合、図66(a)及び図66(b)に示すように演出用キャラクタCH11の下方に影画像CH12を表示させるための平面影用板状オブジェクトデータBSDの各ピクセルのワールド座標系における座標データを把握する。また、この場合に把握される座標データは、地面画像BGから離れる側に1ピクセル分、離れた位置に平面影用板状オブジェクトデータBSDが配置されるように、ステップS3204にて把握した地面用オブジェクトデータBGDの座標データに対応する座標データとなる。また、ステップS3209にて、平面影用板状オブジェクトデータBSDについて、座標データ以外のパラメータ情報を今回の描画リストに基づき把握する。この場合、平面影用板状オブジェクトデータBSDに適用される固定のベースUV座標データを描画リストに基づき把握する。   Thereafter, in step S3207, the planar shadow plate-like object data BSD is grasped as display target data based on the current drawing list. In step S3208, the coordinate data of the plane shadow plate-like object data BSD is grasped based on the current drawing list. In this case, as shown in FIGS. 66 (a) and 66 (b), the coordinates in the world coordinate system of each pixel of the planar shadow plate-like object data BSD for displaying the shadow image CH12 below the effect character CH11. Know the data. Also, the coordinate data grasped in this case is the ground data grasped in step S3204 so that the planar shadow plate-like object data BSD is arranged at a position separated by one pixel on the side away from the ground image BG. The coordinate data corresponds to the coordinate data of the object data BGD. In step S3209, parameter information other than the coordinate data is grasped for the plane shadow plate-like object data BSD based on the current drawing list. In this case, the fixed base UV coordinate data applied to the planar shadow plate-like object data BSD is grasped based on the drawing list.

その後、ステップS3210にて、今回の描画リストに基づき今回の影表示期間に対応する平面影用テクスチャデータBST1,BST2を表示対象のデータとして把握する。また、ステップS3211にて、平面影用テクスチャデータBST1,BST2に適用される固定のUV座標データを当該テクスチャデータBST1,BST2から把握する。また、ステップS3212にて、平面影用テクスチャデータBST1,BST2に適用されるUV座標データ以外のパラメータ情報を今回の描画リストに基づき把握する。   Thereafter, in step S3210, the plane shadow texture data BST1 and BST2 corresponding to the current shadow display period are grasped as display target data based on the current drawing list. In step S3211, fixed UV coordinate data applied to the plane shadow texture data BST1 and BST2 is determined from the texture data BST1 and BST2. In step S3212, parameter information other than the UV coordinate data applied to the plane shadow texture data BST1 and BST2 is grasped based on the current drawing list.

その後、ステップS3213にて、ステップS3203〜ステップS3212の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。   Thereafter, in step S3213, a setting process for the world coordinate system is executed according to the contents corresponding to the grasp results in steps S3203 to S3212.

上記のように平面影表示用の設定処理が実行されることにより、ワールド座標系に地面用オブジェクトデータBGD、キャラクタ用オブジェクトデータCOD及び平面影用板状オブジェクトデータBSDが配置されるとともに、表示CPU131において演算により導出された座標データを含めて各種パラメータ情報が各オブジェクトデータBGD,COD,BSDに適用される。また、各オブジェクトデータBGD,COD,BSDには対応するテクスチャデータBGTD,CTD,BST1,BST2が適用される。これにより、表示面Pでは、図66(a)及び図66(b)に示すように、地面画像BG上を演出用キャラクタCH11が歩いて移動しているような動画表示が行われるとともに演出用キャラクタCH11の移動に合わせて影画像CH12が変形しながら追従するような動画表示が行われる。   By executing the setting process for plane shadow display as described above, the ground object data BGD, the character object data COD, and the plane shadow plate-like object data BSD are arranged in the world coordinate system, and the display CPU 131. Various parameter information including the coordinate data derived by the calculation is applied to each object data BGD, COD, BSD. Corresponding texture data BGTD, CTD, BST1, and BST2 are applied to each object data BGD, COD, and BSD. Thereby, on the display surface P, as shown in FIGS. 66 (a) and 66 (b), a moving image display in which the effect character CH11 is walking and moving on the ground image BG is performed and for the effect. A moving image display is performed such that the shadow image CH12 follows while the character CH11 moves in accordance with the movement of the character CH11.

以上のように演出用キャラクタCH11に追従するようにして影画像CH12を表示する場合に、キャラクタ用オブジェクトデータCODの下方に平面影用板状オブジェクトデータBSDを配置するとともに当該平面影用板状オブジェクトデータBSDに平面影用テクスチャデータBST1,BST2を適用する構成である。これにより、光源データとの関係で影画像の表示を演算により行う構成に比べて処理負荷の低減が図られる。また、地面用オブジェクトデータBGDに対して平面影用テクスチャデータBST1,BST2を直接適用する構成も想定されるが、地面用オブジェクトデータBGDには地面用テクスチャデータBGTDが適用されるため、影画像CH12を演出用キャラクタCH11に追従させて移動させようとするとベースUV座標データとUV座標データとの関係が複雑化してしまう。これに対して、キャラクタ用オブジェクトデータCODの位置を変化させることに対応させて平面影用板状オブジェクトデータBSDの位置を変化させるとともに、その平面影用板状オブジェクトデータBSDに平面影用テクスチャデータBST1,BST2を適用する構成とすることにより、そのような不都合を生じさせることなく影画像CH12を表示することが可能となる。   As described above, when the shadow image CH12 is displayed so as to follow the effect character CH11, the plane shadow plate-like object data BSD is arranged below the character object data COD and the plane shadow plate-like object is arranged. In this configuration, plane shadow texture data BST1 and BST2 are applied to the data BSD. Thereby, the processing load can be reduced as compared with the configuration in which the shadow image is displayed by calculation in relation to the light source data. Further, a configuration in which the plane shadow texture data BST1 and BST2 are directly applied to the ground object data BGD is also assumed. However, since the ground texture data BGTD is applied to the ground object data BGD, the shadow image CH12 is used. Is caused to follow the effect character CH11, the relationship between the base UV coordinate data and the UV coordinate data becomes complicated. On the other hand, the position of the plane shadow plate-like object data BSD is changed corresponding to the change of the position of the character object data COD, and the plane shadow texture data is added to the plane shadow plate-like object data BSD. By adopting a configuration to which BST1 and BST2 are applied, it is possible to display the shadow image CH12 without causing such inconvenience.

影画像CH12を表示するために地面用オブジェクトデータBGDとは別にオブジェクトデータを設ける構成において、当該平面影用板状オブジェクトデータBSDは肉厚のない平面状に構成された平面影用板状オブジェクトデータBSDである。これにより、メモリモジュール133において画像データを予め記憶しておくために必要なデータ容量を抑えることが可能となる。   In the configuration in which object data is provided separately from the ground object data BGD in order to display the shadow image CH12, the planar shadow plate-like object data BSD is a planar shadow plate-like object data configured in a flat shape with no wall thickness. BSD. As a result, it is possible to suppress the data capacity necessary for storing image data in the memory module 133 in advance.

平面影用板状オブジェクトデータBSDは地面用オブジェクトデータBGDに対して1ピクセル分上方に離間させた位置に配置される。これにより、地面画像BGに埋没してしまわないようにしながら影画像CH12を表示することが可能となる。   The planar shadow plate-like object data BSD is arranged at a position spaced one pixel above the ground object data BGD. As a result, the shadow image CH12 can be displayed without being buried in the ground image BG.

演出用キャラクタCH11の表示態様の変更に合わせて影画像CH12の形状を変更させる構成において、平面影用テクスチャデータBST1,BST2が複数設けられており、演出用キャラクタCH11の表示態様に対応させて使用対象とする平面影用テクスチャデータBST1,BST2が変更される。これにより、処理負荷の低減を図りながら影画像CH12の形状を変更させることが可能となる。   In the configuration in which the shape of the shadow image CH12 is changed in accordance with the change in the display mode of the effect character CH11, a plurality of plane shadow texture data BST1 and BST2 are provided and used corresponding to the display mode of the effect character CH11. The target plane shadow texture data BST1 and BST2 are changed. As a result, it is possible to change the shape of the shadow image CH12 while reducing the processing load.

<平面影表示に係る構成の別形態>
上記実施形態では平面影用板状オブジェクトデータBSDに適用する平面影用テクスチャデータBST1,BST2の種類を変更することにより、演出用キャラクタCH11の表示態様の変更に合わせて影画像CH12の形状を変更する構成としたが、本別形態では、図70(a)及び図70(b)に示すように、平面影用板状オブジェクトデータBSDに適用する平面影用テクスチャデータBST3の種類を変更することなく平面影用板状オブジェクトデータBSDの形状を変更することによって影画像CH12の形状を変更する構成となっている。
<Another form of configuration related to plane shadow display>
In the above embodiment, the shape of the shadow image CH12 is changed in accordance with the change of the display mode of the effect character CH11 by changing the type of the plane shadow texture data BST1 and BST2 applied to the plane shadow plate-like object data BSD. In this embodiment, as shown in FIGS. 70 (a) and 70 (b), the type of the plane shadow texture data BST3 applied to the plane shadow plate-like object data BSD is changed. Instead, the shape of the shadow image CH12 is changed by changing the shape of the planar shadow plate-like object data BSD.

以下、平面影用板状オブジェクトデータBSDの形状を変更することで影画像CH12の形状を変更するための処理構成について説明する。図71は、本別形態における表示CPU131にて実行される平面影表示用の演算処理を示すフローチャートである。   Hereinafter, a processing configuration for changing the shape of the shadow image CH12 by changing the shape of the planar shadow plate-like object data BSD will be described. FIG. 71 is a flowchart showing the calculation processing for plane shadow display executed by the display CPU 131 in this embodiment.

平面影表示の開始タイミングである場合(ステップS3301:YES)、平面影表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3302)。当該画像データには、キャラクタ用オブジェクトデータCOD、キャラクタ用テクスチャデータCTD、地面用オブジェクトデータBGD、地面用テクスチャデータBGTD、平面影用板状オブジェクトデータBSD、及び平面影用テクスチャデータBST3が含まれる。その後、ステップS3303にて、平面影表示を開始すべきことをVDP135に認識させるための平面影表示の開始指定情報を表示CPU131のレジスタに記憶する。   If it is the start timing of the plane shadow display (step S3301: YES), each address in the memory module 133 of the image data for performing the plane shadow display is grasped (step S3302). The image data includes character object data COD, character texture data CTD, ground object data BGD, ground texture data BGTD, plane shadow plate-like object data BSD, and plane shadow texture data BST3. After that, in step S3303, plane shadow display start designation information for causing the VDP 135 to recognize that plane shadow display should be started is stored in the register of the display CPU 131.

ステップS3301にて否定判定をした場合又はステップS3303の処理を実行した場合、ステップS3304にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDを把握する。そして、これら地面用オブジェクトデータBGD及び地面用テクスチャデータBGTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBGD,BGTDに対応させて確保されたエリアに書き込む(ステップS3305)。この場合、地面画像BGを所定範囲に亘って表示させることが可能なように、地面用オブジェクトデータBGDの各ピクセルのワールド座標系における座標データが更新される。   If a negative determination is made in step S3301 or if the process of step S3303 is executed, in step S3304, the ground object data BGD and the ground use data are used as current use target data based on the currently set execution target table. Grasping texture data BGTD. Then, parameter information is calculated and derived for the ground object data BGD and the ground texture data BGTD, and the derived parameter information is written in an area secured in the work RAM 132 corresponding to the image data BGD and BGTD. (Step S3305). In this case, the coordinate data in the world coordinate system of each pixel of the ground object data BGD is updated so that the ground image BG can be displayed over a predetermined range.

また、ステップS3306にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとしてキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDを把握する。そして、これらキャラクタ用オブジェクトデータCOD及びキャラクタ用テクスチャデータCTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データCOD,CTDに対応させて確保されたエリアに書き込む(ステップS3307)。この場合、演出用キャラクタCH11が図70(a)に示す第1表示態様及び図70(b)に示す第2表示態様を交互に繰り返しながら移動しているかのように表示されるように、キャラクタ用オブジェクトデータCODの各ピクセルのワールド座標系における座標データが更新される。   In step S3306, based on the currently set execution target table, the character object data COD and the character texture data CTD are grasped as the data to be used this time. Then, parameter information is calculated and derived for the character object data COD and the character texture data CTD, and the derived parameter information is written in an area secured in the work RAM 132 corresponding to the image data COD and CTD. (Step S3307). In this case, the character for presentation CH11 is displayed as if it is moving while alternately repeating the first display mode shown in FIG. 70 (a) and the second display mode shown in FIG. 70 (b). The coordinate data in the world coordinate system of each pixel of the object data COD is updated.

その後、ステップS3308にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして平面影用板状オブジェクトデータBSDを把握する。続くステップS3309では、今回の更新タイミングが第1影表示期間であるか否かを判定する。第1影表示期間は図70(a)に示すように影画像CH12の形状が演出用キャラクタCH11の第1表示態様に対応する第1形状態様となるように平面影用板状オブジェクトデータBSDに適用する形状データとして第1形状データを使用する期間であり、第2影表示期間は図70(b)に示すように影画像CH12の形状が演出用キャラクタCH11の第2表示態様に対応する第2形状態様となるように平面影用板状オブジェクトデータBSDに適用する形状データとして第2形状データを使用する期間である。第1影表示期間である場合(ステップS3309:YES)、ステップS3310にて第1形状データを把握し、第2影表示期間である場合(ステップS3309:NO)、ステップS3311にて第2形状データを把握する。ステップS3310又はステップS3311にて把握した形状データは、ワークRAM132において平面影用板状オブジェクトデータBSD及び平面影用テクスチャデータBST3に対応させて確保されたエリアに書き込む。   Thereafter, in step S3308, based on the currently set execution target table, the planar shadow plate-like object data BSD is grasped as the current target data. In a succeeding step S3309, it is determined whether or not the current update timing is the first shadow display period. In the first shadow display period, as shown in FIG. 70 (a), the planar shadow plate-like object data BSD is set so that the shape of the shadow image CH12 becomes the first shape mode corresponding to the first display mode of the effect character CH11. This is a period in which the first shape data is used as the shape data to be applied. In the second shadow display period, as shown in FIG. 70B, the shape of the shadow image CH12 corresponds to the second display mode of the effect character CH11. This is a period in which the second shape data is used as the shape data applied to the planar shadow plate-like object data BSD so as to be in the two shape mode. When it is the first shadow display period (step S3309: YES), the first shape data is grasped at step S3310, and when it is the second shadow display period (step S3309: NO), the second shape data is obtained at step S3311. To figure out. The shape data grasped in step S3310 or step S3311 is written in the area secured in the work RAM 132 in correspondence with the plane shadow plate-like object data BSD and the plane shadow texture data BST3.

ステップS3310の処理を実行した場合又はステップS3311の処理を実行した場合、ステップS3312にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして平面影用テクスチャデータBST3を把握する。その後、ステップS3313にて、平面影用板状オブジェクトデータBSD及び平面影用テクスチャデータBST3について、平面影用板状オブジェクトデータBSDの形状データ以外のパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データBSD,BST3に対応させて確保されたエリアに書き込む。その後、ステップS3314にて、平面影表示の実行期間であることをVDP135に認識させるための平面表示指定情報を表示CPU131のレジスタに記憶する。   When the process of step S3310 is executed or when the process of step S3311 is executed, in step S3312, the plane shadow texture data BST3 is grasped as the current use target data based on the currently set execution target table. . Thereafter, in step S3313, parameter information other than the shape data of the plane shadow plate-like object data BSD is calculated and derived for the plane shadow plate-like object data BSD and the plane shadow texture data BST3, and the derived parameter information is obtained. Is written in an area secured in the work RAM 132 in correspondence with the image data BSD and BST3. After that, in step S3314, plane display designation information for causing the VDP 135 to recognize that it is the execution period of plane shadow display is stored in the register of the display CPU 131.

上記別形態によれば、平面影用テクスチャデータBST3の種類を変更するのではなく、平面影用板状オブジェクトデータBSDの形状を変更することで影画像CH12の形状を変更する構成であるため、平面影用テクスチャデータBST3を予め記憶しておくのに必要なデータ容量を抑えながら演出用キャラクタCH11の表示態様に合わせて影画像CH12の形状を変更することが可能となる。   According to the above-described another form, the shape of the shadow image CH12 is changed by changing the shape of the plane shadow plate-like object data BSD, instead of changing the type of the plane shadow texture data BST3. It is possible to change the shape of the shadow image CH12 according to the display mode of the effect character CH11 while suppressing the data capacity required to store the plane shadow texture data BST3 in advance.

<平面影表示に係る構成のさらなる別形態>
・演出用キャラクタCH11の各表示態様に対応させて平面影用テクスチャデータBST1,BST2が設けられている構成において、演出用キャラクタCH11が移動するように表示される場合の表示態様として第1表示態様及び第2表示態様以外にもこれら表示態様の間の動作経路に対応する表示態様が存在している構成としてもよい。この場合、各表示態様に1対1で対応させて平面影用テクスチャデータBST1,BST2が設定されている構成としてもよく、かかる構成によれば影画像CH12の表示態様を演出用キャラクタCH11の表示態様に対して詳細に対応付けることが可能となる。一方、所定の第1動作期間に対応する第1表示態様グループに含まれる各表示態様(第1表示態様を含む)に対して第1平面影用テクスチャデータBST1を使用対象とし、所定の第2動作期間に対応する第2表示態様グループに含まれる各表示態様(第2表示態様を含む)に対して第2平面影用テクスチャデータBST2を使用対象とする構成としてもよい。この場合、平面影用テクスチャデータBST1,BST2を予め記憶するためのデータ容量を抑えながら、影画像CH12の表示態様を演出用キャラクタCH11の表示態様にある程度対応させることが可能となる。
<Further another form of configuration related to plane shadow display>
In the configuration in which the plane shadow texture data BST1 and BST2 are provided corresponding to each display mode of the effect character CH11, the first display mode is used as the display mode when the effect character CH11 is displayed to move. In addition to the second display mode, a display mode corresponding to the operation path between these display modes may be present. In this case, the plane shadow texture data BST1 and BST2 may be set in a one-to-one correspondence with each display mode. According to such a configuration, the display mode of the shadow image CH12 is displayed as the effect character CH11. It becomes possible to associate with an aspect in detail. On the other hand, the first plane shadow texture data BST1 is used for each display mode (including the first display mode) included in the first display mode group corresponding to the predetermined first operation period, and the predetermined second The second plane shadow texture data BST2 may be used for each display mode (including the second display mode) included in the second display mode group corresponding to the operation period. In this case, it is possible to make the display mode of the shadow image CH12 correspond to the display mode of the effect character CH11 to some extent while suppressing the data capacity for storing the plane shadow texture data BST1 and BST2 in advance.

・演出用キャラクタCH11の各表示態様に対応させて平面影用板状オブジェクトデータBSDの形状データが設けられている構成において、演出用キャラクタCH11が移動するように表示される場合の表示態様として第1表示態様及び第2表示態様以外にもこれら表示態様の間の動作経路に対応する表示態様が存在している構成としてもよい。この場合、各表示態様に1対1で対応させて平面影用板状オブジェクトデータBSDの形状データが設定されている構成としてもよく、これにより影画像CH12の表示態様を演出用キャラクタCH11の表示態様に対して詳細に対応付けることが可能となる。一方、所定の第1動作期間に対応する第1表示態様グループに含まれる各表示態様(第1表示態様を含む)に対して第1形状データを使用対象とし、所定の第2動作期間に対応する第2表示態様グループに含まれる各表示態様(第2表示態様を含む)に対して第2形状データを使用対象とする構成としてもよい。この場合、形状データを予め記憶するためのデータ容量を抑えながら、影画像CH12の表示態様を演出用キャラクタCH11の表示態様にある程度対応させることが可能となる。   In the configuration in which the shape data of the plane shadow plate-like object data BSD is provided corresponding to each display mode of the effect character CH11, the display mode when the effect character CH11 is displayed to move is the first display mode. In addition to the first display mode and the second display mode, there may be a configuration in which a display mode corresponding to an operation path between these display modes exists. In this case, the shape data of the planar shadow plate-like object data BSD may be set to correspond to each display mode on a one-to-one basis, whereby the display mode of the shadow image CH12 is changed to the display of the effect character CH11. It becomes possible to associate with an aspect in detail. On the other hand, the first shape data is used for each display mode (including the first display mode) included in the first display mode group corresponding to the predetermined first operation period, and corresponds to the predetermined second operation period. It is good also as a structure which makes 2nd shape data use object with respect to each display mode (a 2nd display mode is included) included in the 2nd display mode group. In this case, it is possible to make the display mode of the shadow image CH12 correspond to the display mode of the effect character CH11 to some extent while suppressing the data capacity for storing the shape data in advance.

・影画像CH12を表示するために地面用オブジェクトデータBGDとは別に設けるオブジェクトデータは板状オブジェクトデータに限定されることはなく、キャラクタ用オブジェクトデータCODなどと同様に肉厚のある立体状に構成されたオブジェクトデータとしてもよい。   The object data provided separately from the ground object data BGD for displaying the shadow image CH12 is not limited to the plate-like object data, and is configured in a thick three-dimensional shape like the character object data COD. Object data may be used.

・地面用オブジェクトデータBGDとは別に設けられたオブジェクトデータを利用して演出用キャラクタCH11の影画像CH12を表示する構成を、演出用キャラクタCH11が水面に反射している様子を示す反射画像を表示するために利用してもよい。   A structure in which the shadow image CH12 of the effect character CH11 is displayed using object data provided separately from the ground object data BGD, and a reflection image showing a state in which the effect character CH11 is reflected on the water surface is displayed. May be used to

<段差影表示を行うための構成>
次に、段差影表示を行うための構成について説明する。図72(a)は段差影表示の内容を説明するための説明図であり、図72(b)は段差影表示を行うために必要なメモリモジュール133のデータ構成を説明するための説明図である。
<Configuration for displaying step shadow>
Next, a configuration for performing step shadow display will be described. FIG. 72A is an explanatory diagram for explaining the contents of the step shadow display, and FIG. 72B is an explanatory diagram for explaining the data configuration of the memory module 133 necessary for performing the step shadow display. is there.

段差影表示とは、図72(a)に示すように、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識される演出用キャラクタCH13が階段を使って移動する動画表示が行われている状況において、階段を表す階段画像SGに対して演出用キャラクタCH13の影画像CH14を表示する表示内容である。この場合、影画像CH14は階段形状に沿うようにして表示されている。具体的には、一の踏面からその直下の踏面に亘って影画像CH14が表示されているとともに、それら踏面の間に蹴上による段差が生じていることに対応させて影画像CH14は段差状に表示されている。   As shown in FIG. 72 (a), the stepped shadow display is a moving image in which an effect character CH13 that is recognized by a player when a person with a face, a torso, both hands, and both feet is represented moves using stairs. This is the display content for displaying the shadow image CH14 of the effect character CH13 on the staircase image SG representing the staircase in the situation where the display is being performed. In this case, the shadow image CH14 is displayed along the staircase shape. Specifically, the shadow image CH14 is displayed from one tread to the step just below, and the shadow image CH14 has a stepped shape corresponding to the fact that a step due to kicking has occurred between the treads. Is displayed.

影画像CH14の表示内容は演出用キャラクタCH13の動きに合わせて変化する。具体的には、演出用キャラクタCH13が階段を上るのに合わせて一の踏面において影画像CH14が表示されている範囲が変化するとともに影画像CH14の表示対象となる踏面の種類も変化する。例えば、連続する2個の踏面とその間を繋ぐ蹴上に亘って影画像CH14が段差状に表示されている状況において演出用キャラクタCH13が階段を上るように移動するのに合わせて、下側の踏面において影画像CH14が表示されている範囲が徐々に小さくなるとともに上側の踏面において影画像CH14が表示されている範囲が徐々に大きくなる。そして、上側の踏面と当該踏面に連続する蹴上とに亘って影画像CH14が表示される状態を経由して、さらに上側の踏面に影画像CH14の一部が表示される状態となる。   The display content of the shadow image CH14 changes in accordance with the movement of the effect character CH13. Specifically, as the effect character CH13 goes up the stairs, the range in which the shadow image CH14 is displayed on one tread changes and the type of tread that is the display target of the shadow image CH14 also changes. For example, in the situation where the shadow image CH14 is displayed in a step shape over two continuous treads and the kicking up between them, the effect character CH13 moves so as to move up the stairs. The range in which the shadow image CH14 is displayed on the tread is gradually reduced, and the range in which the shadow image CH14 is displayed on the upper tread is gradually increased. Then, through the state where the shadow image CH14 is displayed over the upper tread and the kicking that is continuous with the tread, a part of the shadow image CH14 is displayed on the upper tread.

演出用キャラクタCH13を表示するための画像データとして、図72(b)に示すように、メモリモジュール133にはキャラクタ用オブジェクトデータCOD1とキャラクタ用テクスチャデータCTD1とが予め記憶されている。また、階段画像SGを表示するための画像データとして、メモリモジュール133には階段用オブジェクトデータSGDと階段用テクスチャデータSGTDとが予め記憶されている。また、影画像CH14を表示するための画像データとして、メモリモジュール133には段差影用板状オブジェクトデータSSDと段差影用テクスチャデータSSTとが予め記憶されている。   As image data for displaying the effect character CH13, as shown in FIG. 72B, character object data COD1 and character texture data CTD1 are stored in the memory module 133 in advance. As image data for displaying the staircase image SG, the memory module 133 stores staircase object data SGD and staircase texture data SGTD in advance. Further, as the image data for displaying the shadow image CH14, the memory module 133 stores the step shadow plate-like object data SSD and the step shadow texture data SST in advance.

影画像CH14の表示に際しては、ワールド座標系において段差影用板状オブジェクトデータSSDが演出用キャラクタCH13を表示するためのキャラクタ用オブジェクトデータCOD1と階段画像SGを表示するための階段用オブジェクトデータSGDとの間に配置される。段差影用板状オブジェクトデータSSDは、肉厚のない平面状のオブジェクトを階段の形状に合わせて段差状とされたオブジェクトであり、人などのキャラクタを表示するための肉厚を有する通常オブジェクトに比べて単位表示面当たりのポリゴン数が少ないオブジェクトデータである。段差影用板状オブジェクトデータSSDは、階段用オブジェクトデータSGDよりも小さいサイズに設定されており、階段画像SGにより表示される階段部分のうち影画像CH14が表示され得る一部の範囲に対応させて設定されている。そして、段差影用板状オブジェクトデータSSDに対して段差影用テクスチャデータSSTが適用されることにより、影画像CH14が表示される。   When the shadow image CH14 is displayed, the step shadow plate-like object data SSD in the world coordinate system includes character object data COD1 for displaying the effect character CH13 and staircase object data SGD for displaying the staircase image SG. It is arranged between. The step shadow plate-like object data SSD is a flat object with no wall thickness, which is formed into a step shape by matching the shape of the stairs, and is a normal object having a wall thickness for displaying a character such as a person. Compared with the object data, the number of polygons per unit display surface is small. The step shadow plate-like object data SSD is set to a size smaller than the staircase object data SGD, and corresponds to a part of the staircase portion displayed by the staircase image SG in which the shadow image CH14 can be displayed. Is set. Then, the shadow image CH14 is displayed by applying the step shadow texture data SST to the step shadow plate-like object data SSD.

段差影用板状オブジェクトデータSSDは、ワールド座標系において階段用オブジェクトデータSGDよりも所定距離分(具体的には1ピクセル分)、上方に離間させた位置に配置され、当該段差影用板状オブジェクトデータSSDの上方にキャラクタ用オブジェクトデータCOD1が配置される。このように階段用オブジェクトデータSGDに対して上方に離間させた位置に段差影用板状オブジェクトデータSSDを配置することにより、階段画像SGの上方に影画像CH14が確実に表示される。   The step shadow plate-like object data SSD is arranged at a position spaced upward by a predetermined distance (specifically, one pixel) from the staircase object data SGD in the world coordinate system. Character object data COD1 is arranged above the object data SSD. Thus, by arranging the step shadow plate-like object data SSD at a position spaced upward from the staircase object data SGD, the shadow image CH14 is reliably displayed above the staircase image SG.

段差影用テクスチャデータSSTは1種類のみ設定されている。演出用キャラクタCH13の移動に合わせて影画像CH14を移動させる場合には、段差影用板状オブジェクトデータSSDに対して段差影用テクスチャデータSSTを適用する位置を演出用キャラクタCH13の移動に合わせて変化させる。具体的には、段差影用テクスチャデータSSTの所定の色情報を段差影用板状オブジェクトデータSSDに適用する場合、当該色情報に設定されているUV座標データに対応するベースUV座標データが設定されている段差影用板状オブジェクトデータSSDのピクセルに当該色情報を適用する構成において、段差影用板状オブジェクトデータSSDのベースUV座標データを演出用キャラクタCH13の移動に合わせて変化させることにより、段差影用板状オブジェクトデータSSDにおいて段差影用テクスチャデータSSTが適用される位置が変化することとなる。例えば、ベースUV座標データが(1,1)に設定されている段差影用板状オブジェクトデータSSDのピクセルに対して、UV座標データが(1,1)に設定されている段差影用テクスチャデータSSTの色情報が適用される構成において、ベースUV座標データが(1,1)に設定されることとなるピクセルを変化させることにより、段差影用板状オブジェクトデータSSDに対して段差影用テクスチャデータSSTが適用される位置が変化することとなる。なお、段差影用板状オブジェクトデータSSDのベースUV座標データは表示CPU131において変更可能であるが、UV座標データは段差影用テクスチャデータSSTにおいて固定のデータとして設定されているため表示CPU131において変更することができない。   Only one type of step shadow texture data SST is set. When the shadow image CH14 is moved in accordance with the movement of the effect character CH13, the position where the step shadow texture data SST is applied to the step shadow plate-like object data SSD is adjusted according to the movement of the effect character CH13. Change. Specifically, when the predetermined color information of the step shadow texture data SST is applied to the step shadow plate-like object data SSD, base UV coordinate data corresponding to the UV coordinate data set in the color information is set. In the configuration in which the color information is applied to the pixels of the stepped shadow plate-like object data SSD, the base UV coordinate data of the stepped shadow plate-like object data SSD is changed in accordance with the movement of the effect character CH13. The position where the step shadow texture data SST is applied to the step shadow plate-like object data SSD changes. For example, step shadow texture data whose UV coordinate data is set to (1, 1) for pixels of the step shadow plate-like object data SSD whose base UV coordinate data is set to (1, 1). In the configuration in which the color information of SST is applied, the texture for the step shadow with respect to the plate object data for step shadow SSD is changed by changing the pixel whose base UV coordinate data is set to (1, 1). The position to which the data SST is applied changes. Note that the base UV coordinate data of the step shadow plate-like object data SSD can be changed by the display CPU 131, but the UV coordinate data is set as fixed data in the step shadow texture data SST, and therefore changed by the display CPU 131. I can't.

段差影用板状オブジェクトデータSSDのベースUV座標データを画像の各更新タイミングにおいて変更させるためのデータとして、図72(b)に示すようにメモリモジュール133にはUV座標用アニメーションデータUADが予め記憶されている。UV座標用アニメーションデータUADには、演出用キャラクタCH13が階段上を移動するように動画表示される期間の各更新タイミングに1対1で対応させて段差影用板状オブジェクトデータSSDのベースUV座標データを変化させるためのデータが設定されている。当該変化させるためのデータとは、段差影用板状オブジェクトデータSSDの各ピクセルに設定されている各ベースUV座標データが一定の方向に同じ量だけずれるようにこれら各ベースUV座標データに対して加算する値のデータである。UV座標用アニメーションデータUADを利用することにより、段差影用板状オブジェクトデータSSDの各ピクセルのベースUV座標データが各更新タイミングにおいて一定の方向に同じ量だけずれることとなる。そして、各更新タイミングにおいて一定のUV座標データを利用して段差影用テクスチャデータSSTを適用することにより、影画像CH14が各更新タイミングにおいて一定の方向に同じ量だけずれながら移動表示されることとなる。   As data for changing the base UV coordinate data of the step shadow plate-like object data SSD at each update timing of the image, the memory module 133 stores UV coordinate animation data UAD in advance as shown in FIG. 72 (b). Has been. In the UV coordinate animation data UAD, the base UV coordinates of the step shadow plate-like object data SSD are associated one by one with the respective update timings of the period in which the effect character CH13 is displayed as a moving image on the stairs. Data for changing data is set. The data to be changed refers to the base UV coordinate data so that the base UV coordinate data set for each pixel of the step shadow plate-like object data SSD is shifted by the same amount in a certain direction. It is data of the value to be added. By using the UV coordinate animation data UAD, the base UV coordinate data of each pixel of the step shadow plate-like object data SSD is shifted by the same amount in a certain direction at each update timing. Then, by applying the step shadow texture data SST using constant UV coordinate data at each update timing, the shadow image CH14 is moved and displayed while being shifted by the same amount in a fixed direction at each update timing. Become.

以下、段差影表示を行うための具体的な処理構成を説明する。図73は、表示CPU131にて実行される段差影表示用の演算処理を示すフローチャートである。段差影表示用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該段差影表示用の演算処理は、現状設定されている実行対象テーブルにおいて段差影表示についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for performing step shadow display will be described. FIG. 73 is a flowchart showing a calculation process for displaying a step shadow performed by the display CPU 131. The step shadow display calculation process is executed in the effect calculation process in step S2209 in the task process (FIG. 42). The calculation process for the step shadow display is activated when information on the step shadow display is set in the currently set execution target table.

段差影表示の開始タイミングである場合(ステップS3401:YES)、UV座標用アニメーションデータUADをメモリモジュール133からワークRAM132に読み出す(ステップS3402)。また、段差影表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3403)。当該画像データには、キャラクタ用オブジェクトデータCOD1、キャラクタ用テクスチャデータCTD1、階段用オブジェクトデータSGD、階段用テクスチャデータSGTD、段差影用板状オブジェクトデータSSD及び段差影用テクスチャデータSSTが含まれる。その後、ステップS3404にて、段差影表示を開始すべきことをVDP135に認識させるための段差影表示の開始指定情報を表示CPU131のレジスタに記憶する。   If it is the start timing of the step shadow display (step S3401: YES), the UV coordinate animation data UAD is read from the memory module 133 to the work RAM 132 (step S3402). Further, each address in the memory module 133 of the image data for performing the step shadow display is grasped (step S3403). The image data includes character object data COD1, character texture data CTD1, stair object data SGD, stair texture data SGTD, step shadow plate-like object data SSD, and step shadow texture data SST. In step S3404, step shadow display start designation information for causing the VDP 135 to recognize that the step shadow display should be started is stored in the register of the display CPU 131.

ステップS3401にて否定判定をした場合又はステップS3404の処理を実行した場合、ステップS3405にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして階段用オブジェクトデータSGD及び階段用テクスチャデータSGTDを把握する。そして、これら階段用オブジェクトデータSGD及び階段用テクスチャデータSGTDについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データSGD,SGTDに対応させて確保されたエリアに書き込む(ステップS3406)。この場合、階段画像SGを所定範囲に亘って表示させることが可能なように、階段用オブジェクトデータSGDの各ピクセルのワールド座標系における座標データが更新される。   If a negative determination is made in step S3401, or if the process of step S3404 is executed, in step S3405, staircase object data SGD and staircase data are used as current use target data based on the currently set execution target table. Grasp the texture data SGTD. Then, parameter information is calculated and derived for the stair object data SGD and stair texture data SGTD, and the derived parameter information is written in an area secured in the work RAM 132 in correspondence with the image data SGD and SGTD. (Step S3406). In this case, the coordinate data in the world coordinate system of each pixel of the staircase object data SGD is updated so that the staircase image SG can be displayed over a predetermined range.

また、ステップS3407にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとしてキャラクタ用オブジェクトデータCOD1及びキャラクタ用テクスチャデータCTD1を把握する。そして、これらキャラクタ用オブジェクトデータCOD1及びキャラクタ用テクスチャデータCTD1について、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データCOD1,CTD1に対応させて確保されたエリアに書き込む(ステップS3408)。この場合、演出用キャラクタCH13が階段を上る様子が動画表示されるように(図72(a)参照)、キャラクタ用オブジェクトデータCOD1の各ピクセルのワールド座標系における座標データが更新される。   In step S3407, based on the currently set execution target table, the character object data COD1 and the character texture data CTD1 are grasped as data to be used this time. Then, parameter information is calculated and derived for the character object data COD1 and the character texture data CTD1, and the derived parameter information is written in an area secured in the work RAM 132 corresponding to the image data COD1 and CTD1. (Step S3408). In this case, the coordinate data in the world coordinate system of each pixel of the character object data COD1 is updated so that the animation of the effect character CH13 going up the stairs is displayed (see FIG. 72A).

その後、ステップS3409にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして段差影用板状オブジェクトデータSSDを把握する。続くステップS3410では、ワークRAM132に既に読み出しているUV座標用アニメーションデータUADから今回の更新タイミングに対応したベースUV座標データの増加分のデータを読み出し、その読み出したデータを現状のベースUV座標データに加算することで今回の更新タイミングに対応したベースUV座標データを導出する。そして、その導出したベースUV座標データをワークRAM132において段差影用板状オブジェクトデータSSDに対応させて確保されたエリアに書き込む。   Thereafter, in step S3409, the step shadow plate-like object data SSD is grasped as the current use target data based on the currently set execution target table. In the subsequent step S3410, the incremented data of the base UV coordinate data corresponding to the current update timing is read from the UV coordinate animation data UAD already read in the work RAM 132, and the read data is converted into the current base UV coordinate data. By adding, base UV coordinate data corresponding to the current update timing is derived. Then, the derived base UV coordinate data is written in an area secured in the work RAM 132 in correspondence with the step shadow plate-like object data SSD.

その後、ステップS3411にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして段差影用テクスチャデータSSTを把握する。続くステップS3412では、段差影用板状オブジェクトデータSSDにおけるベースUV座標データ以外のパラメータ情報及び段差影用テクスチャデータSSTのパラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データSSD,SSTに対応させて確保されたエリアに書き込む。その後、ステップS3413にて、段差影表示の実行期間であることをVDP135に認識させるための段差影表示指定情報を表示CPU131のレジスタに記憶する。   Thereafter, in step S3411, the step shadow texture data SST is grasped as the current use target data based on the currently set execution target table. In the following step S3412, parameter information other than the base UV coordinate data in the step shadow plate-like object data SSD and parameter information of the step shadow texture data SST are calculated and derived, and the derived parameter information is displayed in the work RAM 132 by these images. Data is written in an area secured corresponding to the data SSD, SST. Thereafter, in step S3413, step shadow display designation information for causing the VDP 135 to recognize that the step shadow display is being executed is stored in the register of the display CPU 131.

この場合、段差影用板状オブジェクトデータSSDのワールド座標系における座標データとして、演出用キャラクタCH11の下方に影画像CH12を表示させることが可能なように、ステップS3408にて把握したキャラクタ用オブジェクトデータCOD1の座標データに対応する座標データを把握する。また、この場合に把握される座標データは、階段画像SGから離れる側に1ピクセル分、離れた位置に段差影用板状オブジェクトデータSSDが配置されるように、ステップS3406にて把握した階段用オブジェクトデータSGDの座標データに対応する座標データとなる。   In this case, the character object data grasped in step S3408 so that the shadow image CH12 can be displayed below the effect character CH11 as the coordinate data in the world coordinate system of the step shadow plate-like object data SSD. Coordinate data corresponding to the coordinate data of COD1 is grasped. Further, the coordinate data grasped in this case is the staircase data grasped in step S3406 so that the step shadow plate-like object data SSD is arranged at a position separated by one pixel on the side away from the staircase image SG. The coordinate data corresponds to the coordinate data of the object data SGD.

上記のように段差影表示用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、キャラクタ用オブジェクトデータCOD1、キャラクタ用テクスチャデータCTD1、階段用オブジェクトデータSGD、階段用テクスチャデータSGTD、段差影用板状オブジェクトデータSSD及び段差影用テクスチャデータSSTの使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには段差影表示指定情報が設定され、さらに段差影表示の開始タイミングにおいては段差影表示の開始指定情報が設定される。   When the calculation process for step shadow display is executed as described above, the drawing list transmitted to the VDP 135 in the subsequent drawing list output process (step S609) includes character object data COD1, character texture data CTD1, Information on instruction to use staircase object data SGD, staircase texture data SGTD, step shadow plate-like object data SSD, and step shadow texture data SST is set. In addition, parameter information to be applied to each of these image data is set in the drawing list. In addition, step shadow display designation information is set in the drawing list, and step shadow display start designation information is set at the step shadow display start timing.

次に、VDP135にて実行される段差影表示用の設定処理を、図74のフローチャートを参照しながら説明する。段差影表示用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて段差影表示指定情報が設定されている場合に、段差影表示用の設定処理が実行される。   Next, step shadow display setting processing executed in the VDP 135 will be described with reference to the flowchart of FIG. The step shadow display setting process is executed as a part of the effect setting process executed in step S2303 of the drawing process (FIG. 44). Further, when step shadow display designation information is set in the drawing list, a step shadow display setting process is executed.

今回の描画リストに段差影表示の開始指定情報が設定されている場合(ステップS3501:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS3502)。当該画像データには、キャラクタ用オブジェクトデータCOD1、キャラクタ用テクスチャデータCTD1、階段用オブジェクトデータSGD、階段用テクスチャデータSGTD、段差影用板状オブジェクトデータSSD及び段差影用テクスチャデータSSTが含まれる。   If step start display information is set in the current drawing list (step S3501: YES), the memory module 133 is the current display target from the address information set in the drawing list. The address of the area where the various image data is stored is grasped, and based on the grasp result, the various image data is read from the memory module 133 to the development buffer 141 of the VRAM 134 (step S3502). The image data includes character object data COD1, character texture data CTD1, stair object data SGD, stair texture data SGTD, step shadow plate-like object data SSD, and step shadow texture data SST.

ステップS3501にて否定判定をした場合、又はステップS3502の処理を実行した場合、ステップS3503にて、今回の描画リストに基づき階段用オブジェクトデータSGD及び階段用テクスチャデータSGTDを表示対象のデータとして把握する。また、ステップS3504にて、それらデータSGD,SGTDのパラメータ情報を今回の描画リストに基づき把握する。この場合、階段用オブジェクトデータSGDの各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。   If a negative determination is made in step S3501, or if the process of step S3502 is executed, in step S3503, the staircase object data SGD and the staircase texture data SGTD are grasped as display target data based on the current drawing list. . In step S3504, the parameter information of the data SGD and SGTD is grasped based on the current drawing list. In this case, various parameter information including the coordinate data in the world coordinate system of each pixel of the staircase object data SGD is grasped.

その後、ステップS3505にて、今回の描画リストに基づきキャラクタ用オブジェクトデータCOD1及びキャラクタ用テクスチャデータCTD1を表示対象のデータとして把握する。また、ステップS3506にて、それらデータCOD1,CTD1のパラメータ情報を今回の描画リストに基づき把握する。この場合、演出用キャラクタCH13が階段を上る様子が動画表示されるように(図72(a)参照)、キャラクタ用オブジェクトデータCOD1の各ピクセルのワールド座標系における座標データを含めて各種パラメータ情報を把握する。   Thereafter, in step S3505, the character object data COD1 and the character texture data CTD1 are grasped as display target data based on the current drawing list. In step S3506, the parameter information of the data COD1, CTD1 is grasped based on the current drawing list. In this case, various parameter information including coordinate data in the world coordinate system of each pixel of the character object data COD1 is displayed so that the appearance of the effect character CH13 going up the stairs is displayed as a moving image (see FIG. 72A). To grasp.

その後、ステップS3507にて、今回の描画リストに基づき段差影用板状オブジェクトデータSSDを表示対象のデータとして把握する。また、ステップS3508にて、段差影用板状オブジェクトデータSSDのベースUV座標データを今回の描画リストに基づき把握するとともに、ステップS3509にて、当該データSSDに適用する他のパラメータ情報を把握する。この場合、演出用キャラクタCH13の下方に影画像CH14を表示させるための段差影用板状オブジェクトデータSSDの各ピクセルのワールド座標系における座標データを把握する。また、この場合に把握される座標データは、階段画像SGから離れる側に1ピクセル分、離れた位置に段差影用板状オブジェクトデータSSDが配置されるように、ステップS3504にて把握した階段用オブジェクトデータSGDの座標データに対応する座標データとなる。   Thereafter, in step S3507, the step shadow plate-like object data SSD is grasped as display target data based on the current drawing list. In step S3508, the base UV coordinate data of the step shadow plate-like object data SSD is grasped based on the current drawing list, and in step S3509, other parameter information applied to the data SSD is grasped. In this case, the coordinate data in the world coordinate system of each pixel of the step shadow plate-like object data SSD for displaying the shadow image CH14 under the effect character CH13 is grasped. Further, the coordinate data grasped in this case is for the staircase grasped in step S3504 so that the step shadow plate-like object data SSD is arranged at a position separated by one pixel on the side away from the staircase image SG. The coordinate data corresponds to the coordinate data of the object data SGD.

その後、ステップS3510にて、今回の描画リストに基づき段差影用テクスチャデータSSTを表示対象のデータとして把握する。また、ステップS3511にて、段差影用テクスチャデータSSTの固定のUV座標データを当該テクスチャデータSSTから把握するとともに、ステップS3512にて、当該テクスチャデータSSTに適用する他のパラメータ情報を今回の描画リストに基づき把握する。   Thereafter, in step S3510, the step shadow texture data SST is grasped as display target data based on the current drawing list. In step S3511, the fixed UV coordinate data of the step shadow texture data SST is grasped from the texture data SST. In step S3512, other parameter information to be applied to the texture data SST is displayed in the current drawing list. Based on

その後、ステップS3513にて、ステップS3503〜ステップS3512の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。   Thereafter, in step S3513, a setting process for the world coordinate system is executed according to the contents corresponding to the grasp results in steps S3503 to S3512.

上記のように段差影表示用の設定処理が実行されることにより、ワールド座標系に階段用オブジェクトデータSGD、キャラクタ用オブジェクトデータCOD1及び段差影用板状オブジェクトデータSSDが配置されるとともに、表示CPU131において演算により導出された座標データを含めて各種パラメータ情報が各オブジェクトデータSGD,COD1,SSDに適用される。また、各オブジェクトデータSGD,COD1,SSDには対応するテクスチャデータSGTD,CTD1,SSTが適用される。これにより、表示面Pでは、図72(a)に示すように、階段画像SGの階段上を演出用キャラクタCH13が移動しているような動画表示が行われるとともに演出用キャラクタCH13の移動に合わせて影画像CH14が階段の形状に沿って変形しながら追従するような動画表示が行われる。   By executing the setting process for the step shadow display as described above, the staircase object data SGD, the character object data COD1, and the step shadow plate-like object data SSD are arranged in the world coordinate system, and the display CPU 131 is displayed. Various parameter information including the coordinate data derived by the calculation in (1) is applied to each object data SGD, COD1, SSD. Corresponding texture data SGTD, CTD1, and SST are applied to each object data SGD, COD1, and SSD. Thereby, on the display surface P, as shown in FIG. 72 (a), a moving image display in which the effect character CH13 is moving on the stairs of the staircase image SG is performed, and in accordance with the movement of the effect character CH13. Then, the moving image display is performed such that the shadow image CH14 follows the shape of the staircase while deforming.

以上のように階段上を移動するように演出用キャラクタCH13が表示される構成において、階段の形状に合わせて形成された段差影用板状オブジェクトデータSSDに段差影用テクスチャデータSSTを適用することで影画像CH14を表示する構成である。これにより、階段の形状に沿うようにして影画像CH14を表示することが可能となる。   In the configuration in which the effect character CH13 is displayed so as to move on the stairs as described above, the step shadow texture data SST is applied to the step shadow plate-like object data SSD formed in accordance with the shape of the stairs. The shadow image CH14 is displayed. Thereby, the shadow image CH14 can be displayed along the shape of the stairs.

段差影用板状オブジェクトデータSSDを階段において影画像CH14が表示され得る全体の範囲に対応させて設定し、段差影用板状オブジェクトデータSSDのベースUV座標データを変更することで影画像CH14の表示位置を変更する構成とすることにより、影画像CH14の各表示位置に対応する段差影用板状オブジェクトデータを複数種類用意する構成に比べて、画像データを記憶するために必要なデータ容量を削減することが可能となる。   The step shadow plate-like object data SSD is set corresponding to the entire range in which the shadow image CH14 can be displayed on the stairs, and the base UV coordinate data of the step shadow plate-like object data SSD is changed to change the shadow image CH14. By adopting a configuration in which the display position is changed, a data capacity necessary for storing image data can be increased compared to a configuration in which a plurality of types of step shadow plate-like object data corresponding to each display position of the shadow image CH14 is prepared. It becomes possible to reduce.

階段用オブジェクトデータSGDに対して段差影用テクスチャデータSSTを適用するのではなく、段差影用板状オブジェクトデータSSDを別に設定して段差影用テクスチャデータSSTを適用することにより、ベースUV座標データを変更することで影画像CH14の表示位置を変更する場合において階段用テクスチャデータSGTDの表示位置に影響を与えないようにすることが可能となる。   Instead of applying the step shadow texture data SST to the staircase object data SGD, the step shadow texture data SST is applied by separately setting the step shadow plate-like object data SSD, thereby providing the base UV coordinate data. It is possible to prevent the display position of the staircase texture data SGTD from being affected when the display position of the shadow image CH14 is changed.

<段差影表示に係る構成の別形態>
・テクスチャのUV座標データを変更することなくオブジェクトデータのベースUV座標データを変更することで画像の表示位置を変更する構成を、既に説明した平面状の影画像CH12を表示するために利用してもよい。この場合、平面影用板状オブジェクトデータBSDのサイズを地面用オブジェクトデータBGDの全体分に対応させるのではなく、地面用オブジェクトデータBGDにおいて影画像CH12が表示され得る一部の範囲に対応させることにより、平面影用板状オブジェクトデータBSDのデータ容量を小さくすることが可能となる。
<Another configuration of the step shadow display>
A configuration for changing the display position of the image by changing the base UV coordinate data of the object data without changing the UV coordinate data of the texture is used to display the planar shadow image CH12 already described. Also good. In this case, the size of the planar shadow plate-like object data BSD is not made to correspond to the entire ground object data BGD, but to correspond to a partial range in which the shadow image CH12 can be displayed in the ground object data BGD. As a result, the data capacity of the planar shadow plate-like object data BSD can be reduced.

・テクスチャのUV座標データを表示CPU131において変更可能な構成とした場合には、段差影用板状オブジェクトデータSSDを利用することなく、段差影用テクスチャデータSSTを階段用オブジェクトデータSGDに適用する構成としてもよい。この場合、階段用オブジェクトデータSGDに階段用テクスチャデータSGTDを適用した後に、表示CPU131において設定されたUV座標データに対応する位置に対して、段差影用テクスチャデータSSTを上書きするように適用する。本構成によれば、段差影用板状オブジェクトデータSSDが不要となる点でデータ容量の削減を図ることができるとともに、オブジェクトデータのベースUV座標データを変更しなくてもUV座標データとの関係で影画像CH14の階段形状に沿った移動表示を行うことが可能となる。   When the texture UV coordinate data can be changed by the display CPU 131, the step shadow texture data SST is applied to the staircase object data SGD without using the step shadow plate-like object data SSD. It is good. In this case, after the staircase texture data SGTD is applied to the staircase object data SGD, the step shadow texture data SST is applied to the position corresponding to the UV coordinate data set in the display CPU 131. According to this configuration, it is possible to reduce the data capacity in that the step shadow plate-like object data SSD is not necessary, and the relationship with the UV coordinate data without changing the base UV coordinate data of the object data. Thus, it is possible to perform movement display along the staircase shape of the shadow image CH14.

・影画像CH14を表示するために階段用オブジェクトデータSGDとは別に設けるオブジェクトデータは板状オブジェクトデータに限定されることはなく、キャラクタ用オブジェクトデータCOD1などと同様に肉厚のある立体状に構成されたオブジェクトデータとしてもよい。   The object data provided separately from the staircase object data SGD for displaying the shadow image CH14 is not limited to the plate-like object data, and is configured in a solid three-dimensional shape like the character object data COD1. Object data may be used.

・階段用オブジェクトデータSGDとは別に設けられたオブジェクトデータを利用して演出用キャラクタCH13の影画像CH14を表示する構成を、演出用キャラクタCH13が水面に反射している様子を示す反射画像を表示するために利用してもよい。   A structure in which the shadow image CH14 of the effect character CH13 is displayed using object data provided separately from the staircase object data SGD, and a reflection image showing the effect character CH13 reflecting off the water surface is displayed. May be used to

<変動表示演出を行うための構成>
次に、変動表示演出を行うための構成について説明する。図75(a)は変動表示演出の内容を説明するための説明図であり、図75(b)はVRAM134の展開用バッファ141において変動表示演出の実行に際して利用されるエリアの構成を説明するための説明図である。
<Configuration for performing variable display effects>
Next, a configuration for performing a variable display effect will be described. FIG. 75A is an explanatory diagram for explaining the contents of the variable display effect, and FIG. 75B is a diagram for explaining the configuration of the area used in the execution of the variable display effect in the development buffer 141 of the VRAM 134. It is explanatory drawing of.

変動表示演出とは、図75(a)に示すように、顔、胴体、両手、両足を有する人が表現されていると遊技者に認識される演出用キャラクタCH15が移動表示されている手前にて複数の図柄表示部CH16〜CH18が変動表示される演出である。なお、変動表示演出では、第1図柄表示部CH16、第2図柄表示部CH17及び第3図柄表示部CH18の3種類が変動表示されるが、図柄表示部の数は1個でもよく、他の複数であってもよい。各図柄表示部CH16〜CH18はそれぞれ同一の外観形状をしており、周回方向に並ぶ各面のそれぞれに演出図柄が付されている。一の図柄表示部CH16〜CH18において周回方向に並ぶ演出図柄の種類は全て相違している一方、各図柄表示部CH16〜CH18に設定されている演出図柄の種類は同一となっている。   As shown in FIG. 75 (a), the variable display effect is in front of the effect character CH15 that is recognized by the player when a person having a face, torso, both hands, and both feet is expressed. This is an effect in which a plurality of symbol display parts CH16 to CH18 are variably displayed. In the variable display effect, three types of the first symbol display unit CH16, the second symbol display unit CH17, and the third symbol display unit CH18 are variably displayed. However, the number of the symbol display units may be one, There may be a plurality. Each symbol display part CH16-CH18 has the same external appearance shape, respectively, and the production | presentation symbol is attached | subjected to each of each surface arranged in the circumference direction. In the one symbol display part CH16 to CH18, the types of effect symbols arranged in the circumferential direction are all different, while the effect symbols set in each symbol display part CH16 to CH18 are the same.

変動表示演出は、開閉実行モードにおける昇格演出として実行される。昇格演出は、通常大当たり結果の場合及び15R高確大当たり結果の場合のいずれにおいても発生し得る演出である。具体的には、遊技回用の演出の終了に際しては図柄表示装置41にて通常大当たり結果に対応した偶数図柄の組合せを最終停止表示させながら、今回の開閉実行モードの契機となった大当たり結果が15R高確大当たり結果であった場合には開閉実行モード中に高確対応演出が行われ、今回の開閉実行モードの契機となった大当たり結果が通常大当たり結果であった場合には開閉実行モード中に低確対応演出が行われる演出である。変動表示演出は、開閉実行モード中に開始され、15R高確大当たり結果を契機とした開閉実行モードであれば、複数の図柄表示部CH16〜CH18の変動表示が停止される場合に同一の演出図柄の組合せが停止表示され、通常大当たり結果を契機とした開閉実行モードであれば、複数の図柄表示部CH16〜CH18の変動表示が停止される場合に同一の演出図柄の組合せが停止表示されない。   The variable display effect is executed as a promotion effect in the opening / closing execution mode. The promotion effect is an effect that can occur both in the case of the normal jackpot result and in the case of the 15R high-precision jackpot result. Specifically, at the end of the game-playing effect, the symbol display device 41 finally stops and displays the combination of even symbols corresponding to the normal jackpot result, and the jackpot result that triggered the current opening / closing execution mode is displayed. If the result is a 15R high-accuracy big hit result, a high-accuracy corresponding effect is performed during the opening / closing execution mode, and if the big hit result that triggered the current opening / closing execution mode is a normal big hit result, the opening / closing execution mode is being executed. This is an effect in which a low-accuracy response effect is performed. If the variable display effect is started during the opening / closing execution mode and the opening / closing execution mode is triggered by the 15R high-accuracy large hit result, the same effect symbol is displayed when the variable display of the plurality of symbol display parts CH16 to CH18 is stopped. In the open / close execution mode triggered by the normal jackpot result, when the variable display of the plurality of symbol display parts CH16 to CH18 is stopped, the combination of the same effect symbols is not stopped and displayed.

変動表示演出が実行される場合、少なくとも所定期間に亘って各図柄表示部CH16〜CH18が半透明で表示される。この場合に、各図柄表示部CH16〜CH18はメモリモジュール133に予め記憶されたオブジェクトデータとテクスチャデータとを利用して3次元画像として表示されるが、オブジェクトデータに対してそのまま半透明化処理を施すと、立体データとして設定されたオブジェクトデータの裏側の画像などがそのまま透過して見えてしまうおそれがある。これに対して、各図柄表示部CH16〜CH18を表示するためのオブジェクトデータに半透明化処理を施すのではなく、演出用キャラクタCH15とは別に作成した各図柄表示部CH16〜CH18の2次元描画データに対して半透明化処理を施し、それを演出用キャラクタCH15を表示するための2次元描画データに重ね合わせることで、図75(a)に示すように、演出用キャラクタCH15の手前にて半透明の各図柄表示部CH16〜CH18が変動表示されるようにしている。   When the variable display effect is executed, the symbol display portions CH16 to CH18 are displayed translucently for at least a predetermined period. In this case, each of the symbol display units CH16 to CH18 is displayed as a three-dimensional image using object data and texture data stored in advance in the memory module 133. If applied, the image on the back side of the object data set as the three-dimensional data may be seen as it is. On the other hand, the object data for displaying each of the symbol display portions CH16 to CH18 is not subjected to translucency processing, but two-dimensional drawing of the symbol display portions CH16 to CH18 created separately from the effect character CH15. As shown in FIG. 75 (a), the data is subjected to a semi-transparency process and superimposed on the two-dimensional drawing data for displaying the effect character CH15. The translucent symbol display portions CH16 to CH18 are displayed in a variable manner.

当該表示制御を行うためにVRAM134の展開用バッファ141には、図75(b)に示すように描画用バッファBF1と、第1保存用バッファBF2と、第2保存用バッファBF3と、第3保存用バッファBF4と、第4保存用バッファBF5とが設けられている。これら各バッファBF1〜BF5はいずれもフレームバッファ142の各フレーム領域142a,142bと同一数の単位エリアが設定されており、各単位エリアにはRGB各色に1バイトが割り当てられている。したがって、各バッファBF1〜BF5にはフレーム領域142a,142bに描画される描画データと同様の描画データを描画することが可能となる。また、各単位エリアにはRBG各色のエリア以外にもα値を設定するための1バイトのエリアが設定されている。   In order to perform the display control, the development buffer 141 of the VRAM 134 includes a drawing buffer BF1, a first storage buffer BF2, a second storage buffer BF3, and a third storage as shown in FIG. A buffer BF4 and a fourth storage buffer BF5 are provided. In each of these buffers BF1 to BF5, the same number of unit areas as the frame areas 142a and 142b of the frame buffer 142 are set, and 1 byte is assigned to each RGB color in each unit area. Therefore, drawing data similar to the drawing data drawn in the frame areas 142a and 142b can be drawn in each of the buffers BF1 to BF5. In each unit area, in addition to the RBG color area, a 1-byte area for setting an α value is set.

描画用バッファBF1は、演出用キャラクタCH15を表示するための2次元描画データ、各図柄表示部CH16〜CH18を表示するための2次元描画データを描画する場合に利用される。第1保存用バッファBF2は、描画用バッファBF1を利用して作成された演出用キャラクタCH15の2次元描画データを一時的に記憶しておくために利用される。第2保存用バッファBF3は、描画用バッファBF1を利用して作成された第1図柄表示部CH16の2次元描画データを一時的に記憶しておくために利用される。第3保存用バッファBF4は、描画用バッファBF1を利用して作成された第2図柄表示部CH17の2次元描画データを一時的に記憶しておくために利用される。第4保存用バッファBF5は、描画用バッファBF1を利用して作成された第3図柄表示部CH18の2次元描画データを一時的に記憶しておくために利用される。   The drawing buffer BF1 is used when drawing two-dimensional drawing data for displaying the effect character CH15 and two-dimensional drawing data for displaying the symbol display portions CH16 to CH18. The first storage buffer BF2 is used for temporarily storing the two-dimensional drawing data of the effect character CH15 created using the drawing buffer BF1. The second storage buffer BF3 is used for temporarily storing the two-dimensional drawing data of the first symbol display unit CH16 created using the drawing buffer BF1. The third storage buffer BF4 is used to temporarily store the two-dimensional drawing data of the second symbol display unit CH17 created using the drawing buffer BF1. The fourth storage buffer BF5 is used to temporarily store the two-dimensional drawing data of the third symbol display unit CH18 created using the drawing buffer BF1.

以下、変動表示演出を実行するための具体的な処理構成を説明する。図76は、表示CPU131にて実行される変動表示演出用の演算処理を示すフローチャートである。変動表示演出用の演算処理は、タスク処理(図42)におけるステップS2209の演出用演算処理にて実行される。当該変動表示演出用の演算処理は、現状設定されている実行対象テーブルにおいて変動表示演出についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for executing the variable display effect will be described. FIG. 76 is a flowchart showing calculation processing for variable display effects executed by the display CPU 131. The calculation process for the variable display effect is executed in the effect calculation process in step S2209 in the task process (FIG. 42). The calculation process for the variable display effect is activated when information on the variable display effect is set in the currently set execution target table.

変動表示演出の開始タイミングである場合(ステップS3601:YES)、変動表示演出を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3602)。当該画像データには、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータと、第1図柄表示部CH16を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第2図柄表示部CH17を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第3図柄表示部CH18を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、が含まれる。その後、ステップS3603にて、変動表示演出を開始すべきことをVDP135に認識させるための変動表示演出の開始指定情報を表示CPU131のレジスタに記憶する。   When it is the start timing of the variable display effect (step S3601: YES), each address in the memory module 133 of the image data for performing the variable display effect is grasped (step S3602). The image data includes character object data and character texture data for displaying the effect character CH15, symbol object data and symbol texture data for displaying the first symbol display unit CH16, and second data. Symbol object data and symbol texture data for displaying the symbol display portion CH17, and symbol object data and symbol texture data for displaying the third symbol display portion CH18 are included. After that, in step S3603, the start designation information of the variable display effect for causing the VDP 135 to recognize that the variable display effect should be started is stored in the register of the display CPU 131.

ステップS3601にて否定判定をした場合又はステップS3603の処理を実行した場合、ステップS3604にて、現状設定されている実行対象テーブルに基づき今回の使用対象のデータとして、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータを把握する。そして、これらキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データに対応させて確保されたエリアに書き込む(ステップS3605)。この場合、演出用キャラクタCH15が表示面P手前側に向かって走っていると認識される表示内容となるように、キャラクタ用オブジェクトデータの各ピクセルのワールド座標系における座標データが更新される。   When a negative determination is made in step S3601 or when the process of step S3603 is executed, in order to display the effect character CH15 as the current use target data based on the currently set execution target table in step S3604. The character object data and the character texture data are grasped. Then, parameter information is calculated and derived for the character object data and character texture data, and the derived parameter information is written in an area secured corresponding to the image data in the work RAM 132 (step S3605). In this case, the coordinate data in the world coordinate system of each pixel of the character object data is updated so that the display content is recognized that the effect character CH15 is running toward the front side of the display surface P.

また、ステップS3606にて、現状設定されている実行対象テーブルに基づき今回の使用対象のデータとして、各図柄表示部CH16〜CH18を表示するための各図柄用オブジェクトデータ及び各図柄用テクスチャデータを把握する。そして、これら各図柄用オブジェクトデータ及び各図柄用テクスチャデータについて、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データに対応させて確保されたエリアに書き込む(ステップS3607)。この場合、各図柄表示部CH16〜CH18が演出用キャラクタCH15の手前にて所定方向に周回していると認識される表示内容となるように、各図柄用オブジェクトデータの各ピクセルのワールド座標系における座標データが更新される。また、変動表示演出の全期間において各図柄用オブジェクトデータに適用するα値は表示面Pの奥側にて重なることとなる画像を透過させない不透明の情報に設定される。   Further, in step S3606, the object data for each symbol and the texture data for each symbol for displaying each symbol display part CH16 to CH18 are grasped as the data to be used this time based on the currently set execution target table. To do. Then, parameter information is calculated and derived for each symbol object data and each symbol texture data, and the derived parameter information is written in an area secured in correspondence with the image data in the work RAM 132 (step S3607). ). In this case, in the world coordinate system of each pixel of each symbol object data, each symbol display unit CH16 to CH18 has a display content that is recognized as rotating around in a predetermined direction before the effect character CH15. Coordinate data is updated. In addition, the α value applied to each symbol object data in the entire period of the variable display effect is set to opaque information that does not transmit images that overlap on the back side of the display surface P.

その後、ステップS3608にて、現状設定されている実行対象テーブルに基づき、各図柄表示部CH16〜CH18を半透明状態で表示する半透明期間であるか否かを判定する。半透明期間である場合(ステップS3608:YES)、ステップS3609にて、現状設定されている実行対象テーブルに基づき半透明値データを把握する。また、ステップS3610にて、半透明期間であることをVDP135に認識させるための半透明指定情報を表示CPU131のレジスタに記憶する。   Thereafter, in step S3608, based on the currently set execution target table, it is determined whether or not it is a translucent period for displaying the symbol display units CH16 to CH18 in a translucent state. If it is a semi-transparent period (step S3608: YES), in step S3609, semi-transparent value data is grasped based on the currently set execution target table. In step S3610, the translucent designation information for causing the VDP 135 to recognize that it is a translucent period is stored in the register of the display CPU 131.

ステップS3608にて否定判定をした場合、又はステップS3610の処理を実行した場合、ステップS3611にて、変動表示演出の実行期間であることをVDP135に認識させるための変動表示演出指定情報を表示CPU131のレジスタに記憶する。   If a negative determination is made in step S3608, or if the process of step S3610 is executed, in step S3611, the display CPU 131 displays variable display effect designation information for causing the VDP 135 to recognize that it is the execution period of the variable display effect. Store in register.

上記のように変動表示演出用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータと、第1図柄表示部CH16を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第2図柄表示部CH17を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第3図柄表示部CH18を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータとの使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには変動表示演出指定情報が設定され、さらに変動表示演出の開始タイミングにおいては変動表示演出の開始指定情報が設定されるとともに、半透明期間においては半透明指定情報が設定される。さらにまた、半透明指定情報が設定される場合には、描画リストに半透明値データが設定される。   When the calculation process for the variable display effect is executed as described above, the character object for displaying the effect character CH15 is displayed in the drawing list transmitted to the VDP 135 in the subsequent drawing list output process (step S609). Data and character texture data, symbol object data and symbol texture data for displaying the first symbol display unit CH16, symbol object data and symbol texture data for displaying the second symbol display unit CH17 And information on the instruction to use the symbol object data and the symbol texture data for displaying the third symbol display part CH18. In addition, parameter information to be applied to each of these image data is set in the drawing list. In addition, variable display effect designation information is set in the drawing list, and the variable display effect start designation information is set at the start timing of the variable display effect, and semi-transparency designation information is set in the semi-transparent period. The Furthermore, when translucent designation information is set, translucent value data is set in the drawing list.

次に、VDP135にて実行される変動表示演出用の設定処理を、図77のフローチャートを参照しながら説明する。変動表示演出用の設定処理は、描画処理(図44)のステップS2303にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて変動表示演出指定情報が設定されている場合に、変動表示演出用の設定処理が実行される。   Next, the setting process for the variable display effect executed in the VDP 135 will be described with reference to the flowchart of FIG. The setting process for the variable display effect is executed as part of the effect setting process executed in step S2303 of the drawing process (FIG. 44). Further, when the variable display effect designation information is set in the drawing list, the setting process for the variable display effect is executed.

今回の描画リストに変動表示演出の開始指定情報が設定されている場合(ステップS3701:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS3702)。当該画像データには、演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータと、第1図柄表示部CH16を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第2図柄表示部CH17を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、第3図柄表示部CH18を表示するための図柄用オブジェクトデータ及び図柄用テクスチャデータと、が含まれる。   When the start designation information of the variable display effect is set in the current drawing list (step S3701: YES), the memory module 133 is the current display target from the address information set in the drawing list. The address where the various image data is stored is grasped, and based on the grasp result, the various image data is read from the memory module 133 to the development buffer 141 of the VRAM 134 (step S3702). The image data includes character object data and character texture data for displaying the effect character CH15, symbol object data and symbol texture data for displaying the first symbol display unit CH16, and second data. Symbol object data and symbol texture data for displaying the symbol display portion CH17, and symbol object data and symbol texture data for displaying the third symbol display portion CH18 are included.

ステップS3701にて否定判定をした場合、又はステップS3702の処理を実行した場合、ステップS3703にて、今回の描画リストに基づき演出用キャラクタCH15を表示するためのキャラクタ用オブジェクトデータ及びキャラクタ用テクスチャデータを表示対象のデータとして把握する。また、ステップS3704にて、それら画像データのパラメータ情報を今回の描画リストに基づき把握する。この場合、演出用キャラクタCH15が表示面P手前側に向かって走っていると認識される表示内容とするための座標データを含めて各種パラメータ情報を把握する。   If a negative determination is made in step S3701, or if the process of step S3702 is executed, character object data and character texture data for displaying the effect character CH15 based on the current drawing list are obtained in step S3703. It is grasped as data to be displayed. In step S3704, the parameter information of the image data is grasped based on the current drawing list. In this case, various parameter information is grasped including coordinate data for displaying content that is recognized that the effect character CH15 is running toward the front side of the display surface P.

その後、ステップS3705にて、今回の描画リストに基づき各図柄表示部CH16〜CH18を表示するための各図柄用オブジェクトデータ及び各図柄用テクスチャデータを把握する。また、ステップS3706にて、それら画像データのパラメータ情報を今回の描画リストに基づき把握する。この場合、各図柄表示部CH16〜CH18が演出用キャラクタCH15の手前にて所定方向に周回していると認識される表示内容とするための座標データを含めて各種パラメータ情報を把握する。また、各図柄用オブジェクトデータに適用するα値として、表示面Pの奥側にて重なることとなる画像を透過させない不透明の情報を把握する。   Thereafter, in step S3705, the symbol object data and the symbol texture data for displaying the symbol display portions CH16 to CH18 are grasped based on the current drawing list. In step S3706, the parameter information of the image data is grasped based on the current drawing list. In this case, various symbol information is grasped including the coordinate data for displaying contents that are recognized that the symbol display portions CH16 to CH18 are circling in a predetermined direction before the effect character CH15. Further, as the α value to be applied to each symbol object data, opaque information that does not transmit an image that overlaps on the back side of the display surface P is grasped.

その後、ステップS3707にて、ステップS3703〜ステップS3706の把握結果に対応した内容に従ってワールド座標系への設定処理を実行する。これにより、ワールド座標系においては、図75(a)に示すような変動表示演出用の画像に対応した描画データの作成を可能とする位置関係で、演出用キャラクタCH15のオブジェクトデータ、第1図柄表示部CH16のオブジェクトデータ、第2図柄表示部CH17のオブジェクトデータ及び第3図柄表示部CH18のオブジェクトデータが設定される。つまり、演出用キャラクタCH15のオブジェクトデータの手前に各図柄表示部CH16〜CH18のオブジェクトデータが配置されるとともに、左に第1図柄表示部CH16のオブジェクトデータが配置され、中央に第2図柄表示部CH17のオブジェクトデータが配置され、右に第3図柄表示部CH18のオブジェクトデータが配置される。   Thereafter, in step S3707, a setting process for the world coordinate system is executed according to the contents corresponding to the grasp results in steps S3703 to S3706. As a result, in the world coordinate system, the object data of the effect character CH15, the first symbol, in a positional relationship that enables creation of drawing data corresponding to the image for variable display effect as shown in FIG. 75 (a). The object data of the display unit CH16, the object data of the second symbol display unit CH17, and the object data of the third symbol display unit CH18 are set. That is, the object data of each symbol display part CH16 to CH18 is arranged in front of the object data of the effect character CH15, the object data of the first symbol display part CH16 is arranged on the left, and the second symbol display part is arranged in the center. The object data of CH17 is arranged, and the object data of the third symbol display unit CH18 is arranged on the right.

次に、VDP135にて実行される変動表示演出用の描画データ作成処理を、図78のフローチャートを参照しながら説明する。変動表示演出用の描画データ作成処理は、描画リストにおいて変動表示演出指定情報が設定されている場合に、描画処理(図44)のステップS2311にて実行される演出及び図柄用の描画データ作成処理の一部の処理として実行される。   Next, drawing data creation processing for variable display effects executed in the VDP 135 will be described with reference to the flowchart of FIG. The drawing data creation process for the variable display effect is a drawing data creation process for the effect and design executed in step S2311 of the drawing process (FIG. 44) when the variable display effect designation information is set in the drawing list. It is executed as part of the process.

なお、以下の説明では図79(a)〜図79(c)及び図80(a)〜図80(e)の説明図を適宜参照する。図79(a)は第2保存用バッファBF3に保存された第1図柄表示部CH16の描画データを説明するための説明図であり、図79(b)は第3保存用バッファBF4に保存された第2図柄表示部CH17の描画データを説明するための説明図であり、図79(c)は第4保存用バッファBF5に保存された第3図柄表示部CH18の描画データを説明するための説明図である。また、図80(a)〜図80(e)は各保存用バッファBF2〜BF5に保存された描画データを利用して変動表示演出用画像の描画データが作成される様子を説明するための説明図である。   In the following description, the explanatory diagrams of FIGS. 79A to 79C and FIGS. 80A to 80E are referred to as appropriate. FIG. 79A is an explanatory diagram for explaining the drawing data of the first symbol display unit CH16 stored in the second storage buffer BF3, and FIG. 79B is stored in the third storage buffer BF4. FIG. 79C is an explanatory diagram for explaining the drawing data of the second symbol display unit CH17. FIG. 79C is a diagram for explaining the drawing data of the third symbol display unit CH18 stored in the fourth storage buffer BF5. It is explanatory drawing. FIGS. 80A to 80E are diagrams for explaining how the drawing data of the variable display effect image is created using the drawing data stored in the storage buffers BF2 to BF5. FIG.

まずステップS3801にて展開用バッファ141の描画用バッファBF1の初期化処理を実行する。初期化処理に際しては、描画用バッファBF1の各単位エリアを初期化する。これにより、各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。   First, in step S3801, initialization processing of the drawing buffer BF1 of the development buffer 141 is executed. In the initialization process, each unit area of the drawing buffer BF1 is initialized. As a result, 1-byte data corresponding to each color of RGB is cleared to “0” in each unit area, and “0” is cleared so that 1-byte data corresponding to the α value corresponds to completely transparent in each unit area. Is done.

続くステップS3802では、演出用キャラクタの描画処理を実行する。当該描画処理では、ワールド座標系において演出用キャラクタCH15に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、演出用キャラクタCH15を表示するための表示対象データが、最終的な演出用キャラクタCH15の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3803にて、第1保存用バッファBF2への保存処理を実行する。この場合、ステップS3802の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第1保存用バッファBF2に保存される。   In a succeeding step S3802, a drawing process of the effect character is executed. In the drawing process, only the object data is projected onto the screen area PC12 by masking the object data other than the object data corresponding to the effect character CH15 in the world coordinate system. Then, the projected drawing data is written into the drawing buffer BF1. In this case, display target data for displaying the effect character CH15 is written in the unit area of the drawing buffer BF1 corresponding to the final display position of the effect character CH15. The α value of each unit area in which the display target data is rendered is set to data corresponding to opaqueness, and the α value of each unit area in which the display target data is not rendered is maintained as data corresponding to complete transparency. Thereafter, in step S3803, storage processing in the first storage buffer BF2 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the processing of step S3802 is stored as it is in the first storage buffer BF2.

続くステップS3804では、ステップS3801と同様に描画用バッファBF1の初期化処理を実行する。これにより、描画用バッファBF1の各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。   In the subsequent step S3804, the initialization process of the drawing buffer BF1 is executed in the same manner as in step S3801. As a result, 1-byte data corresponding to each color of RGB is cleared to “0” in each unit area of the drawing buffer BF1, and 1-byte data corresponding to the α value corresponds to completely transparent in each unit area. "0" is cleared.

その後、ステップS3805にて、第1図柄表示部の描画処理を実行する。当該描画処理では、ワールド座標系において第1図柄表示部CH16に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、図79(a−1)に示すように第1図柄表示部CH16を表示するための表示対象データが、最終的な第1図柄表示部CH16の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は、図79(a−2)に示すように不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3806にて、第2保存用バッファBF3への保存処理を実行する。この場合、ステップS3805の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第2保存用バッファBF3に保存される。   Thereafter, in step S3805, the drawing process of the first symbol display unit is executed. In the drawing process, only the object data is projected onto the screen area PC12 by masking other than the object data corresponding to the first symbol display unit CH16 in the world coordinate system. Then, the projected drawing data is written into the drawing buffer BF1. In this case, as shown in FIG. 79 (a-1), the display target data for displaying the first symbol display unit CH16 is stored in the drawing buffer BF1 corresponding to the final display position of the first symbol display unit CH16. Written in the unit area. The α value of each unit area in which the display target data is drawn is set to data corresponding to opacity as shown in FIG. 79 (a-2), and the α value of each unit area in which the display target data is not drawn is The data corresponding to complete transparency is maintained. Thereafter, in step S3806, storage processing in the second storage buffer BF3 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the processing of step S3805 is stored as it is in the second storage buffer BF3.

続くステップS3807では、ステップS3801と同様に描画用バッファBF1の初期化処理を実行する。これにより、描画用バッファBF1の各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。   In the subsequent step S3807, the rendering buffer BF1 is initialized as in step S3801. As a result, 1-byte data corresponding to each color of RGB is cleared to “0” in each unit area of the drawing buffer BF1, and 1-byte data corresponding to the α value corresponds to completely transparent in each unit area. "0" is cleared.

その後、ステップS3808にて、第2図柄表示部の描画処理を実行する。当該描画処理では、ワールド座標系において第2図柄表示部CH17に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、図79(b−1)に示すように第2図柄表示部CH17を表示するための表示対象データが、最終的な第2図柄表示部CH17の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は、図79(b−2)に示すように不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3809にて、第3保存用バッファBF4への保存処理を実行する。この場合、ステップS3808の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第3保存用バッファBF4に保存される。   Thereafter, in step S3808, a drawing process of the second symbol display unit is executed. In the drawing process, only the object data is projected onto the screen area PC12 by masking other than the object data corresponding to the second symbol display unit CH17 in the world coordinate system. Then, the projected drawing data is written into the drawing buffer BF1. In this case, as shown in FIG. 79 (b-1), the display target data for displaying the second symbol display unit CH17 is the drawing buffer BF1 corresponding to the final display position of the second symbol display unit CH17. Written in the unit area. The α value of each unit area in which the display target data is drawn is set to data corresponding to opaqueness as shown in FIG. 79 (b-2), and the α value of each unit area in which the display target data is not drawn is The data corresponding to complete transparency is maintained. Thereafter, in step S3809, storage processing in the third storage buffer BF4 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the process of step S3808 is stored in the third storage buffer BF4 as it is.

続くステップS3810では、ステップS3801と同様に描画用バッファBF1の初期化処理を実行する。これにより、描画用バッファBF1の各単位エリアにおいてRGB各色に対応した1バイトのデータが「0」クリアされるとともに、各単位エリアにおいてα値に対応した1バイトのデータが完全透明に対応するように「0」クリアされる。   In the subsequent step S3810, initialization processing for the drawing buffer BF1 is executed in the same manner as in step S3801. As a result, 1-byte data corresponding to each color of RGB is cleared to “0” in each unit area of the drawing buffer BF1, and 1-byte data corresponding to the α value corresponds to completely transparent in each unit area. "0" is cleared.

その後、ステップS3811にて、第3図柄表示部の描画処理を実行する。当該描画処理では、ワールド座標系において第3図柄表示部CH18に対応するオブジェクトデータ以外をマスクすることで当該オブジェクトデータのみをスクリーン領域PC12に投影する。そして、投影後の描画データを描画用バッファBF1に書き込む。この場合、図79(c−1)に示すように第3図柄表示部CH18を表示するための表示対象データが、最終的な第3図柄表示部CH18の表示位置に対応する描画用バッファBF1の単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は、図79(c−2)に示すように不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。その後、ステップS3812にて、第4保存用バッファBF5への保存処理を実行する。この場合、ステップS3811の処理後における描画用バッファBF1の各単位エリアのデータ状態がそのまま第4保存用バッファBF5に保存される。   Thereafter, in step S3811, a drawing process of the third symbol display unit is executed. In the drawing process, only the object data is projected onto the screen area PC12 by masking other than the object data corresponding to the third symbol display unit CH18 in the world coordinate system. Then, the projected drawing data is written into the drawing buffer BF1. In this case, as shown in FIG. 79 (c-1), the display target data for displaying the third symbol display unit CH18 is stored in the drawing buffer BF1 corresponding to the final display position of the third symbol display unit CH18. Written in the unit area. The α value of each unit area in which the display target data is drawn is set to data corresponding to opaqueness as shown in FIG. 79 (c-2), and the α value of each unit area in which the display target data is not drawn is The data corresponding to complete transparency is maintained. Thereafter, in step S3812, storage processing in the fourth storage buffer BF5 is executed. In this case, the data state of each unit area of the drawing buffer BF1 after the process of step S3811 is stored in the fourth storage buffer BF5 as it is.

続くステップS3813では、第1保存用バッファBF2に保存されている描画データをスクリーン用バッファ144における演出及び図柄用のバッファに書き込む。この場合、演出用キャラクタCH15を表示するための表示対象データが、最終的な演出用キャラクタCH15の表示位置に対応する演出及び図柄用のバッファの単位エリアに書き込まれる。当該表示対象データが描画される各単位エリアのα値は不透明に対応するデータに設定され、当該表示対象データが描画されない各単位エリアのα値は完全透明に対応するデータに維持される。   In the subsequent step S3813, the drawing data stored in the first storage buffer BF2 is written in the effect and design buffer in the screen buffer 144. In this case, display target data for displaying the effect character CH15 is written in the unit area of the effect and symbol buffer corresponding to the final display position of the effect character CH15. The α value of each unit area in which the display target data is rendered is set to data corresponding to opaqueness, and the α value of each unit area in which the display target data is not rendered is maintained as data corresponding to complete transparency.

その後、ステップS3814にて今回の描画リストに半透明指定情報が設定されているか判定をする。半透明指定情報が設定されている場合には、ステップS3815にて今回の描画リストから半透明値データを読み出す。   Thereafter, in step S3814, it is determined whether translucent designation information is set in the current drawing list. If translucent designation information is set, translucent value data is read from the current drawing list in step S3815.

ステップS3814にて否定判定をした場合又はステップS3815の処理を実行した場合、ステップS3816にて、第2〜第4保存用バッファBF3〜BF5に保存されている各描画データをスクリーン用バッファ144における演出及び図柄用のバッファに書き込む。この場合、各描画データのそれぞれに対応した図柄表示部CH16〜CH18を表示するための表示対象データが、最終的な各図柄表示部CH16〜CH18の各表示位置に対応する演出及び図柄用のバッファの単位エリアに書き込まれる。   If a negative determination is made in step S3814 or if the process of step S3815 is executed, the rendering data stored in the second to fourth storage buffers BF3 to BF5 is displayed in the screen buffer 144 in step S3816. And write to the design buffer. In this case, the display target data for displaying the symbol display portions CH16 to CH18 corresponding to each of the drawing data is the buffer for the effect and symbol corresponding to each final display position of each symbol display portion CH16 to CH18. Is written in the unit area.

ここで、ステップS3815の処理が実行されていない場合には、書き込み対象の各描画データにおいて対応する表示対象データには不透明のα値が設定されているとともに、対応する表示対象データ以外には完全透明のα値が設定されている。したがって、既に書き込まれている演出用キャラクタCH15を表示するための表示対象データのうち各図柄表示部CH16〜CH18の表示対象データと重なる部分については各図柄表示部CH16〜CH18の表示対象データが演出用キャラクタCH15の表示対象データに対して上書きされ、各図柄表示部CH16〜CH18の表示対象データと重ならない部分については演出用キャラクタCH15を表示するための表示対象データがそのまま維持される。また、各図柄表示部CH16〜CH18の表示対象データにおいて演出用キャラクタCH15の表示対象データと重ならない部分については、各図柄表示部CH16〜CH18の表示対象データが不透明のα値が付加された状態で設定される。なお、演出及び図柄用のバッファの各単位エリアにおいて演出用キャラクタCH15の表示対象データ及び図柄表示部CH16〜CH18の表示対象データのいずれもが書き込まれない単位エリアは完全透過のα値が設定された状態となる。   Here, when the process of step S3815 is not executed, an opaque α value is set for the corresponding display target data in each drawing data to be written, and other than the corresponding display target data, it is completely set. A transparent α value is set. Therefore, the display target data of each symbol display part CH16-CH18 produces effects about the part which overlaps with the display target data of each symbol display part CH16-CH18 among the display target data for displaying the effect character CH15 already written. The display target data for displaying the effect character CH15 is maintained as it is for the portion that is overwritten on the display target data of the character CH15 and does not overlap the display target data of the symbol display portions CH16 to CH18. In addition, in the display target data of each symbol display part CH16 to CH18, the display target data of each symbol display part CH16 to CH18 is added with an opaque α value for a portion that does not overlap with the display target data of the effect character CH15. Set by. In each unit area of the effect and symbol buffer, a unit area where neither the display target data of the effect character CH15 nor the display target data of the symbol display portions CH16 to CH18 is written is set to a completely transparent α value. It becomes a state.

一方、ステップS3815の処理が実行されている場合には、書き込み対象の各描画データにおいて対応する表示対象データには半透明のα値(例えば「0.5」)が設定されているとともに、対応する表示対象データ以外には完全透明のα値が設定されている。したがって、既に書き込まれている演出用キャラクタCH15を表示するための表示対象データのうち各図柄表示部CH16〜CH18の表示対象データと重なる部分については前者の表示対象データと後者の表示対象データとで上記半透明のα値によるブレンド処理が実行される。例えば、所定の単位エリアにおける前者の表示対象データの色情報を「r10,g10,b10」とし、後者の表示対象データの色情報を「r20,g20,b20」とし、さらに半透明のα値を「α20」とした場合、
R:r10×(1−α20)+r20×α20
G:g10×(1−α20)+g20×α20
B:b10×(1−α20)+b20×α20
となる。
On the other hand, when the processing in step S3815 is executed, a translucent α value (for example, “0.5”) is set in the corresponding display target data in each drawing data to be written, and In addition to the display target data to be displayed, a completely transparent α value is set. Therefore, of the display target data for displaying the effect character CH15 already written, the former display target data and the latter display target data are used for the portions overlapping the display target data of the symbol display portions CH16 to CH18. The blending process using the translucent α value is executed. For example, the color information of the former display target data in a predetermined unit area is “r10, g10, b10”, the color information of the latter display target data is “r20, g20, b20”, and a semi-transparent α value is set. When “α20” is assumed,
R: r10 × (1−α20) + r20 × α20
G: g10 × (1−α20) + g20 × α20
B: b10 × (1−α20) + b20 × α20
It becomes.

また、既に書き込まれている演出用キャラクタCH15を表示するための表示対象データのうち各図柄表示部CH16〜CH18の表示対象データと重ならない部分については演出用キャラクタCH15を表示するための表示対象データがそのまま維持される。また、各図柄表示部CH16〜CH18の表示対象データにおいて演出用キャラクタCH15の表示対象データと重ならない部分については、各図柄表示部CH16〜CH18の表示対象データが上記半透明のα値が付加された状態で設定される。なお、演出及び図柄用のバッファの各単位エリアにおいて演出用キャラクタCH15の表示対象データ及び図柄表示部CH16〜CH18の表示対象データのいずれもが書き込まれない単位エリアは完全透明のα値が設定された状態となる。   Moreover, the display target data for displaying the effect character CH15 for the portion of the display target data for displaying the effect character CH15 that has already been written does not overlap with the display target data of the symbol display portions CH16 to CH18. Is maintained as it is. In addition, in the display target data of each symbol display part CH16 to CH18, the display object data of each symbol display part CH16 to CH18 is added with the above-mentioned semi-transparent α value for the part that does not overlap with the display target data of the effect character CH15. It is set in the state. In each unit area of the production and design buffer, a unit area where neither the display target data of the production character CH15 nor the display target data of the design display portions CH16 to CH18 is written has a completely transparent α value. It becomes a state.

上記描画データ作成処理が実行されることにより、図80(a)〜図80(d)に示すように第1〜第4保存用バッファBF2〜BF5に保存された各描画データが合成されて図80(e)に示すように変動表示演出用の画像が表示されることとなる。この場合、図80(b)〜図80(d)に示すように不透明のα値が設定されたオブジェクトデータから各図柄表示部CH16〜CH18を表示するための表示対象データを作成し、その表示対象データに対して半透明のα値を設定して演出用キャラクタCH15の表示対象データへの重ね合わせを行う構成である。これにより、オブジェクトデータの本来表示すべきではない裏側の画像などがそのまま透過して見えてしまうといった事象の発生を防止しながら、半透明の状態で図柄表示部CH16〜CH18を表示することが可能となる。   As the drawing data creation process is executed, the drawing data stored in the first to fourth storage buffers BF2 to BF5 are synthesized as shown in FIGS. 80 (a) to 80 (d). As shown in 80 (e), an image for a variable display effect is displayed. In this case, as shown in FIGS. 80 (b) to 80 (d), display target data for displaying the symbol display portions CH16 to CH18 is created from the object data in which the opaque α value is set, and the display is performed. In this configuration, a semi-transparent α value is set for the target data, and the effect character CH15 is superimposed on the display target data. As a result, it is possible to display the symbol display portions CH16 to CH18 in a semi-transparent state while preventing the occurrence of an event that the image on the back side of the object data that should not be originally displayed is seen as it is. It becomes.

演出用キャラクタCH15及び各図柄表示部CH16〜CH18の描画データを個別に作成するためのバッファとして描画用バッファBF1を兼用することにより、描画データの作成に際して作成先の描画用バッファBF1を変更する必要がないため、処理設計の容易化が図られる。   Since the drawing buffer BF1 is also used as a buffer for individually creating drawing data for the effect character CH15 and the symbol display portions CH16 to CH18, it is necessary to change the drawing buffer BF1 as the creation destination when drawing data is created. Therefore, the process design can be facilitated.

演出用キャラクタCH15及び各図柄表示部CH16〜CH18の描画データを描画用バッファBF1に作成する前に、当該描画用バッファBF1の各単位エリアのα値を完全透明に対応する「0」とする構成であることにより、描画用バッファBF1への作成後の描画データにおいて演出用キャラクタCH15及び各図柄表示部CH16〜CH18を表示するための単位エリア以外の単位エリアについては後処理を要することなくα値を完全透明に対応する「0」とすることが可能となる。   A configuration in which the α value of each unit area of the rendering buffer BF1 is set to “0” corresponding to complete transparency before the rendering data CH15 and the rendering data of the symbol display portions CH16 to CH18 are created in the rendering buffer BF1. As a result, in the drawing data created in the drawing buffer BF1, the alpha value is not required for the unit areas other than the unit areas for displaying the effect character CH15 and the symbol display portions CH16 to CH18. Can be set to “0” corresponding to complete transparency.

<変動表示演出に係る構成の別形態>
・描画用バッファBF1に対する各図柄表示部CH16〜CH18の表示対象データの作成を個別に行い、それぞれに対応した表示対象データを異なる保存用バッファBF3〜BF5に保存する構成としたが、これに限定されることはなく、描画用バッファBF1に各図柄表示部CH16〜CH18の表示対象データをまとめて作成し、そのまとめて作成した表示対象データを一の保存用バッファに保存する構成としてもよい。これにより、描画用バッファの初期化処理、表示対象データの作成処理及び表示対象データの保存処理を実行する回数を少なくすることが可能となり、処理負荷を低減することが可能となる。
<Another form of configuration related to variable display effect>
Although the display target data of the symbol display units CH16 to CH18 is individually created for the drawing buffer BF1, and the display target data corresponding to each is stored in different storage buffers BF3 to BF5, the present invention is not limited to this. The display target data of the symbol display units CH16 to CH18 may be collectively created in the drawing buffer BF1, and the collectively created display target data may be stored in one storage buffer. This makes it possible to reduce the number of executions of the drawing buffer initialization process, the display target data creation process, and the display target data storage process, and the processing load can be reduced.

・第2保存用バッファBF3、第3保存用バッファBF4及び第4保存用バッファBF5のそれぞれに別保存した描画データに対して同一の半透明値データを設定する構成に限定されることはなく、設定する半透明値データを描画データ毎に異ならせてもよい。   -It is not limited to the structure which sets the same semi-transparency value data with respect to the drawing data separately stored in each of the second storage buffer BF3, the third storage buffer BF4, and the fourth storage buffer BF5, The translucent value data to be set may be different for each drawing data.

<歪み背景表示を行うための構成>
次に、歪み背景表示を行うための構成について説明する。図81(a)及び図81(b)は歪み背景表示の内容を説明するための説明図である。図82(a)〜図82(c)は歪み背景表示を行うための画像データを説明するための説明図である。
<Configuration for distortion background display>
Next, a configuration for performing distortion background display will be described. 81 (a) and 81 (b) are explanatory diagrams for explaining the contents of the distortion background display. FIG. 82A to FIG. 82C are explanatory diagrams for explaining image data for performing a distortion background display.

歪み背景表示とは、図81(a−1)に示すように歪みが生じていないと遊技者に認識されるように表示されている背景画像BGGを、図81(a−2)に示すように歪みが生じていると遊技者に認識されるように表示することである。この場合、X軸、Y軸及びZ軸のうちの2軸(具体的にはX軸及びY軸)において歪みが生じていると遊技者に認識されるように、歪み背景表示が行われる。   With the distortion background display, as shown in FIG. 81 (a-2), the background image BGG displayed so that the player recognizes that no distortion has occurred as shown in FIG. 81 (a-1). Is displayed so that the player can recognize that distortion has occurred. In this case, the distortion background display is performed so that the player can recognize that distortion has occurred in two of the X, Y, and Z axes (specifically, the X and Y axes).

背景画像BGGは、図82(a)に示すようにメモリモジュール133に予め記憶された背景用板状オブジェクトデータGSDと背景用テクスチャデータGTD1とが利用される。背景用板状オブジェクトデータGSDは、肉厚のない平面状に構成され、人などのキャラクタを表示するための肉厚を有する通常オブジェクトに比べて単位表示面当たりのポリゴン数が少ないオブジェクトデータである。そして、ワールド座標系に設定された背景用板状オブジェクトデータGSDに対して背景用テクスチャデータGTD1が適用されて背景用の描画データが作成されることにより、背景画像BGGを表示することが可能となる。   As the background image BGG, as shown in FIG. 82A, background plate-like object data GSD and background texture data GTD1 stored in advance in the memory module 133 are used. The background plate-like object data GSD is object data that is configured in a flat shape with no wall thickness and has a smaller number of polygons per unit display surface than a normal object having a wall thickness for displaying a character such as a person. . Then, the background texture data GTD1 is applied to the background plate-like object data GSD set in the world coordinate system to create the drawing data for the background, so that the background image BGG can be displayed. Become.

歪み背景表示は、背景用板状オブジェクトデータGSDをワールド座標系において図81(a−2)に示すように歪ませることで行われるのではなく、背景用テクスチャデータGTD1のデータを調整することで行われる。具体的には、背景用テクスチャデータGTD1が図81(b−1)に示すような色情報として設定されていると仮定した場合に、図81(b−2)に示すように所定の縦列の色情報の横幅が広くなるように色情報を調整することで、図81(a−2)に示すように歪みが生じていると遊技球に認識されるように背景画像BGGを表示する。このように3次元データである背景用板状オブジェクトデータGSDを歪ませるのではなく、2次元データである背景用テクスチャデータGTD1の色情報を調整することによって歪み背景表示を行う構成とすることにより、当該歪み背景表示を行う場合に調整すべきデータを2次元データに留めることが可能となり、処理負荷を低減することが可能となる。   Distorted background display is not performed by distorting the background plate-like object data GSD in the world coordinate system as shown in FIG. 81 (a-2), but by adjusting the data of the background texture data GTD1. Done. Specifically, when it is assumed that the background texture data GTD1 is set as color information as shown in FIG. 81 (b-1), a predetermined column as shown in FIG. 81 (b-2). By adjusting the color information so that the horizontal width of the color information is widened, the background image BGG is displayed so that the game ball recognizes that distortion has occurred as shown in FIG. 81 (a-2). In this way, the background plate-like object data GSD that is three-dimensional data is not distorted, but the distorted background display is performed by adjusting the color information of the background texture data GTD1 that is two-dimensional data. The data to be adjusted when the distortion background display is performed can be limited to two-dimensional data, and the processing load can be reduced.

歪み背景表示を行うための背景用テクスチャデータGTD1の色情報の調整態様は、当該背景用テクスチャデータGTD1とは別に設けられたテクスチャデータに設定されている。当該テクスチャデータとして、図82(a)に示すようにメモリモジュール133に第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3が予め記憶されている。   The color information adjustment mode of the background texture data GTD1 for displaying the distorted background is set to texture data provided separately from the background texture data GTD1. As the texture data, the first refraction texture data GTD2 and the second refraction texture data GTD3 are stored in advance in the memory module 133 as shown in FIG.

これら第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3はピクセル数が、背景用テクスチャデータGTD1のピクセル数と同一であり、各屈折用テクスチャデータGTD2,GTD3の各ピクセルと背景用テクスチャデータGTD1の各ピクセルとは1対1で対応している。背景用テクスチャデータGTD1の各ピクセルには、図82(b)に示すようにRGB各色に1対1で対応する1バイトのエリアが設定されており、屈折用テクスチャデータGTD2,GTD3にも、図82(c)に示すようにRGB各色に1対1で対応する1バイトのエリアが設定されている。つまり、各ピクセルに設定されている内容は各テクスチャデータGTD1〜GTD3で個々に相違するものの、基本的なデータ構成は背景用テクスチャデータGTD1と各屈折用テクスチャデータGTD2,GTD3とで同一となっている。   These first refraction texture data GTD2 and second refraction texture data GTD3 have the same number of pixels as the background texture data GTD1, and each refraction texture data GTD2, GTD3 and the background texture data. There is a one-to-one correspondence with each pixel of GTD1. As shown in FIG. 82B, each pixel of the background texture data GTD1 is set with a 1-byte area corresponding to each RGB color in a one-to-one correspondence. The refraction texture data GTD2 and GTD3 are also shown in FIG. As shown in FIG. 82 (c), a 1-byte area corresponding to each of the RGB colors one to one is set. That is, although the contents set for each pixel are different for each texture data GTD1 to GTD3, the basic data configuration is the same for the background texture data GTD1 and the refraction texture data GTD2 and GTD3. Yes.

各屈折用テクスチャデータGTD2,GTD3の各ピクセルに設定されているRGB各色に対応したデータ(以下、R値、G値、B値ともいう)は、色情報として利用されるのではなく、歪ませる度合の情報として利用される。具体的には、R値はX軸に歪ませる度合の情報として利用され、G値はY軸に歪ませる度合の情報として利用され、B値はZ軸に歪ませる度合の情報として利用される。但し、背景画像BGGの歪みをX軸、Y軸及びZ軸の全てに対して生じさせるのではなく、既に説明したとおりX軸及びY軸の2軸に対してのみ生じさせる。したがって、各屈折用テクスチャデータGTD2,GTD3の各ピクセルにおいてR値及びG値には歪み用のデータが設定されているが、B値は全ビットが「0」となるように一定のデータが設定されている。   Data corresponding to each RGB color (hereinafter also referred to as R value, G value, B value) set in each pixel of each refraction texture data GTD2, GTD3 is not used as color information but is distorted. Used as degree information. Specifically, the R value is used as information on the degree of distortion on the X axis, the G value is used as information on the degree of distortion on the Y axis, and the B value is used as information on the degree of distortion on the Z axis. . However, the distortion of the background image BGG is not caused for all of the X axis, the Y axis, and the Z axis, but is caused only for the two axes of the X axis and the Y axis as described above. Therefore, in each pixel of the refraction texture data GTD2 and GTD3, distortion data is set for the R value and G value, but constant data is set so that all bits are “0”. Has been.

第1屈折用テクスチャデータGTD2と第2屈折用テクスチャデータGTD3とは、背景用テクスチャデータGTD1の色情報の調整態様が相違するように各ピクセルのR値及びG値が設定されている。具体的には、第1屈折用テクスチャデータGTD2は、図81(a−2)に示すように背景画像BGGにおいて横方向の中央側が後方に凹むとともにその左右両側が前方に膨らんでいると遊技者に認識されるようにするための色情報の調整態様が設定されているのに対して、第2屈折用テクスチャデータGTD3は背景画像BGGにおいて横方向の中央側が前方に膨らむとともにその左右両側が後方に凹んでいると遊技者に認識されるようにするための色情報の調整態様が設定されている。当該構成であることにより、背景用テクスチャデータGTD1への適用対象の屈折用テクスチャデータとして第1屈折用テクスチャデータGTD2と第2屈折用テクスチャデータGTD3とを交互に切り換えることにより、背景画像BGGが一定のパターンで前後に波打っていると遊技者に認識させるような表示を行うことが可能となる。   The first refraction texture data GTD2 and the second refraction texture data GTD3 have the R value and G value of each pixel set so that the color information adjustment mode of the background texture data GTD1 is different. Specifically, the first refraction texture data GTD2 indicates that, as shown in FIG. 81 (a-2), in the background image BGG, the horizontal center side is recessed rearward, and the left and right sides swell forward. The second refraction texture data GTD3 is swelled forward in the horizontal direction in the background image BGG, and the left and right sides are backward in the background image BGG. An adjustment mode of color information is set so that the player can recognize that it is recessed. With this configuration, the background image BGG is constant by alternately switching between the first refraction texture data GTD2 and the second refraction texture data GTD3 as the refraction texture data to be applied to the background texture data GTD1. It is possible to perform display so that the player can recognize that the pattern is wavy back and forth.

以下、歪み背景表示を行うための具体的な処理構成を説明する。図83は、表示CPU131にて実行される歪み背景表示用の演算処理を示すフローチャートである。歪み背景表示用の演算処理は、タスク処理(図42)におけるステップS2206の背景用演算処理にて実行される。当該歪み背景表示用の演算処理は、現状設定されている実行対象テーブルにおいて歪み背景表示についての情報が設定されている場合に起動される。   Hereinafter, a specific processing configuration for performing the distortion background display will be described. FIG. 83 is a flowchart showing the calculation process for distortion background display executed by the display CPU 131. The distortion background display calculation process is executed in the background calculation process of step S2206 in the task process (FIG. 42). The calculation process for distortion background display is activated when information on distortion background display is set in the currently set execution target table.

歪み背景表示の開始タイミングである場合(ステップS3901:YES)、歪み背景表示を行うための画像データのメモリモジュール133における各アドレスを把握する(ステップS3902)。当該画像データには、背景用板状オブジェクトデータGSD、背景用テクスチャデータGTD1、第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3が含まれる。その後、ステップS3903にて、歪み背景表示を開始すべきことをVDP135に認識させるための歪み背景表示の開始指定情報を表示CPU131のレジスタに記憶する。   When it is the start timing of the distorted background display (step S3901: YES), each address in the memory module 133 of the image data for performing the distorted background display is grasped (step S3902). The image data includes background plate-like object data GSD, background texture data GTD1, first refraction texture data GTD2, and second refraction texture data GTD3. Thereafter, in step S3903, distortion start display start information for causing the VDP 135 to recognize that distortion background display should be started is stored in the register of the display CPU 131.

ステップS3901にて否定判定をした場合又はステップS3903の処理を実行した場合、ステップS3904及びステップS3905にて、現状設定されている実行対象テーブルに基づき、今回の使用対象のデータとして背景用板状オブジェクトデータGSD及び背景用テクスチャデータGTD1を把握する。そして、これら背景用板状オブジェクトデータGSD及び背景用テクスチャデータGTD1について、パラメータ情報を演算して導き出し、その導き出したパラメータ情報を、ワークRAM132においてこれら画像データGSD,GTD1に対応させて確保されたエリアに書き込む(ステップS3906)。この場合、背景用板状オブジェクトデータGSDのワールド座標系における形状データ(すなわち各ピクセル相互の相対的な位置)は歪み背景表示が行われる期間において一定とされる。   If a negative determination is made in step S3901 or if the process of step S3903 is executed, a background plate-like object is used as the current use target data in step S3904 and step S3905 based on the currently set execution target table. Data GSD and background texture data GTD1 are grasped. Then, parameter information is calculated and derived for the background plate-like object data GSD and background texture data GTD1, and the derived parameter information is secured in the work RAM 132 in correspondence with the image data GSD and GTD1. (Step S3906). In this case, the shape data in the world coordinate system of the background plate-like object data GSD (that is, the relative position between the pixels) is constant during the period in which the distorted background display is performed.

その後、ステップS3907にて、現状設定されている実行対象テーブルに基づき今回の更新タイミングが第1歪み表示期間であるか否かを判定する。第1歪み表示期間は屈折用テクスチャデータとして第1屈折用テクスチャデータGTD2を使用する期間であり、第2歪み表示期間は屈折用テクスチャデータとして第2屈折用テクスチャデータGTD3を使用する期間である。第1歪み表示期間である場合(ステップS3907:YES)、ステップS3908にて第1屈折用テクスチャデータGTD2を把握し、第2歪み表示期間である場合(ステップS3907:NO)、ステップS3909にて第2屈折用テクスチャデータGTD3を把握する。ステップS3908又はステップS3909の処理を実行した場合、ステップS3910にて、歪み背景表示の実行期間であることをVDP135に認識させるための歪み背景表示指定情報を表示CPU131のレジスタに記憶する。   Thereafter, in step S3907, it is determined whether or not the current update timing is the first distortion display period based on the currently set execution target table. The first distortion display period is a period in which the first refraction texture data GTD2 is used as the refraction texture data, and the second distortion display period is a period in which the second refraction texture data GTD3 is used as the refraction texture data. If it is the first distortion display period (step S3907: YES), the first refraction texture data GTD2 is grasped in step S3908. If it is the second distortion display period (step S3907: NO), the first distortion display period is determined in step S3909. The birefringence texture data GTD3 is grasped. When the process of step S3908 or step S3909 is executed, in step S3910, the distortion background display designation information for causing the VDP 135 to recognize that it is the execution period of the distortion background display is stored in the register of the display CPU 131.

上記のように歪み背景表示用の演算処理が実行された場合、その後の描画リスト出力処理(ステップS609)においてVDP135に送信される描画リストには、背景用板状オブジェクトデータGSD及び背景用テクスチャデータGTD1の使用指示の情報が設定されるとともに、第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3のうち今回の使用対象となっている側の使用指示の情報が設定される。また、当該描画リストには、これら各画像データに適用するパラメータ情報が設定される。また、当該描画リストには歪み背景表示指定情報が設定され、さらに歪み背景表示の開始タイミングにおいては歪み背景表示の開始指定情報が設定される。   When the distortion background display calculation processing is executed as described above, the drawing list output processing (step S609) in the subsequent drawing list transmitted to the VDP 135 includes the background plate-like object data GSD and the background texture data. Information on the use instruction of GTD1 is set, and information on the use instruction on the side to be used this time among the first refraction texture data GTD2 and the second refraction texture data GTD3 is set. In addition, parameter information to be applied to each of these image data is set in the drawing list. In addition, distortion background display designation information is set in the drawing list, and further, distortion background display start designation information is set at a distortion background display start timing.

次に、VDP135にて実行される歪み背景表示用の設定処理を、図84のフローチャートを参照しながら説明する。歪み背景表示用の設定処理は、描画処理(図44)のステップS2302にて実行される背景用の設定処理の一部の処理として実行される。また、描画リストにおいて歪み背景表示指定情報が設定されている場合に、歪み背景表示用の設定処理が実行される。   Next, the setting process for distortion background display executed by the VDP 135 will be described with reference to the flowchart of FIG. The distortion background display setting process is executed as a part of the background setting process executed in step S2302 of the drawing process (FIG. 44). In addition, when distortion background display designation information is set in the drawing list, a setting process for distortion background display is executed.

今回の描画リストに歪み背景表示の開始指定情報が設定されている場合(ステップS4001:YES)、当該描画リストに設定されているアドレスの情報から、メモリモジュール133において今回の表示対象となっている各種画像データが記憶されているエリアのアドレスを把握し、その把握結果に基づきメモリモジュール133から各種画像データをVRAM134の展開用バッファ141に読み出す(ステップS4002)。当該画像データには、背景用板状オブジェクトデータGSD、背景用テクスチャデータGTD1、第1屈折用テクスチャデータGTD2及び第2屈折用テクスチャデータGTD3が含まれる。   When the start designation information for distortion background display is set in the current drawing list (step S4001: YES), the memory module 133 is the current display target based on the address information set in the drawing list. The address of the area where the various image data is stored is grasped, and based on the grasp result, the various image data is read from the memory module 133 to the development buffer 141 of the VRAM 134 (step S4002). The image data includes background plate-like object data GSD, background texture data GTD1, first refraction texture data GTD2, and second refraction texture data GTD3.

ステップS4001にて否定判定をした場合、又はステップS4002の処理を実行した場合、ステップS4003及びステップS4004にて、今回の描画リストに基づき背景用板状オブジェクトデータGTD1及び背景用テクスチャデータGTD1を表示対象のデータとして把握する。また、ステップS4005にて、今回の描画リストに基づき今回の歪み表示期間に対応する屈折用テクスチャデータGTD2,GTD3を表示対象のデータとして把握する。その後、ステップS4006にて、上記各種画像データのパラメータ情報を把握する。   If a negative determination is made in step S4001 or if the process of step S4002 is executed, in step S4003 and step S4004, the background plate-like object data GTD1 and background texture data GTD1 are displayed based on the current drawing list. As data. In step S4005, based on the current drawing list, the refraction texture data GTD2 and GTD3 corresponding to the current distortion display period are grasped as display target data. Thereafter, in step S4006, the parameter information of the various image data is grasped.

続くステップS4007では、今回の使用対象となっている屈折用テクスチャデータGTD2,GTD3を背景用テクスチャデータGTD1に適用するための屈折適用処理を実行する。   In the subsequent step S4007, a refraction application process for applying the refraction texture data GTD2 and GTD3, which are the current use targets, to the background texture data GTD1 is executed.

屈折適用処理では、図85のフローチャートに示すように、まず背景用テクスチャデータGTD1をVRAM134の展開用バッファ141に設けられた背景用別保存エリア141aに別保存する(ステップS4101)。これにより、展開用バッファGTD1に背景用テクスチャデータGTD1が既に読み出されている状況において当該背景用テクスチャデータGTD1と同一のデータが背景用別保存エリア141aに記憶保持されることとなる。なお、以下の説明では、メモリモジュール133からVRAM134の展開用バッファ141に読み出された背景用テクスチャデータGTD1を描画対象の背景用テクスチャデータGTD1といい、背景用別保存エリア141aに書き込まれた背景用テクスチャデータGTD1を別保存対象の背景用テクスチャデータGTD1という。その後、ステップS4102にて、VDP135のレジスタ153に設けられた適用カウンタに、背景用テクスチャデータGTD1の総ピクセル数と同一数をセットする。   In the refraction application process, as shown in the flowchart of FIG. 85, first, the background texture data GTD1 is separately stored in the background storage area 141a provided in the expansion buffer 141 of the VRAM 134 (step S4101). As a result, in a situation where the background texture data GTD1 has already been read out in the expansion buffer GTD1, the same data as the background texture data GTD1 is stored and held in the background separate storage area 141a. In the following description, the background texture data GTD1 read from the memory module 133 to the expansion buffer 141 of the VRAM 134 is referred to as background texture data GTD1 to be drawn, and the background written in the background storage area 141a. The texture data GTD1 for background is referred to as background texture data GTD1 to be stored separately. Thereafter, in step S4102, the application counter provided in the register 153 of the VDP 135 is set to the same number as the total number of pixels of the background texture data GTD1.

続くステップS4103では、今回の使用対象となっている屈折用テクスチャデータGTD2,GTD3において現状の適用カウンタに対応する一のピクセルからR値及びG値を抽出する。そして、ステップS4104にて、それら抽出したR値及びG値を利用した屈折用演算処理を実行する。   In the subsequent step S4103, the R value and the G value are extracted from one pixel corresponding to the current application counter in the refraction texture data GTD2 and GTD3 to be used this time. In step S4104, a refraction calculation process using the extracted R value and G value is executed.

屈折用演算処理では、背景用テクスチャデータGTD1において現状の適用カウンタの値に対応したピクセルを基準ピクセルとした場合に基準ピクセルから連続する何個分のピクセルをブレンド処理の実行対象とするかを決定付けるデータと、それらブレンド処理の実行対象となった各ピクセルを基準ピクセルからの距離との関係でどのような重み付けでブレンド処理を実行するかを決定付けるデータとを、ステップS4103にて抽出したR値及びG値を利用して所定の演算式から算出する。この場合、ブレンド処理の実行対象となるピクセルは、基準ピクセルに対して1軸上(具体的には図81(a)においてX軸)に並ぶピクセルに限られ、他の1軸上(具体的には図81(a)においてZ軸)に並ぶピクセルは含まれない。当該屈折用演算処理は、VDP135において専用回路として設けられた屈折用演算部154により行われる。また、既に説明したとおり、R値はX軸に歪ませる度合の情報として利用されるとともにG値はY軸に歪ませる度合の情報として利用され、R値及びG値のそれぞれは1バイトのデータ量となっているため、0〜255の値を取り得る。屈折用演算部154では、Y軸に歪ませる度合の情報に対応するG値に基づきブレンド処理の実行対象として含めるピクセルを特定するための対象ピクセルデータを導出し、X軸に歪ませる度合の情報に対応するR値に基づき基準ピクセルからの距離との関係でのブレンド処理の重み付けを特定するための重み付けデータを導出する。   In the refraction calculation process, when the pixel corresponding to the value of the current application counter in the background texture data GTD1 is set as the reference pixel, the number of continuous pixels from the reference pixel is determined as a blend process execution target. The R data extracted in step S4103 is the data to be attached and the data for determining how to perform the blending process for each pixel subjected to the blending process in relation to the distance from the reference pixel. It is calculated from a predetermined arithmetic expression using the value and the G value. In this case, the pixels to be subjected to the blending process are limited to pixels arranged on one axis with respect to the reference pixel (specifically, the X axis in FIG. 81A), and on the other one axis (specifically Does not include pixels arranged on the Z axis in FIG. The refraction calculation process is performed by a refraction calculation unit 154 provided as a dedicated circuit in the VDP 135. As described above, the R value is used as information on the degree of distortion on the X axis and the G value is used as information on the degree of distortion on the Y axis. Each of the R value and the G value is 1-byte data. Since it is a quantity, it can take a value of 0-255. The refraction calculating unit 154 derives target pixel data for specifying a pixel to be included as an execution target of the blending process based on the G value corresponding to the information on the degree of distortion to the Y axis, and information on the degree of distortion to the X axis. The weighting data for specifying the weighting of the blending process in relation to the distance from the reference pixel is derived based on the R value corresponding to.

ステップS4104にて屈折用演算処理を実行した後は、ステップS4105にて、ステップS4104の屈折用演算処理の演算結果に対応したピクセルの色情報を、上記対象ピクセルデータを利用して、別保存対象の背景用テクスチャデータGTD1から抽出する。そして、それら各ピクセルの色情報に対して上記重み付けデータに対応する各ブレンド値を積算し、積算後の各値の和を算出する(ステップS4106)。この場合、当該ブレンド処理は、各ピクセルのRGB各色について個別に行われる。その後、ステップS4106にて算出したRGBの各値を、描画対象の背景用テクスチャデータGTD1において現状の適用カウンタの値に対応するピクセルに上書きする。これにより、現状の適用カウンタの値に対応する描画対象の背景用テクスチャデータGTD1のピクセルについて、使用対象の屈折用テクスチャデータGTD2,GTD3に対応する色情報の調整処理が実行される。   After executing the refraction calculation process in step S4104, in step S4105, the pixel color information corresponding to the calculation result of the refraction calculation process in step S4104 is stored separately using the target pixel data. Are extracted from the background texture data GTD1. Then, the blend values corresponding to the weighting data are integrated with the color information of each pixel, and the sum of the respective values after the integration is calculated (step S4106). In this case, the blend process is performed individually for each RGB color of each pixel. Thereafter, the RGB values calculated in step S4106 are overwritten on the pixels corresponding to the current value of the application counter in the background texture data GTD1 to be drawn. Thus, the color information adjustment processing corresponding to the refraction texture data GTD2 and GTD3 to be used is executed for the pixels of the background texture data GTD1 to be drawn corresponding to the current application counter value.

その後、ステップS4108にてレジスタ153の適用カウンタの値を1減算し、その1減算後の適用カウンタの値が「0」となっているか否かを判定する(ステップS4109)。適用カウンタの値が1以上である場合(ステップS4109:NO)、その更新後の適用カウンタの値に対応したピクセルについてステップS4103〜ステップS4107の処理を実行する。   Thereafter, in step S4108, 1 is subtracted from the value of the application counter in the register 153, and it is determined whether or not the value of the application counter after the subtraction is “0” (step S4109). When the value of the application counter is 1 or more (step S4109: NO), the processing of steps S4103 to S4107 is executed for the pixel corresponding to the updated application counter value.

歪み背景表示用の設定処理の説明に戻り、ステップS4007にて屈折適用処理を実行した後は、ステップS4008にて、ステップS4003〜ステップS4007の処理結果に対応した内容に従ってワールド座標系への設定処理を実行する。   Returning to the description of the setting process for displaying the distorted background, after executing the refraction applying process in step S4007, in step S4008, the setting process to the world coordinate system according to the contents corresponding to the processing results in steps S4003 to S4007. Execute.

上記のように歪み背景表示用の設定処理が実行されることにより、ワールド座標系に背景用板状オブジェクトデータGSDが配置されるとともに、表示CPU131において演算により導出された各種パラメータ情報が当該背景用板状オブジェクトデータGSDに適用される。また、今回の使用対象となっている屈折用テクスチャデータGTD2,GTD3を利用して色情報の調整処理が実行された後の背景用テクスチャデータGTD1が、背景用板状オブジェクトデータGSDに適用される。これにより、表示面Pでは、X軸及びY軸に歪みが生じていると遊技者に認識されるように背景画像BGGが表示される。   By executing the setting process for distorted background display as described above, background plate-like object data GSD is arranged in the world coordinate system, and various parameter information derived by calculation in the display CPU 131 is used for the background. This is applied to the plate-like object data GSD. Further, the background texture data GTD1 after the color information adjustment process is executed using the refraction texture data GTD2 and GTD3 which are the current use objects is applied to the background plate-like object data GSD. . Thereby, on the display surface P, the background image BGG is displayed so that the player can recognize that the X axis and the Y axis are distorted.

以上のように屈折を適用するためのデータがテクスチャデータとして設けられていることにより、テクスチャデータのデータ構成をそのまま利用して画像に対して屈折効果を生じさせることが可能となる。この場合、屈折を生じさせるための専用のデータ構成となったデータをメモリモジュール133に記憶させる必要がない点で、他のテクスチャデータを読み出す場合と同様の扱いで屈折を適用するためのデータをメモリモジュール133から読み出すことが可能となる。例えば、屈折を生じさせるための専用のデータ構成となっている場合には、展開用バッファ141にデータを展開するための処理内容がテクスチャデータとは異なるものとなるが、屈折を適用するためのデータがテクスチャデータとして設けられていることにより、当該展開するための処理内容を通常のテクスチャデータの場合と同一のものとすることが可能となる。よって、処理構成の簡素化が図られる。   Since the data for applying refraction is provided as texture data as described above, it is possible to produce a refraction effect on an image using the data structure of the texture data as it is. In this case, data for applying refraction is handled in the same manner as when reading other texture data in that it is not necessary to store data having a dedicated data structure for causing refraction in the memory module 133. Reading from the memory module 133 is possible. For example, in the case of a dedicated data configuration for causing refraction, the processing content for developing data in the development buffer 141 is different from that for texture data, but for applying refraction. By providing the data as texture data, it is possible to make the processing content for the development the same as in the case of normal texture data. Therefore, the processing configuration can be simplified.

テクスチャデータにはRGB各色に対応したデータが設定されている構成において、屈折用演算部154はそれら全てのデータを利用するのではなく一部のデータとしてR値及びG値のみを利用して背景用テクスチャデータGTD1の色情報の調整処理を実行する。これにより、RGBの各データを利用する構成に比べて処理を簡素化することが可能となり、背景用テクスチャデータGTD1の色情報の調整処理に要する時間を短縮化することが可能となる。   In a configuration in which data corresponding to each color of RGB is set in the texture data, the refraction calculation unit 154 does not use all the data but uses only the R value and the G value as a part of the background. The color information adjustment process for the texture data GTD1 is executed. As a result, the processing can be simplified as compared with the configuration using each RGB data, and the time required for the color information adjustment processing of the background texture data GTD1 can be shortened.

3次元データである背景用板状オブジェクトデータGSDを歪ませるのではなく、2次元データである背景用テクスチャデータGTD1の色情報を調整することによって歪み背景表示を行う構成とすることにより、当該歪み背景表示を行う場合に調整すべきデータを2次元データに留めることが可能となり、処理負荷を低減することが可能となる。   Instead of distorting the background plate-like object data GSD that is three-dimensional data, the distortion is displayed by adjusting the color information of the background texture data GTD1 that is two-dimensional data. Data to be adjusted when performing background display can be limited to two-dimensional data, and the processing load can be reduced.

<歪み背景表示に係る構成の別形態>
・屈折用テクスチャデータGTD2,GTD3を利用して背景用テクスチャデータGTD1の色情報を調整する構成に代えて、屈折用テクスチャデータGTD2,GTD3を利用して背景用板状オブジェクトデータGSDの各ピクセルの座標データを調整することにより当該背景用板状オブジェクトデータGSDを歪ませ、その結果として歪み背景表示を行う構成としてもよい。
<Another Form of Configuration Related to Distorted Background Display>
Instead of using the refraction texture data GTD2 and GTD3 to adjust the color information of the background texture data GTD1, the refraction texture data GTD2 and GTD3 are used to adjust the pixel information of the background plate-like object data GSD. The background plate-like object data GSD may be distorted by adjusting the coordinate data, and as a result, a distorted background display may be performed.

・背景用テクスチャデータGTD1に対して屈折用テクスチャデータGTD2,GTD3が常に適用される構成に代えて、屈折用テクスチャデータGTD2,GTD3を適用することなく背景用テクスチャデータGTD1がそのまま描画対象となる期間が歪み背景表示期間よりも前又は後に設定されている構成としてもよい。この場合、背景画像BGGが歪んでいることを遊技者に認識させ易くなる。   A period in which the background texture data GTD1 is directly rendered without applying the refraction texture data GTD2 and GTD3, instead of the configuration in which the refraction texture data GTD2 and GTD3 are always applied to the background texture data GTD1. May be set before or after the distortion background display period. In this case, the player can easily recognize that the background image BGG is distorted.

・テクスチャデータのR値、G値及びB値のうち2個の値を利用して画像を屈折させるためのパラメータ情報を導出する構成に代えて、1個の値又は全ての値を利用して当該パラメータ情報を導出する構成としてもよい。   -Instead of a configuration for deriving parameter information for refracting an image using two values of R value, G value, and B value of texture data, using one value or all values The parameter information may be derived.

・テクスチャデータを利用して画像を屈折するためのパラメータ情報を導出する構成に代えて、テクスチャデータを利用して画像の透明値といった他のパラメータ情報を導出する構成としてもよい。   Instead of a configuration for deriving parameter information for refracting an image using texture data, another parameter information such as an image transparency value may be derived using texture data.

<他の実施形態>
なお、上述した実施形態の記載内容に限定されず、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能である。例えば以下のように変更してもよい。ちなみに、以下の別形態の構成を、上記実施形態の構成に対して、個別に適用してもよく、組合せて適用してもよい。
<Other embodiments>
In addition, it is not limited to the description content of embodiment mentioned above, A various deformation | transformation improvement is possible within the range which does not deviate from the meaning of this invention. For example, you may change as follows. Incidentally, the configuration of another embodiment described below may be applied individually or in combination to the configuration of the above embodiment.

(1)音光側MPU62が表示CPU72に演出の実行指示をする場合、第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなるコマンドによって第2段階の演出内容を指示する構成としたが、第2段階の演出の実行有無が指示される構成としてもよく、演出内容が指示される場合と第2段階の演出の実行有無が指示される場合とが存在している構成としてもよい。   (1) When the sound light side MPU 62 instructs the display CPU 72 to execute an effect, the second stage effect content is instructed by a command composed of the first command data CD1, the second command data CD2, and the third command data CD3. However, the configuration may be such that the presence or absence of the execution of the second stage is instructed, and there are cases where the contents of the presentation are instructed and the execution or non-execution of the second stage is instructed. Also good.

(2)第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる一のコマンドが、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応させて送信される構成に代えて、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応するコマンドデータを含む一のコマンドが送信される構成としてもよい。具体的には、第1段階の演出内容に対応した一のコマンドデータと、各第2段階の内容のそれぞれに対応した各コマンドデータとを含むコマンドが送信される構成としてもよい。この場合であっても、各第2段階の内容のそれぞれがバイト単位で区別されていることが好ましい。   (2) One command composed of the first command data CD1, the second command data CD2, and the third command data CD3 is transmitted in correspondence with the contents of the plurality of types of second stages included in one production. Instead of the configuration, one command including command data corresponding to each of a plurality of types of contents of the second stage included in one production may be transmitted. Specifically, a command including one command data corresponding to the contents of the first stage and each command data corresponding to the contents of each second stage may be transmitted. Even in this case, it is preferable that the contents of each second stage are distinguished in units of bytes.

(3)第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる一のコマンドが、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応させて送信される構成において、終了コマンドが送信されるまでに送信された各コマンドの第1コマンドデータCD1が一致しない場合には表示CPU72から音光側MPU62にコマンドの再送信が要求され、当該再要求があった場合には音光側MPU62から表示CPU72に同一のコマンドが再度送信される構成としてもよい。これにより、電気的なノイズによりコマンドが書き換えられてしまった場合であってもコマンドを再送信することで、演出や報知の実行を正確に行うことが可能となる。   (3) One command composed of the first command data CD1, the second command data CD2, and the third command data CD3 is transmitted in correspondence with the contents of the plurality of types of second stages included in one production. In the configuration, if the first command data CD1 of each command transmitted before the end command is transmitted does not match, the display CPU 72 requests the sound-side MPU 62 to retransmit the command, and there is the re-request. In this case, the same command may be transmitted again from the sound light side MPU 62 to the display CPU 72. As a result, even if the command is rewritten due to electrical noise, it is possible to accurately perform the performance and notification by retransmitting the command.

(4)第1コマンドデータCD1、第2コマンドデータCD2及び第3コマンドデータCD3からなる一のコマンドが、一の演出に含まれる複数種類の第2段階の内容のそれぞれに対応させて送信される構成において、一の演出に対応した複数種類のコマンドが送信される前に開始コマンドが送信される構成としてもよい。これにより、一の演出に対応したコマンドが送信されている状況であるか否かを表示CPU72において明確に把握することが可能となる。   (4) One command composed of the first command data CD1, the second command data CD2, and the third command data CD3 is transmitted corresponding to each of the contents of the plurality of types of second stages included in one presentation. In the configuration, a start command may be transmitted before a plurality of types of commands corresponding to one effect are transmitted. This makes it possible for the display CPU 72 to clearly grasp whether or not the command corresponding to one effect is being transmitted.

(5)タスク処理(図19)に含まれるステップS906の背景用演算処理、ステップS909の演出用演算処理及びステップS912の図柄用演算処理の実行途中であっても、V割込み処理(図15)の新たな処理回が開始され得る構成としてもよい。この場合、V割込み処理の次回の処理回において中断された演算処理の途中からタスク処理が再開される構成としてもよく、中断された演算処理の最初からタスク処理が再開される構成としてもよい。かかる構成によれば、V割込み処理の新たな処理回を早期に開始することが可能となる。   (5) Even during the execution of the background calculation process in step S906, the effect calculation process in step S909, and the symbol calculation process in step S912 included in the task process (FIG. 19), the V interrupt process (FIG. 15) The new processing times may be started. In this case, the task processing may be restarted from the middle of the arithmetic processing interrupted in the next processing time of the V interrupt processing, or the task processing may be restarted from the beginning of the interrupted arithmetic processing. According to this configuration, it is possible to start a new processing time for the V interrupt processing at an early stage.

(6)表示CPU72において報知用の実行対象テーブルが実行対象として読み出されている場合には、タスク処理(図19)の実行途中でV割込み処理(図15)の新たな処理回が開始されたとしても、次回のタスク処理の実行回では中断した途中から処理を再開するのではなく、実行対象テーブルにおける新たなポインタ情報に対応した情報を利用してタスク処理を実行する構成としてもよい。これにより、報知の内容の進行を優先することが可能となる。   (6) If the execution target table for notification is read as the execution target in the display CPU 72, a new processing time of the V interrupt processing (FIG. 15) is started during the execution of the task processing (FIG. 19). Even in such a case, the task process may be executed using information corresponding to the new pointer information in the execution target table, instead of resuming the process in the middle of the interruption in the next task process execution. Thereby, priority can be given to the progress of the content of notification.

(7)タスク処理(図19)の実行途中でV割込み処理(図15)の新たな処理回が開始されるとともに次回のタスク処理の実行回において中断した途中から処理が再開される場合には、表示CPU72から音光側MPU62に遅延コマンドが送信されることで、音光側MPU62において制御パターンテーブルのポインタ情報の調整が行われる構成としたが、当該調整が行われない構成としてもよい。   (7) In the case where a new processing time of the V interrupt processing (FIG. 15) is started during the execution of the task processing (FIG. 19) and the processing is resumed from the middle of the interruption in the next execution time of the task processing. The display CPU 72 is configured to adjust the pointer information in the control pattern table in the sound light side MPU 62 by transmitting a delay command to the sound light side MPU 62. However, the adjustment may not be performed.

(8)上記第2の実施形態では、カメラ(視点)がワールド座標系に配置される画像データ毎に個別に設定される構成としたが、これに代えて、ワールド座標系に配置される全画像データに対して単一のカメラが共通して設定される構成としてもよい。   (8) In the second embodiment, the camera (viewpoint) is individually set for each image data arranged in the world coordinate system. Instead, all cameras arranged in the world coordinate system are used. A single camera may be commonly set for image data.

(9)上記第2の実施形態では、ワールド座標系に配置された画像データは、背景画像、演出画像及び図柄画像の単位で投影される構成としたが、背景画像及び演出画像の単位でまとめて投影される構成としてもよく、演出画像及び図柄画像の単位でまとめて投影される構成としてもよく、全てがまとめて投影される構成としてもよい。   (9) In the second embodiment, the image data arranged in the world coordinate system is projected in units of the background image, the effect image, and the design image. May be configured to be projected together, may be configured to be projected together in units of effect images and design images, or may be configured to be projected all together.

(10)上記第2の実施形態において、色情報の設定処理(ステップS2309)を行う場合に、投影される面のみにテクスチャの貼り付けといった色情報の設定を行う構成としてもよい。この場合、レンダリングの処理負荷を低減させることができる。また、これに代えて、投影前にテクスチャマッピングといった色情報の設定を行うのではなく、投影後にテクスチャマッピングといった色情報の設定を行う構成としてもよい。この場合、投影に際して、投影平面を構成する各ピクセルの座標情報を記憶しておくようにして、その座標情報を元にテクスチャマッピングといった色情報の設定を行うようにすればよい。   (10) In the second embodiment, when the color information setting process (step S2309) is performed, the color information may be set such that the texture is pasted only on the projected surface. In this case, the rendering processing load can be reduced. Alternatively, instead of setting color information such as texture mapping before projection, color information such as texture mapping may be set after projection. In this case, at the time of projection, coordinate information of each pixel constituting the projection plane may be stored, and color information such as texture mapping may be set based on the coordinate information.

(11)主制御装置50から送信されるコマンドに基づいて、音声発光制御装置60により表示制御装置90が制御される構成に代えて、主制御装置50から送信されるコマンドに基づいて、表示制御装置90が音声発光制御装置60を制御する構成としてもよい。また、音声発光制御装置60と表示制御装置90とが別々に設けられた構成に代えて、両制御装置が一の制御装置として設けられた構成としてもよく、それら両制御装置のうち一方の機能が主制御装置50に集約されていてもよく、それら両制御装置の両機能が主制御装置50に集約されていてもよい。また、主制御装置50から音声発光制御装置60に送信されるコマンドの構成や、音声発光制御装置60から表示制御装置90に送信されるコマンドの構成も任意である。   (11) Display control based on a command transmitted from the main control device 50 instead of a configuration in which the display control device 90 is controlled by the sound emission control device 60 based on a command transmitted from the main control device 50 The device 90 may be configured to control the sound emission control device 60. In addition, instead of the configuration in which the sound emission control device 60 and the display control device 90 are separately provided, the two control devices may be provided as one control device, and one of the two control devices has a function. May be integrated into the main controller 50, and both functions of these two controllers may be integrated into the main controller 50. The configuration of the command transmitted from the main control device 50 to the sound emission control device 60 and the configuration of the command transmitted from the sound emission control device 60 to the display control device 90 are also arbitrary.

(12)上記各実施形態とは異なる他のタイプのパチンコ機等、例えば特別装置の特定領域に遊技球が入ると電動役物が所定回数開放するパチンコ機や、特別装置の特定領域に遊技球が入ると権利が発生して大当たりとなるパチンコ機、他の役物を備えたパチンコ機、アレンジボール機、雀球等の遊技機にも、本発明を適用できる。   (12) Other types of pachinko machines different from the above-described embodiments, such as pachinko machines that release a predetermined number of times when a game ball enters a specific area of a special device, or game balls in a specific area of a special device The present invention can also be applied to a pachinko machine that generates a right if a player enters, a pachinko machine equipped with other objects, an arrangement ball machine, a sparrow ball, and other gaming machines.

また、弾球式でない遊技機、例えば、複数種の図柄が周方向に付された複数のリールを備え、メダルの投入及びスタートレバーの操作によりリールの回転を開始し、ストップスイッチが操作されるか所定時間が経過することでリールが停止した後に、表示窓から視認できる有効ライン上に特定図柄又は特定図柄の組合せが成立していた場合にはメダルの払い出し等といった特典を遊技者に付与するスロットマシンにも本発明を適用できる。   Also, a non-ball-type gaming machine, for example, a plurality of reels with a plurality of types of symbols attached in the circumferential direction, starts rotation of the reel by inserting a medal and operating a start lever, and a stop switch is operated. If a specific symbol or a combination of specific symbols is established on the active line visible from the display window after the reel has stopped after a predetermined time has passed, a privilege such as paying out medals is given to the player The present invention can also be applied to a slot machine.

また、外枠に開閉可能に支持された遊技機本体に貯留部及び取込装置を備え、貯留部に貯留されている所定数の遊技球が取込装置により取り込まれた後にスタートレバーが操作されることによりリールの回転を開始する、パチンコ機とスロットマシンとが融合された遊技機にも、本発明を適用できる。   In addition, the gaming machine main body that is supported by the outer frame so as to be openable and closable is provided with a storage unit and a take-in device. Thus, the present invention can also be applied to a gaming machine in which a pachinko machine and a slot machine are fused, which starts rotating the reel.

<上記各実施形態から抽出される発明群について>
以下、上述した各実施形態から抽出される発明群の特徴について、必要に応じて効果等を示しつつ説明する。なお以下においては、理解の容易のため、上記各実施形態において対応する構成を括弧書き等で適宜示すが、この括弧書き等で示した具体的構成に限定されるものではない。
<Invention Group Extracted from Each Embodiment>
Hereinafter, the characteristics of the invention group extracted from each of the above-described embodiments will be described while showing effects and the like as necessary. In the following, for easy understanding, the corresponding configuration in each of the above embodiments is appropriately shown in parentheses, but is not limited to the specific configuration shown in parentheses.

<特徴A群>
特徴A1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、前記生成データを生成するために用いられる制御情報(座標データ)を導出する情報導出手段(表示CPU131におけるステップS2807〜ステップS2815の処理を実行する機能)を備え、
当該情報導出手段は、
導出用記憶手段(座標演算用エリア169)を導出前状態に設定する導出前設定手段(表示CPU131におけるステップS2808及びステップS2809の処理を実行する機能)と、
前記導出前状態に設定された前記導出用記憶手段を利用して前記制御情報を導出する導出実行手段(表示CPU131におけるステップS2810の処理を実行する機能)と、
を備え、
前記導出前設定手段による前記導出前状態への設定は、一の画像の更新タイミングにおける前記生成データを生成するために複数回実行され得る構成であり、
前記導出実行手段は、前記導出前設定手段により前記導出前状態の設定が行われた後であって当該導出前状態の設定が新たに行われる前に、複数種類の個別画像(集合単位キャラクタCHG1〜CHG5)に対応した前記制御情報を導出する複数対応導出手段(集合用骨格データFRD2についての座標データを導出する場合における表示CPU131のステップS2810の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature A group>
Feature A1. Display means (symbol display device 41) having a display unit (display surface P);
Display control means (VDP135) for displaying an image on the display unit using generated data (drawing data) generated by data generation means (display CPU 131, geometry calculation unit 151 and rendering unit 152);
With
The data generating means includes information deriving means (function for executing the processing of steps S2807 to S2815 in the display CPU 131) for deriving control information (coordinate data) used for generating the generated data.
The information deriving means is
Pre-derivation setting means (function for executing the processing of steps S2808 and S2809 in the display CPU 131) for setting the derivation storage means (coordinate calculation area 169) to the pre-derivation state;
Derivation execution means (function for executing the processing of step S2810 in the display CPU 131) for deriving the control information using the derivation storage means set in the pre-derivation state;
With
The setting to the pre-derivation state by the pre-derivation setting unit is a configuration that can be executed a plurality of times to generate the generation data at the update timing of one image,
The derivation execution unit is configured to set a plurality of types of individual images (set unit character CHG1) after the setting of the pre-derivation state is performed by the pre-derivation setting unit and before the setting of the pre-derivation state is newly performed. -CHG5) is provided with a plurality of correspondence deriving means for deriving the control information (function for executing the processing of step S2810 of the display CPU 131 when deriving coordinate data for the collection skeleton data FRD2). A gaming machine.

特徴A1によれば、制御情報を利用して画像表示用の生成データを生成することにより、制御情報を変化させることで生成データの内容を変化させることが可能となり、画像の表示態様を多様化することが可能となる。また、制御情報を導出する場合には導出用記憶手段を利用するとともに導出用記憶手段を導出前状態に設定した後に制御情報の導出を開始することにより、制御情報の導出を好適に行うことが可能となる。   According to the feature A1, it is possible to change the content of the generated data by changing the control information by generating the generated data for image display using the control information, and diversify the display mode of the image It becomes possible to do. In addition, when deriving control information, it is possible to suitably derive control information by using derivation storage means and starting derivation of control information after setting the derivation storage means to the state before derivation. It becomes possible.

この場合に、導出用記憶手段に対して導出前状態の設定が行われた後であって当該導出前状態の設定が新たに行われる前に、複数種類の個別画像に対応した制御情報が導出される。これにより、一の個別画像毎に導出前状態の設定が行われる構成に比べて、制御情報を導出するための処理負荷を低減することが可能となる。よって、表示制御を好適に行うことが可能となる。   In this case, control information corresponding to a plurality of types of individual images is derived after the pre-derivation state is set for the derivation storage unit and before the pre-derivation state is newly set. Is done. This makes it possible to reduce the processing load for deriving control information, compared to a configuration in which the pre-derivation state is set for each individual image. Therefore, display control can be suitably performed.

特徴A2.前記導出前設定手段は、前記導出用記憶手段を初期化した後に前記制御情報の導出対象となる個別画像についての導出前情報をその初期化後の導出用記憶手段に設定することで、当該導出用記憶手段を前記導出前状態に設定することを特徴とする特徴A1に記載の遊技機。   Feature A2. The pre-derivation setting means sets the pre-derivation information for the individual image from which the control information is derived after the derivation storage means is initialized in the derivation storage means after the initialization. The game machine according to Feature A1, wherein the storage means for use is set to the pre-derivation state.

特徴A2によれば、制御情報が導出される場合、導出用記憶手段の初期化と導出前情報の設定とが行われることにより、制御情報の導出を適切に行うことが可能となる。この場合に、導出前状態の設定が行われた後であって導出前状態の設定が新たに行われる前に、複数種類の個別画像に対して制御情報が導出されるため、導出用記憶手段の初期化及び導出前情報の設定回数を少なくすることが可能となり、制御情報を導出するための処理負荷を低減することが可能となる。   According to the feature A2, when the control information is derived, the derivation storage unit is initialized and the pre-derivation information is set, so that the control information can be appropriately derived. In this case, the control information is derived for a plurality of types of individual images after the pre-derivation state is set and before the pre-derivation state is newly set. It is possible to reduce the number of times of initialization and pre-derivation information setting, and to reduce the processing load for deriving control information.

特徴A3.前記データ生成手段は、前記複数対応導出手段により前記制御情報がまとめて導出される対象となる前記複数種類の個別画像を表示するために、一の画像データ(集合用骨格データFRD2)を利用することを特徴とする特徴A1又はA2に記載の遊技機。   Feature A3. The data generation means uses one image data (collection skeleton data FRD2) to display the plurality of types of individual images from which the control information is derived collectively by the multiple correspondence deriving means. The gaming machine according to feature A1 or A2, characterized in that.

特徴A3によれば、一の画像データによって複数種類の個別画像を表示する構成であることにより、まとめて導出した制御情報を複数の画像データに適用するのではなくその一の画像データに適用すればよい。したがって、制御情報の適用対象となる画像データを特定するための処理を簡素化することが可能となる。   According to the feature A3, since a plurality of types of individual images are displayed by one image data, the control information derived collectively can be applied to the one image data instead of the plurality of image data. That's fine. Therefore, it is possible to simplify processing for specifying image data to which control information is applied.

特徴A4.前記データ生成手段は、個別画像が動作する画像を表示するための生成データを作成する場合に、当該個別画像に対応させて設定されたデータであって動きの基準となる基準データ(骨格データFRD1、集合用骨格データFRD2)と、当該基準データに応じて変形する変形データ(皮膚データSKD1、集合用皮膚データSKD2)と、当該変形データに適用する色情報が定められた色データ(テクスチャデータBTD1、集合用テクスチャデータBTD2)とを用いることが可能な構成であり、
前記複数対応導出手段により前記制御情報がまとめて導出される対象となる前記複数種類の個別画像のそれぞれは、前記基準データ、前記変形データ及び前記色データを利用することで表示可能となる画像であり、
前記制御情報により、前記複数種類の個別画像の動作態様が変化するようにそれら複数種類の個別画像に対応した前記基準データの内容が変更されることを特徴とする特徴A1乃至A3のいずれか1に記載の遊技機。
Feature A4. The data generation means, when generating generation data for displaying an image on which an individual image operates, is data set corresponding to the individual image and is used as reference data for movement (skeleton data FRD1) Skeleton data FRD2), deformation data deformed according to the reference data (skin data SKD1, collective skin data SKD2), and color data (texture data BTD1) in which color information applied to the deformation data is determined , And texture data BTD2) for aggregation can be used,
Each of the multiple types of individual images from which the control information is derived collectively by the multiple correspondence deriving means is an image that can be displayed by using the reference data, the deformation data, and the color data. Yes,
Any one of the features A1 to A3, wherein the reference information corresponding to the plurality of types of individual images is changed by the control information so that the operation modes of the plurality of types of individual images are changed. The gaming machine described in 1.

特徴A4によれば、基準データ、変形データ及び色データを利用して複数種類の個別画像の動画表示が行われる構成であるため、複数種類の個別画像の動画表示をリアルに表現することが可能となる。この場合に、基準データの内容を変更するための制御情報が複数種類の個別画像についてまとめて導出されるため、基準データ、変形データ及び色データを利用する構成であったとしても処理負荷が極端に高くなってしまうことを防止することが可能となる。   According to the feature A4, since the moving image display of plural types of individual images is performed using the reference data, the deformation data, and the color data, the moving image display of the plural types of individual images can be realistically expressed. It becomes. In this case, since control information for changing the content of the reference data is derived for a plurality of types of individual images, the processing load is extremely large even if the configuration uses the reference data, the deformation data, and the color data. It is possible to prevent the height from increasing.

特徴A5.前記データ生成手段は、特定の個別画像(ボーン表示用キャラクタCH10)が動作する画像を表示するための生成データを作成する場合、前記基準データ、前記変形データ及び前記色データを利用する構成であり、
前記複数種類の個別画像を表示するための前記基準データの合計のデータ容量が、前記特定の個別画像を表示するための前記基準データの合計のデータ容量以下であることを特徴とする特徴A4に記載の遊技機。
Feature A5. The data generation means uses the reference data, the deformation data, and the color data when generating generation data for displaying an image in which a specific individual image (bone display character CH10) operates. ,
The feature A4 is characterized in that a total data capacity of the reference data for displaying the plurality of types of individual images is equal to or less than a total data capacity of the reference data for displaying the specific individual images. The gaming machine described.

特徴A5によれば、基準データ、変形データ及び色データを利用して複数種類の個別画像を同時に表示する場合であっても、それら複数種類の個別画像を表示するための基準データの合計のデータ容量が特定の個別画像を表示するための基準データの合計のデータ容量以下となっているため、制御情報の導出及びその導出した制御情報の適用に関して対象となるデータ量を抑えることが可能となり処理負荷を低減することが可能となる。   According to the feature A5, even when a plurality of types of individual images are displayed simultaneously using the reference data, deformation data, and color data, the total data of the reference data for displaying the plurality of types of individual images Since the capacity is less than or equal to the total data capacity of the reference data for displaying a specific individual image, it is possible to reduce the amount of data subject to control information derivation and application of the derived control information. The load can be reduced.

特徴A6.前記基準データは、複数の単位基準データ(ボーンデータBOD1〜BOD50,ABD1〜ABD50)を有し、それら複数の単位基準データの相対的な位置関係が変更されることにより当該基準データに対応する個別画像の動作態様が変更される構成であり、
前記複数の単位基準データは、メイン単位基準データの位置データが変更された場合にサブ単位基準データの位置データがそれに追従して変更されるようにデータ関係が設定されており、
前記複数種類の個別画像のうちサブ個別画像に対応する単位基準データは、メイン個別画像に対応する単位基準データに対してサブ単位基準データの関係に設定されていることを特徴とする特徴A4又はA5に記載の遊技機。
Feature A6. The reference data includes a plurality of unit reference data (bone data BOD1 to BOD50, ABD1 to ABD50), and the individual position corresponding to the reference data is changed by changing the relative positional relationship of the plurality of unit reference data. It is a configuration in which the operation mode of the image is changed,
The plurality of unit reference data has a data relationship set such that when the position data of the main unit reference data is changed, the position data of the sub unit reference data is changed accordingly.
The unit reference data corresponding to the sub-individual image among the plurality of types of individual images is set in the relationship of the sub-unit reference data with respect to the unit reference data corresponding to the main individual image. A gaming machine according to A5.

特徴A6によれば、メイン単位基準データの位置データが変更された場合にはサブ単位基準データの位置データが変更されるため、一の基準データによって一の個別画像の動作態様が決定される構成においてはその個別画像の動作態様をよりリアルに表現することが可能となる。この場合に、複数種類の個別画像のうちサブ個別画像に対応する単位基準データは、メイン個別画像に対応する単位基準データに対してサブ単位基準データの関係に設定されている。これにより、メイン個別画像とサブ個別画像とをまとめて移動させる場合には、基準データにおけるメイン単位基準データとサブ単位基準データとのデータ関係を利用することで、メイン単位基準データについての位置データを変更するように制御情報を調整するだけで足りる。   According to the feature A6, when the position data of the main unit reference data is changed, the position data of the sub unit reference data is changed, so that the operation mode of one individual image is determined by one reference data. It is possible to more realistically represent the operation mode of the individual image. In this case, the unit reference data corresponding to the sub individual image among the plurality of types of individual images is set in the relationship of the sub unit reference data with respect to the unit reference data corresponding to the main individual image. Thus, when the main individual image and the sub individual image are moved together, the position data about the main unit reference data is obtained by using the data relationship between the main unit reference data and the sub unit reference data in the reference data. It is only necessary to adjust the control information to change.

特徴A7.前記メイン単位基準データの位置データに影響を与えることなく、前記サブ単位基準データの位置データを変更することが可能であることを特徴とする特徴A6に記載の遊技機。   Feature A7. The gaming machine according to A6, wherein the position data of the sub unit reference data can be changed without affecting the position data of the main unit reference data.

特徴A7によれば、メイン個別画像とサブ個別画像とでメイン単位基準データとサブ単位基準データとのデータ関係が設定されている構成であっても、メイン個別画像とは無関係にサブ個別画像を動作させることが可能となる。   According to the feature A7, even if the data relationship between the main unit reference data and the sub unit reference data is set in the main individual image and the sub individual image, the sub individual image is displayed regardless of the main individual image. It becomes possible to operate.

特徴A8.前記メイン個別画像に対応する単位基準データと、前記サブ個別画像に対応する単位基準データとは1対1で対応しており、それぞれ対応する単位基準データ間においてメイン個別画像の単位基準データがメイン単位基準データとなりサブ個別画像の単位基準データがサブ単位基準データとなるようにデータ関係が設定されていることを特徴とする特徴A6又はA7に記載の遊技機。   Feature A8. The unit reference data corresponding to the main individual image and the unit reference data corresponding to the sub individual image have a one-to-one correspondence, and the unit reference data of the main individual image is the main between the corresponding unit reference data. The gaming machine according to feature A6 or A7, wherein the data relationship is set so that the unit reference data becomes unit reference data and the unit reference data of the sub-individual image becomes sub unit reference data.

特徴A8によれば、メイン個別画像とサブ個別画像との関連付けを単位基準データの単位で詳細に行うことが可能となる。   According to the feature A8, the association between the main individual image and the sub individual image can be performed in detail in units of unit reference data.

特徴A9.前記メイン個別画像と前記サブ個別画像とは、単位基準データの数及び配列が同一又は略同一であり、
前記変形データ及び前記色データのうち少なくとも一方が前記メイン個別画像及び前記サブ個別画像間において兼用されることを特徴とする特徴A6乃至A8のいずれか1に記載の遊技機。
Feature A9. The main individual image and the sub individual image have the same or substantially the same number and arrangement of unit reference data,
The gaming machine according to any one of features A6 to A8, wherein at least one of the deformation data and the color data is shared between the main individual image and the sub individual image.

特徴A9によれば、メイン個別画像とサブ個別画像とで、変形データ及び色データのうち少なくとも一方が兼用されるため、各種データを記憶するために必要なデータ容量を抑えることが可能となる。   According to the feature A9, since at least one of the deformation data and the color data is shared by the main individual image and the sub individual image, it is possible to suppress the data capacity necessary for storing various data.

なお、特徴A1〜A9のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one configuration of the features A1 to A9, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴B群>
特徴B1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、個別画像が動作する画像を表示するための生成データを作成する場合に、当該個別画像に対応させて設定されたデータであって動きの基準となる基準データ(集合用骨格データFRD2)と、当該基準データに応じて変形する変形データ(集合用皮膚データSKD2)と、当該変形データに適用する色情報が定められた色データ(集合用テクスチャデータBTD2)とを用いることが可能な構成であり、
前記基準データは、複数の単位基準データ(ボーンデータABD1〜ABD50)を有し、それら複数の単位基準データの相対的な位置関係が変更されることにより当該基準データに対応する個別画像の動作態様が変更される構成であり、
前記複数の単位基準データは、メイン単位基準データの位置データが変更された場合にサブ単位基準データの位置データがそれに追従して変更されるようにデータ関係が設定されており、
複数種類の個別画像のうちサブ個別画像(第2〜第5集合単位キャラクタCHG2〜CHG5)に対応する単位基準データは、メイン個別画像(第1集合単位キャラクタCHG1)に対応する単位基準データに対して前記サブ単位基準データの関係に設定されていることを特徴とする遊技機。
<Feature B group>
Feature B1. Display means (symbol display device 41) having a display unit (display surface P);
Display control means (VDP135) for displaying an image on the display unit using generated data (drawing data) generated by data generation means (display CPU 131, geometry calculation unit 151 and rendering unit 152);
With
The data generation means, when generating generation data for displaying an image in which an individual image operates, is data set in correspondence with the individual image and is used as a reference data (set skeleton for assembly) Data FRD2), deformation data that deforms in accordance with the reference data (collection skin data SKD2), and color data that defines color information to be applied to the deformation data (collection texture data BTD2). Possible configuration,
The reference data includes a plurality of unit reference data (bone data ABD1 to ABD50), and an operation mode of an individual image corresponding to the reference data by changing a relative positional relationship between the plurality of unit reference data. Is a configuration to be changed,
The plurality of unit reference data has a data relationship set such that when the position data of the main unit reference data is changed, the position data of the sub unit reference data is changed accordingly.
The unit reference data corresponding to the sub individual images (second to fifth set unit characters CHG2 to CHG5) among the plurality of types of individual images is the same as the unit reference data corresponding to the main individual image (first set unit character CHG1). The gaming machine is set in the relationship of the sub-unit reference data.

特徴B1によれば、メイン単位基準データの位置データが変更された場合にはサブ単位基準データの位置データが変更されるため、一の基準データによって一の個別画像の動作態様が決定される構成においてはその個別画像の動作態様をよりリアルに表現することが可能となる。この場合に、複数種類の個別画像のうちサブ個別画像に対応する単位基準データは、メイン個別画像に対応する単位基準データに対してサブ単位基準データの関係に設定されている。これにより、メイン個別画像とサブ個別画像とをまとめて移動させる場合には、基準データにおけるメイン単位基準データとサブ単位基準データとのデータ関係を利用することで、メイン単位基準データについての位置データを変更するように制御情報を調整するだけで足りる。   According to the feature B1, since the position data of the sub unit reference data is changed when the position data of the main unit reference data is changed, the operation mode of one individual image is determined by one reference data. It is possible to more realistically represent the operation mode of the individual image. In this case, the unit reference data corresponding to the sub individual image among the plurality of types of individual images is set in the relationship of the sub unit reference data with respect to the unit reference data corresponding to the main individual image. Thus, when the main individual image and the sub individual image are moved together, the position data about the main unit reference data is obtained by using the data relationship between the main unit reference data and the sub unit reference data in the reference data. It is only necessary to adjust the control information to change.

特徴B2.前記メイン単位基準データの位置データに影響を与えることなく、前記サブ単位基準データの位置データを変更することが可能であることを特徴とする特徴B1に記載の遊技機。   Feature B2. The gaming machine according to feature B1, wherein the position data of the sub unit reference data can be changed without affecting the position data of the main unit reference data.

特徴B2によれば、メイン個別画像とサブ個別画像とでメイン単位基準データとサブ単位基準データとのデータ関係が設定されている構成であっても、メイン個別画像とは無関係にサブ個別画像を動作させることが可能となる。   According to the feature B2, even if the data relationship between the main unit reference data and the sub unit reference data is set in the main individual image and the sub individual image, the sub individual image is displayed regardless of the main individual image. It becomes possible to operate.

特徴B3.前記メイン個別画像に対応する単位基準データと、前記サブ個別画像に対応する単位基準データとは1対1で対応しており、それぞれ対応する単位基準データ間においてメイン個別画像の単位基準データがメイン単位基準データとなりサブ個別画像の単位基準データがサブ単位基準データとなるようにデータ関係が設定されていることを特徴とする特徴B1又はB2に記載の遊技機。   Feature B3. The unit reference data corresponding to the main individual image and the unit reference data corresponding to the sub individual image have a one-to-one correspondence, and the unit reference data of the main individual image is the main between the corresponding unit reference data. The gaming machine according to feature B1 or B2, wherein the data relationship is set so that the unit reference data becomes unit reference data and the unit reference data of the sub-individual image becomes sub unit reference data.

特徴B3によれば、メイン個別画像とサブ個別画像との関連付けを単位基準データの単位で詳細に行うことが可能となる。   According to the feature B3, the association between the main individual image and the sub individual image can be performed in detail in units of unit reference data.

特徴B4.前記メイン個別画像と前記サブ個別画像とは、単位基準データの数及び配列が同一又は略同一であり、
前記変形データ及び前記色データのうち少なくとも一方が前記メイン個別画像及び前記サブ個別画像間において兼用されることを特徴とする特徴B1乃至B3のいずれか1に記載の遊技機。
Feature B4. The main individual image and the sub individual image have the same or substantially the same number and arrangement of unit reference data,
The gaming machine according to any one of features B1 to B3, wherein at least one of the deformation data and the color data is shared between the main individual image and the sub individual image.

特徴B4によれば、メイン個別画像とサブ個別画像とで、変形データ及び色データのうち少なくとも一方が兼用されるため、各種データを記憶するために必要なデータ容量を抑えることが可能となる。   According to the feature B4, since at least one of the deformation data and the color data is shared between the main individual image and the sub individual image, it is possible to suppress the data capacity necessary for storing various data.

特徴B5.前記複数種類の個別画像のそれぞれに対応する単位基準データは、一の基準データに含まれていることを特徴とする特徴B1乃至B4のいずれか1に記載の遊技機。   Feature B5. The gaming machine according to any one of features B1 to B4, wherein unit reference data corresponding to each of the plurality of types of individual images is included in one reference data.

特徴B5によれば、複数種類の個別画像のそれぞれに対応する単位基準データが一の基準データに集約されているため、基準データを読み出すための処理及び基準データを利用する処理に関して処理負荷を低減することが可能となる。   According to the feature B5, the unit reference data corresponding to each of a plurality of types of individual images are aggregated into one reference data, so that the processing load is reduced with respect to the process for reading the reference data and the process using the reference data. It becomes possible to do.

特徴B6.前記データ生成手段は、特定の個別画像(ボーン表示用キャラクタCH10)が動作する画像を表示するための生成データを作成する場合、前記基準データ、前記変形データ及び前記色データを利用する構成であり、
前記複数種類の個別画像を表示するための前記基準データの合計のデータ容量が、前記特定の個別画像を表示するための前記基準データの合計のデータ容量以下であることを特徴とする特徴B1乃至B5のいずれか1に記載の遊技機。
Feature B6. The data generation means uses the reference data, the deformation data, and the color data when generating generation data for displaying an image in which a specific individual image (bone display character CH10) operates. ,
The total data capacity of the reference data for displaying the plurality of types of individual images is equal to or less than the total data capacity of the reference data for displaying the specific individual image. The gaming machine according to any one of B5.

特徴B6によれば、基準データ、変形データ及び色データを利用して複数種類の個別画像を同時に表示する場合であっても、それら複数種類の個別画像を表示するための基準データの合計のデータ容量が特定の個別画像を表示するための基準データの合計のデータ容量以下となっているため、基準データを制御するための情報の導出及びその導出した情報の適用に関して対象となるデータ量を抑えることが可能となり処理負荷を低減することが可能となる。   According to the feature B6, even when a plurality of types of individual images are displayed simultaneously using the reference data, deformation data, and color data, the total data of the reference data for displaying the plurality of types of individual images Since the capacity is less than or equal to the total data capacity of the reference data for displaying a specific individual image, the amount of data targeted for derivation of information for controlling the reference data and application of the derived information is suppressed. And the processing load can be reduced.

なお、特徴B1〜B6のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   Note that for any one of the configurations of the features B1 to B6, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴C群>
特徴C1.仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する生成データ記憶手段(フレームバッファ142)と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置41)に表示させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記配置手段は、第1個別画像(演出用キャラクタCH11,CH13)の影画像及び反射画像のうちいずれかである対応画像(影画像CH12,CH14)を第2個別画像(地面画像BG、階段画像SG)の一部に対して重ねるようにして表示する場合、前記対応画像を表示するためのオブジェクトデータである対応オブジェクトデータ(平面影用板状オブジェクトデータBSD、段差影用板状オブジェクトデータSSD)を、前記第2個別画像を表示するためのオブジェクトデータ(地面用オブジェクトデータBGD、階段用オブジェクトデータSGD)とは別に前記仮想3次元空間に配置することを特徴とする遊技機。
<Feature C group>
Feature C1. Arranging means for arranging object data as three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S2302 to S2304 in the VDP 135) and viewpoint setting means for setting the viewpoint in the virtual three-dimensional space (VDP135) The function of executing the process of step S2306 in FIG. 2) and projecting the object data onto a projection plane set based on the viewpoint, and generating generation data (drawing data) based on the data projected onto the projection plane. Generation data for storing generation data generated by data generation means (display CPU 131, geometry calculation section 151, and rendering section 152) having drawing setting means (function to execute the processing of steps S2310 to S2312 in VDP 135) Memory means (frame A buffer 142),
Display control means (VDP135) for causing the display means (symbol display device 41) to display an image corresponding to the generated data stored in the generated data storage means;
In gaming machines equipped with
The arrangement means converts the corresponding image (shadow image CH12, CH14), which is one of the shadow image and reflection image of the first individual image (effect characters CH11, CH13), into the second individual image (ground image BG, staircase image). SG), the corresponding object data (planar shadow plate-like object data BSD, step shadow plate-like object data SSD), which is object data for displaying the corresponding image, is displayed. Is arranged in the virtual three-dimensional space separately from object data (ground object data BGD, staircase object data SGD) for displaying the second individual image.

特徴C1によれば、第2個別画像を表示するためのオブジェクトデータとは別に対応画像を表示するためのオブジェクトデータである対応オブジェクトデータが設定されていることにより、第2個別画像を表示するためのデータ設定とは独立して、対応画像を表示するためのデータ設定を行うことが可能となる。これにより、第1個別画像の影画像及び反射画像のうちいずれかである対応画像を第2個別画像の一部に対して重ねるようにして表示する場合であっても、対応画像の表示内容とは無関係に第2個別画像を表示するためのデータ設定を行うことが可能となり、これら画像を表示させるための設計の容易化が図られる。よって、表示制御を好適に行うことが可能となる。   According to the feature C1, since the corresponding object data that is object data for displaying the corresponding image is set separately from the object data for displaying the second individual image, the second individual image is displayed. Independent of the data setting, data setting for displaying the corresponding image can be performed. Thus, even when the corresponding image that is one of the shadow image and the reflection image of the first individual image is displayed so as to be superimposed on a part of the second individual image, the display contents of the corresponding image It is possible to set data for displaying the second individual image irrespectively, and the design for displaying these images can be facilitated. Therefore, display control can be suitably performed.

特徴C2.前記対応オブジェクトデータは、板状ポリゴンであることを特徴とする特徴C1に記載の遊技機。   Feature C2. The gaming machine according to Feature C1, wherein the corresponding object data is a plate-shaped polygon.

特徴C2によれば、オブジェクトデータを記憶するために必要なデータ容量の増加を抑えながら、既に説明したような優れた効果を奏することが可能となる。   According to the feature C2, it is possible to achieve an excellent effect as described above while suppressing an increase in data capacity necessary for storing object data.

特徴C3.前記配置手段は、前記対応オブジェクトデータを、前記第2個別画像を表示するためのオブジェクトデータに対して表示位置が手前となる側に離間させて配置することを特徴とする特徴C1又はC2に記載の遊技機。   Feature C3. The feature C1 or C2 is characterized in that the arranging means arranges the corresponding object data so as to be separated from the object data for displaying the second individual image on the side where the display position is closer to the front. Game machines.

特徴C3によれば、仮想3次元空間において対応オブジェクトデータは第2個別画像を表示するためのオブジェクトデータに対して重ねて配置されるのではなく、表示位置が手前となる側に離間させて配置されるため、仮想3次元空間における配置位置との関係で表示対象の画像を決定する構成を利用しながら、対応画像を第2個別画像に重ねて表示することが可能となる。   According to the feature C3, the corresponding object data is not arranged so as to overlap the object data for displaying the second individual image in the virtual three-dimensional space, but is arranged apart from the display position on the near side. Therefore, it is possible to display the corresponding image so as to overlap the second individual image while using the configuration in which the image to be displayed is determined in relation to the arrangement position in the virtual three-dimensional space.

特徴C4.前記データ生成手段は、前記第1個別画像を表示するためのオブジェクトデータの前記仮想3次元空間における位置を変更する場合、それに合わせて前記対応オブジェクトデータの前記仮想3次元空間における位置を変更する手段(表示CPU131におけるステップS3112及びステップS3313の処理を実行する機能)を備えていることを特徴とする特徴C1乃至C3のいずれか1に記載の遊技機。   Feature C4. The data generation means changes the position of the corresponding object data in the virtual three-dimensional space in accordance with the change of the position of the object data for displaying the first individual image in the virtual three-dimensional space. The gaming machine according to any one of features C1 to C3, further comprising (a function of executing the processing of step S3112 and step S3313 in the display CPU 131).

特徴C4によれば、仮想3次元空間における対応オブジェクトデータの表示位置を変更するだけで、第1個別画像の移動表示に追従させて対応画像を移動表示させることが可能となる。   According to the feature C4, the corresponding image can be moved and displayed following the moving display of the first individual image only by changing the display position of the corresponding object data in the virtual three-dimensional space.

特徴C5.前記データ生成手段は、前記オブジェクトデータに対してテクスチャデータを設定するテクスチャ設定手段(VDP135におけるステップS2309の処理を実行する機能)を備え、
当該テクスチャ設定手段は、前記第1個別画像の表示態様が第1表示態様である場合、前記対応画像を表示するためのテクスチャデータとして第1対応テクスチャデータ(第1平面影用テクスチャデータBST1)を前記対応オブジェクトデータに設定し、前記第2個別画像の表示態様が第2表示態様である場合、前記対応画像を表示するためのテクスチャデータとして第2対応テクスチャデータ(第2平面影用テクスチャデータBST2)を前記対応オブジェクトデータに設定することを特徴とする特徴C1乃至C4のいずれか1に記載の遊技機。
Feature C5. The data generation means includes texture setting means (function to execute the process of step S2309 in the VDP 135) for setting texture data for the object data.
When the display mode of the first individual image is the first display mode, the texture setting unit uses the first corresponding texture data (first plane shadow texture data BST1) as texture data for displaying the corresponding image. When the corresponding object data is set and the display mode of the second individual image is the second display mode, the second corresponding texture data (second plane shadow texture data BST2) is used as the texture data for displaying the corresponding image. ) Is set in the corresponding object data, The gaming machine according to any one of features C1 to C4.

特徴C5によれば、対応オブジェクトデータに設定するテクスチャデータを切り換えるだけで、対応画像の表示態様を第1個別画像の表示態様に合わせることが可能となる。   According to the feature C5, the display mode of the corresponding image can be matched with the display mode of the first individual image only by switching the texture data set in the corresponding object data.

特徴C6.前記データ生成手段は、前記第1個別画像の表示態様が第1表示態様である場合、前記対応オブジェクトデータの形状を決定付ける形状データとして第1形状データを利用し、前記第1個別画像の表示態様が第2表示態様である場合、前記対応オブジェクトデータの形状を決定付ける形状データとして第2形状データを利用する手段(表示CPU131におけるステップS3309〜ステップS3311の処理を実行する機能)を備えていることを特徴とする特徴C1乃至C5のいずれか1に記載の遊技機。   Feature C6. When the display mode of the first individual image is the first display mode, the data generation means uses the first shape data as shape data for determining the shape of the corresponding object data, and displays the first individual image. When the mode is the second display mode, there is provided means for using the second shape data as the shape data for determining the shape of the corresponding object data (a function for executing the processing of steps S3309 to S3311 in the display CPU 131). The gaming machine according to any one of features C1 to C5, wherein:

特徴C6によれば、対応オブジェクトデータに対して利用する形状データを変更することで、対応画像の表示態様を第1個別画像の表示態様に合わせることが可能となる。   According to the feature C6, it is possible to match the display mode of the corresponding image with the display mode of the first individual image by changing the shape data used for the corresponding object data.

特徴C7.前記データ生成手段は、前記オブジェクトデータに対してテクスチャデータを設定するテクスチャ設定手段(VDP135におけるステップS2309の処理を実行する機能)を備え、
当該テクスチャ設定手段は、前記第1個別画像の表示位置が変更される場合、前記仮想3次元空間における前記対応オブジェクトデータの位置が変更されない状況において前記対応画像を表示するためのテクスチャデータの前記対応オブジェクトデータに対する設定位置関係を変更する設定位置変更手段(表示CPU131におけるステップS3410の処理を実行する機能)を備えていることを特徴とする特徴C1乃至C6のいずれか1に記載の遊技機。
Feature C7. The data generation means includes texture setting means (function to execute the process of step S2309 in the VDP 135) for setting texture data for the object data.
The texture setting means, when the display position of the first individual image is changed, the correspondence of the texture data for displaying the corresponding image in a situation where the position of the corresponding object data in the virtual three-dimensional space is not changed The gaming machine according to any one of features C1 to C6, further comprising setting position changing means (a function of executing the processing of step S3410 in the display CPU 131) for changing the setting position relationship with respect to the object data.

特徴C7によれば、対応オブジェクトデータに対するテクスチャデータの設定位置関係を変更することによって第1個別画像の移動表示に対応画像を追従させることにより、仮想3次元空間における対応オブジェクトデータの位置を変更することが好ましくない状況であっても対応画像の移動表示を行うことが可能となる。   According to the feature C7, the position of the corresponding object data in the virtual three-dimensional space is changed by causing the corresponding image to follow the moving display of the first individual image by changing the set positional relationship of the texture data with respect to the corresponding object data. Even in a situation where this is not desirable, it is possible to perform moving display of the corresponding image.

特徴C8.前記第2個別画像において前記対応画像が重ねて表示される領域に対応する当該第2個別画像を表示するためのオブジェクトデータの形状データに対応させて、前記対応オブジェクトデータの形状データが設定されていることを特徴とする特徴C1乃至C7のいずれか1に記載の遊技機。   Feature C8. The shape data of the corresponding object data is set in correspondence with the shape data of the object data for displaying the second individual image corresponding to the area where the corresponding image is displayed in the second individual image. The gaming machine according to any one of features C1 to C7, wherein:

特徴C8によれば、対応オブジェクトデータが第2個別画像を表示するためのオブジェクトデータの形状に対応させて設定されているため、対応オブジェクトデータを利用して対応画像を表示する構成であっても第2個別画像に対する対応画像の重ね合わせを好適に行うことが可能となる。   According to the feature C8, since the corresponding object data is set corresponding to the shape of the object data for displaying the second individual image, the corresponding image is displayed using the corresponding object data. It is possible to suitably superimpose the corresponding image on the second individual image.

また、当該特徴C8の構成において上記特徴C7にて限定した構成を適用することにより、対応画像の移動表示は対応オブジェクトデータに対するテクスチャデータの設定位置関係の変更により行われることとなり、第2個別画像を表示するためのオブジェクトデータの形状に対応させて設定された対応オブジェクトデータを仮想3次元空間において複雑に移動させなくても対応画像の移動表示を行うことが可能となる。   Further, by applying the configuration limited to the feature C7 in the configuration of the feature C8, the movement display of the corresponding image is performed by changing the setting positional relationship of the texture data with respect to the corresponding object data, and the second individual image The corresponding image can be moved and displayed without complicatedly moving the corresponding object data set corresponding to the shape of the object data for displaying the image in the virtual three-dimensional space.

なお、特徴C1〜C8のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one configuration of the features C1 to C8, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴D群>
特徴D1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール74)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU72、VDP76)と、
を備え、
前記表示用記憶手段は、動画像を再生するために用いられる圧縮された動画像データ(ベース動画データBMD)を記憶しており、
前記表示制御手段は、
前記動画像データを展開用領域(展開用バッファ81)に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(VDP76におけるステップS1303の処理を実行する機能、動画デコーダ93)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、前記動画像データにおいて定められている順序で用いることで、当該動画像データに対応した動画対応画像(色替え演出用キャラクタCH1)を表示させる動画像表示実行手段(表示CPU72におけるステップS1206の処理を実行する機能、VDP76におけるステップS1306の処理を実行する機能)と、
前記表示用記憶手段から追加画像データ(第1〜第nパーツ画像データPD1〜PD3)を読み出し、前記静止画像データを利用する場合に当該追加画像データを利用することにより、当該追加画像データに対応する追加個別画像(色替え対象領域CR)を前記動画対応画像に追加する追加実行手段(表示CPU72におけるステップS1206の処理を実行する機能、VDP76におけるステップS1307の処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature D group>
Feature D1. Display means (symbol display device 41) having a display unit (display surface P);
Display storage means (memory module 74) for storing image data in advance;
Display control means (display CPU 72, VDP 76) for displaying an image on the display unit using image data stored in the display storage means;
With
The display storage means stores compressed moving image data (base moving image data BMD) used for reproducing moving images,
The display control means includes
Expansion means for expanding the moving image data in the expansion area (development buffer 81) and creating still image data for a plurality of update timings for the image corresponding to the moving image data (the processing of step S1303 in the VDP 76). A function to be executed, a video decoder 93);
By using still image data for a plurality of update timings developed by the developing means in the order determined in the moving image data, a moving image corresponding image (color change effect character CH1 corresponding to the moving image data) is used. ) Are displayed (function for executing the process of step S1206 in the display CPU 72, function for executing the process of step S1306 in the VDP 76),
The additional image data (first to n-th part image data PD1 to PD3) is read from the display storage means, and the additional image data is used when the still image data is used, thereby corresponding to the additional image data. An additional execution means for adding an additional individual image (color change target region CR) to the moving image-corresponding image (a function for executing the process of step S1206 in the display CPU 72, a function for executing the process of step S1307 in the VDP 76);
A gaming machine characterized by comprising:

特徴D1によれば、一の更新タイミングにおける画像を表示する場合に、動画像データを展開することで得られる静止画像データだけを利用するのではなく、追加画像データも利用することで、動画対応画像に対して追加個別画像を追加表示する構成である。これにより、例えば動画対応画像の一部を変更する必要が生じた場合であっても、追加画像データを利用してその一部の変更に対応することで、動画像データをそのまま利用することが可能となる。また、例えば動画対応画像の一部の内容が異なる複数種類の動画が必要となった場合であっても、追加画像データを利用してその一部の内容を異ならせることで、動画像データを複数種類用意する必要がなくなる。よって、表示制御を好適に行うことが可能となる。   According to the feature D1, when displaying an image at one update timing, not only the still image data obtained by expanding the moving image data but also the additional image data can be used. In this configuration, an additional individual image is additionally displayed with respect to the image. Thus, for example, even when it is necessary to change a part of the moving image-compatible image, the moving image data can be used as it is by using the additional image data to cope with the change of the part. It becomes possible. In addition, for example, even when a plurality of types of moving images with different contents of a moving image-compatible image are required, moving image data can be changed by using additional image data to change the contents of some of the moving image data. There is no need to prepare multiple types. Therefore, display control can be suitably performed.

特徴D2.前記追加個別画像を複数の更新タイミングにおいて変化させることが可能なように、複数の更新タイミングにおいて異なる前記追加画像データを利用可能な構成であることを特徴とする特徴D1に記載の遊技機。   Feature D2. The gaming machine according to Feature D1, wherein the additional image data different at a plurality of update timings can be used so that the additional individual image can be changed at a plurality of update timings.

特徴D2によれば、複数の更新タイミングにおいて異なる追加画像データを利用可能な構成であることにより、動画対応画像の内容に合わせて追加個別画像の内容を変化させることが可能となる。   According to the feature D2, it is possible to change the content of the additional individual image in accordance with the content of the moving image corresponding image by using a configuration in which different additional image data can be used at a plurality of update timings.

特徴D3.前記複数の更新タイミング分の静止画像データのそれぞれに対応する前記追加画像データを利用可能な構成であることを特徴とする特徴D1又はD2に記載の遊技機。   Feature D3. The gaming machine according to feature D1 or D2, characterized in that the additional image data corresponding to each of the still image data corresponding to the plurality of update timings can be used.

特徴D3によれば、動画対応画像の表示期間の全体に亘って、当該動画対応画像の内容に応じた追加個別画像を表示することが可能となる。   According to the feature D3, it is possible to display an additional individual image corresponding to the content of the moving image corresponding image over the entire display period of the moving image corresponding image.

特徴D4.複数の更新タイミング分の前記追加画像データは、動画像データとして圧縮されることなく前記表示用記憶手段に予め記憶されていることを特徴とする特徴D2又はD3に記載の遊技機。   Feature D4. The gaming machine according to the feature D2 or D3, wherein the additional image data corresponding to a plurality of update timings is stored in advance in the display storage means without being compressed as moving image data.

特徴D4によれば、追加画像データが動画像データとして圧縮されることなく記憶されていることにより、動画対応画像に追加個別画像を追加表示させる場合に複数種類の動画像データの展開処理を同時に行う必要が生じない。   According to the feature D4, since the additional image data is stored as the moving image data without being compressed, when the additional individual image is additionally displayed on the moving image corresponding image, a plurality of types of moving image data development processing are performed simultaneously. There is no need to do it.

特徴D5.前記追加画像データには半透明又は透明に対応する透明値のデータが設定されていることを特徴とする特徴D4に記載の遊技機。   Feature D5. The game machine according to Feature D4, wherein the additional image data is set to data having a transparency value corresponding to translucency or transparency.

特徴D5によれば、追加画像データに半透明又は透明に対応する透明値のデータが設定されていることにより、追加個別画像の追加表示に際して透明値を利用した表示を行うことが可能となる。例えば、追加個別画像としてエフェクト画像を表示することが可能となり、それ以外にも追加個別画像として所定の部分が透明又は半透明の画像を表示することが可能となる。また、上記特徴D4の構成を備え、半透明又は透明に対応する透明値データが設定された追加画像データが動画像データとして圧縮されることなく記憶されていることにより、追加個別画像の画質が劣化してしまわないようにすることが可能となる。   According to the feature D5, since transparent value data corresponding to semi-transparency or transparency is set in the additional image data, it is possible to perform display using the transparent value when the additional individual image is additionally displayed. For example, it is possible to display an effect image as an additional individual image, and it is also possible to display an image whose predetermined portion is transparent or translucent as an additional individual image. In addition, the additional image data having the configuration of the feature D4 and set with the transparency value data corresponding to the semi-transparency or transparency is stored without being compressed as the moving image data, so that the image quality of the additional individual image is improved. It is possible to prevent deterioration.

特徴D6.前記追加個別画像は、前記動画対応画像の一部の画像部分に対応していることを特徴とする特徴D1乃至D5のいずれか1に記載の遊技機。   Feature D6. The gaming machine according to any one of features D1 to D5, wherein the additional individual image corresponds to a partial image portion of the moving image corresponding image.

特徴D6によれば、追加個別画像を利用して動画対応画像の一部の画像部分の内容を変更することが可能となる。   According to the feature D6, it is possible to change the content of a part of the image portion of the moving image corresponding image using the additional individual image.

特徴D7.前記表示制御手段は、前記追加画像データに適用する色情報を変更する色情報変更手段(表示CPU72におけるステップS1204の処理を実行する機能、VDP76におけるステップS1305及びステップS1403〜ステップS1406の処理を実行する機能)を備えていることを特徴とする特徴D1乃至D6のいずれか1に記載の遊技機。   Feature D7. The display control means executes color information changing means for changing color information applied to the additional image data (a function for executing the process of step S1204 in the display CPU 72, and the processes of steps S1305 and S1403 to S1406 in the VDP 76). The gaming machine according to any one of the features D1 to D6, wherein the gaming machine is provided with a function).

特徴D7によれば、追加画像データに適用する色情報が変更される構成であるため、複数種類の色情報のそれぞれに対応させて追加画像データを設ける構成に比べて、画像データを記憶するために必要な記憶容量を抑えることが可能となる。   According to the feature D7, since the color information applied to the additional image data is changed, the image data is stored compared to the configuration in which the additional image data is provided corresponding to each of a plurality of types of color information. It is possible to reduce the storage capacity required for the storage.

なお、特徴D1〜D7のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one configuration of the features D1 to D7, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴E群>
特徴E1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール74)と、
複数の単位設定領域(単位エリア121)を有する設定用記憶手段(フレームバッファ82)に前記画像データを設定することで当該設定用記憶手段に描画データを作成し、当該描画データに応じた画像信号を前記表示手段に出力することに基づき前記表示部に画像を表示させる表示制御手段(表示CPU72、VDP76)と、
を備え、
前記表示制御手段は、
複数の個別画像(エフェクト演出用キャラクタCH2、エフェクト画像EG2)を前記表示部の奥行き方向に重なるように表示する場合において、それら複数の個別画像が前記表示部の奥行き方向に重なることとなる前記単位設定領域のデータについて、奥側個別画像(エフェクト演出用キャラクタCH2)の重なり箇所の画像データである奥側画像データが手前側個別画像(エフェクト画像EG2)の重なり箇所の画像データである手前側画像データに対して反映された状態となるようにする重複反映手段(VDP76におけるステップS1701、ステップS1709及びステップS1710の処理を実行する機能)と、
当該重複反映手段により前記手前側画像データに対して前記奥側画像データが反映される場合に、手前側画像データ及び奥側画像データのうち少なくとも一方の反映割合を低減させる反映低減手段(VDP76におけるステップS1705〜ステップS1708の処理を実行する機能)と、
を備え、
当該反映低減手段は、前記手前側画像データ及び前記奥側画像データのうち一方の低減対象画像データの反映割合を低減する場合、前記手前側画像データ及び前記奥側画像データのうち一方の低減量参照画像データの内容に応じて当該反映割合の低減量を異ならせることを特徴とする遊技機。
<Feature E group>
Feature E1. Display means (symbol display device 41) having a display unit (display surface P);
Display storage means (memory module 74) for storing image data in advance;
By setting the image data in a setting storage means (frame buffer 82) having a plurality of unit setting areas (unit areas 121), drawing data is created in the setting storage means, and an image signal corresponding to the drawing data Display control means (display CPU 72, VDP 76) for displaying an image on the display unit based on the output to the display means,
With
The display control means includes
In the case where a plurality of individual images (effect effect character CH2 and effect image EG2) are displayed so as to overlap in the depth direction of the display unit, the plurality of individual images overlap in the depth direction of the display unit. For the setting area data, the near side image data that is the image data of the overlapping portion of the back side individual image (effect effect character CH2) is the near side image that is the image data of the overlapping portion of the near side individual image (effect image EG2). Duplicate reflection means (function to execute the processing of step S1701, step S1709 and step S1710 in the VDP 76) to be reflected on the data;
Reflection reduction means (in VDP 76 for reducing the reflection ratio of at least one of the near-side image data and the back-side image data when the back-side image data is reflected on the near-side image data by the overlapping reflection means. The function of executing the processing of steps S1705 to S1708),
With
The reflection reducing means reduces the reflection amount of one of the near side image data and the back side image data when reducing the reflection ratio of one of the reduction target image data of the near side image data and the back side image data. A gaming machine characterized in that the amount of reduction of the reflection ratio varies according to the content of reference image data.

特徴E1によれば、低減対象画像データを反映させる割合を低減させた状態で、手前側画像データ及び奥側画像データの重複反映が行われる。これにより、例えば手前側画像データ及び奥側画像データをそのまま重複反映させると画像の表示を良好に行えない場合などにおいては少なくとも一方の画像データの反映割合を低減させて、重複反映させた画像の表示を良好に行うことが可能となる。   According to the feature E1, the near-side image data and the back-side image data are reflected in a duplicated manner in a state where the ratio of reflecting the reduction target image data is reduced. As a result, for example, when the near side image data and the back side image data are directly reflected and reflected, the display ratio of at least one of the image data is reduced to reduce the reflection ratio of at least one of the image data. The display can be performed satisfactorily.

この場合に、低減量参照画像データの内容に応じて、低減対象画像データの反映割合の低減量を異ならせる構成である。これにより、低減対象画像データの反映割合を一律で低減する構成に比べて、低減量参照画像データの内容に応じた態様で低減対象画像データを低減させることが可能となり、画像データの重複反映を行う場合において表示効果をより高めるための細かな調整を行うことが可能となる。   In this case, the reduction amount of the reflection ratio of the reduction target image data is made different according to the content of the reduction amount reference image data. This makes it possible to reduce the reduction target image data in a manner corresponding to the content of the reduction amount reference image data, as compared with the configuration in which the reduction ratio of the reduction target image data is uniformly reduced, and the image data can be reflected in duplicate. In the case of performing, it is possible to make fine adjustments for enhancing the display effect.

以上より、表示制御を好適に行うことが可能となる。   As described above, display control can be suitably performed.

なお、、重複反映手段の構成として具体的には、「前記画像データは、色情報を規定する数値情報が対応付けられた単位画像データ(ピクセル122)を複数有しており、前記重複反映手段は、前記複数の個別画像において相互に重なる各単位画像データの数値情報を用いて予め定められた演算処理を実行する演算処理実行手段と、当該演算処理の演算結果のデータを、前記設定用記憶手段において前記相互に重なる各単位画像データに対応した単位設定領域に設定する設定処理実行手段と、を備えている」という構成が挙げられ、さらにより具体的な構成として「前記各単位設定領域は、限界数値までの範囲内において数値情報を設定可能な構成であり、前記表示制御手段は、当該数値情報として大きな数値が設定されているほどその単位設定領域に対応したドットにおいて明るい色が表示されるように前記画像信号を出力する構成であり、前記演算処理実行手段は、前記予め定められた演算処理として、前記複数の個別画像において相互に重なる各単位画像データの数値情報を加算する加算処理を実行する」という構成が挙げられる。   In addition, as a configuration of the overlapping reflection unit, specifically, “the image data includes a plurality of unit image data (pixels 122) associated with numerical information that defines color information. Includes a calculation processing execution unit that executes predetermined calculation processing using numerical information of unit image data that overlap each other in the plurality of individual images, and data of calculation results of the calculation processing are stored in the setting memory And a setting processing execution means for setting the unit setting area corresponding to the unit image data that overlap each other in the unit, and a more specific configuration is “the unit setting area is The numerical information can be set within a range up to the limit numerical value, and the display control means is configured so that a larger numerical value is set as the numerical information. The image signal is output so that a bright color is displayed at a dot corresponding to a fixed region, and the arithmetic processing execution unit overlaps the plurality of individual images as the predetermined arithmetic processing. A configuration in which “addition processing for adding numerical information of each unit image data is performed” is given.

特徴E2.前記画像データは、色情報を規定する数値情報が対応付けられた単位画像データ(ピクセル122)を複数有しており、
前記単位設定領域は、限界数値までの範囲内において数値情報を設定可能な構成であり、
前記表示制御手段は、当該数値情報として大きな数値が設定されているほどその単位設定領域に対応した前記表示部のドットにおいて明るい色が表示されるように前記画像信号を出力する構成であり、
前記反映低減手段は、前記数値情報が相対的に大きい前記低減量参照画像データの単位画像データに対応する前記低減対象画像データの単位画像データの方が、前記数値情報が相対的に小さい前記低減量参照画像データの単位画像データに対応する前記低減対象画像データの単位画像データよりも、前記反映割合の低減量を大きくすることを特徴とする特徴E1に記載の遊技機。
Feature E2. The image data includes a plurality of unit image data (pixels 122) associated with numerical information defining color information,
The unit setting area is configured to be able to set numerical information within a range up to a limit numerical value,
The display control means is configured to output the image signal so that a brighter color is displayed in the dots of the display unit corresponding to the unit setting area as a larger numerical value is set as the numerical information.
The reflection reducing means reduces the numerical information in which the numerical information is relatively smaller in the unit image data of the reduction target image data corresponding to the unit image data in the reduction amount reference image data in which the numerical information is relatively large. The gaming machine according to Feature E1, wherein the amount of reduction of the reflection ratio is made larger than the unit image data of the reduction target image data corresponding to the unit image data of the amount reference image data.

特徴E2によれば、大きな数値の数値情報が設定されている単位設定領域に対応したドットほど明るい色が表示される構成であるため、当該ドットの表示制御の複雑化が抑えられる。この場合に、数値情報が相対的に大きい低減量参照画像データの単位画像データに対応する低減対象画像データの単位画像データの方が、数値情報が相対的に小さい低減量参照画像データの単位画像データに対応する低減対象画像データの単位画像データよりも反映割合の低減量が大きい。これにより、各個別画像の画像データを重複反映させると単位設定領域の限界数値に達する可能性がある部分については限界数値に達しないようにすることを優先して反映割合の低減量を大きくし、限界数値に達する可能性がない部分については各個別画像の画像データの内容を重複反映させることを優先して反映割合の低減量を小さくすることが可能となる。   According to the feature E2, since the dot corresponding to the unit setting area in which large numerical value information is set is displayed, a brighter color is displayed, so that the display control of the dot is not complicated. In this case, the unit image data of the reduction target image data corresponding to the unit image data of the reduction amount reference image data having relatively large numerical information is the unit image of the reduction amount reference image data having relatively small numerical information. The reduction amount of the reflection ratio is larger than the unit image data of the reduction target image data corresponding to the data. As a result, if the image data of each individual image is reflected and reflected, the amount of reduction of the reflection rate is increased by giving priority to not reaching the limit value for the part that may reach the limit value of the unit setting area. For the portion where the limit value is not likely to be reached, it is possible to reduce the amount of reduction of the reflection ratio by giving priority to overlapping the contents of the image data of each individual image.

特徴E3.前記画像データは、色情報を規定する数値情報が対応付けられた単位画像データ(ピクセル122)を複数有しており、
前記反映低減手段は、前記低減量参照画像データに含まれる前記単位画像データの数値情報のそれぞれに応じた前記反映割合の低減量により、前記低減対象画像データの反映割合を低減させることを特徴とする特徴E1又はE2に記載の遊技機。
Feature E3. The image data includes a plurality of unit image data (pixels 122) associated with numerical information defining color information,
The reflection reduction means reduces the reflection rate of the reduction target image data by the reduction amount of the reflection rate according to each numerical value information of the unit image data included in the reduction amount reference image data. The gaming machine according to the feature E1 or E2.

特徴E3によれば、単位画像データの単位で反映割合の低減量を調整することが可能となるため、反映割合の低減を優先させる箇所と重複反映を優先させる箇所との調整を細かく行うことが可能となる。   According to the feature E3, since it is possible to adjust the reduction amount of the reflection ratio in units of unit image data, it is possible to finely adjust the location where priority is given to reduction of the reflection rate and the location where priority is given to overlapping reflection. It becomes possible.

特徴E4.前記単位設定領域は、限界数値までの範囲内において数値情報を設定可能な構成であり、
前記画像データは、前記限界数値までの範囲内において色情報を規定する数値情報が対応付けられた単位画像データを複数有しており、
前記反映低減手段は、前記低減量参照画像データに含まれる前記単位画像データの色情報を前記限界数値から引き算した結果の値を当該限界数値で除算した結果の値を、その単位画像データが設定される前記単位設定領域に対応する前記低減対象画像データの単位画像データに積算することにより、当該低減対象画像データの反映割合を低減させることを特徴とする特徴E1乃至E3のいずれか1に記載の遊技機。
Feature E4. The unit setting area is configured to be able to set numerical information within a range up to a limit numerical value,
The image data includes a plurality of unit image data associated with numerical information defining color information within a range up to the limit numerical value,
The reflection reduction means sets the value obtained by dividing the value obtained by subtracting the color information of the unit image data included in the reduction amount reference image data from the limit value, by the unit image data. Any one of the characteristics E1 to E3, wherein a reflection ratio of the reduction target image data is reduced by integrating the unit image data of the reduction target image data corresponding to the unit setting area. Game machines.

特徴E4によれば、重複反映の対象となる各画像データ自体を利用して、低減量参照画像データの内容に応じた反映割合の低減を行うことが可能となる。よって、各種データを事前に記憶しておくためのデータ容量を抑えながら、既に説明したような優れた効果を奏することが可能となる。   According to the feature E4, it is possible to reduce the reflection ratio according to the content of the reduced amount reference image data by using each image data itself that is the target of the overlapping reflection. Therefore, it is possible to achieve the excellent effects as described above while suppressing the data capacity for storing various data in advance.

特徴E5.前記低減量参照画像データを利用して前記反映割合が低減される前記低減対象画像データは、前記手前側画像データ及び前記奥側画像データのうち前記低減対象画像データとは異なる側の画像データであることを特徴とする特徴E1乃至E4のいずれか1に記載の遊技機。   Feature E5. The reduction target image data whose reflection ratio is reduced using the reduction amount reference image data is image data on a different side from the reduction target image data among the near side image data and the back side image data. The gaming machine according to any one of features E1 to E4, wherein:

特徴E5によれば、重複反映の相手側の画像データの内容に応じて画像データの反映割合を低減することが可能となる。   According to the feature E5, it is possible to reduce the reflection ratio of the image data in accordance with the contents of the image data on the other side of the overlapping reflection.

特徴E6.前記低減量参照画像データは前記手前側画像データであり、前記低減対象画像データは前記奥側画像データであることを特徴とする特徴E1乃至E5のいずれか1に記載の遊技機。   Feature E6. The gaming machine according to any one of features E1 to E5, wherein the reduction amount reference image data is the front side image data, and the reduction target image data is the back side image data.

特徴E6によれば、奥側画像データの反映割合を一律で低減する構成に比べて、手前側個別画像の内容に応じた態様で奥側画像データを反映させることが可能となり、画像データの重複反映を行う場合において表示効果をより高めるための細かな調整を行うことが可能となる。   According to the feature E6, it is possible to reflect the back side image data in a manner corresponding to the content of the front side individual image, as compared with the configuration in which the reflection ratio of the back side image data is uniformly reduced, and duplication of the image data. In the case of reflection, it is possible to make fine adjustments to enhance the display effect.

なお、特徴E1〜E6のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one configuration of the features E1 to E6, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴F群>
特徴F1.仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影された投影データに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する生成データ記憶手段(フレームバッファ142)と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置41)の表示部(表示面P)に表示させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記データ生成手段は、前記投影データに対して半透明に対応する透明値を設定する透明値設定手段(VDP135におけるステップS3815の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature F group>
Feature F1. Arranging means for arranging object data as three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S2302 to S2304 in the VDP 135) and viewpoint setting means for setting the viewpoint in the virtual three-dimensional space (VDP135) The function of executing the process of step S2306 in FIG. 2) and projecting the object data onto a projection plane set based on the viewpoint, and generating generation data (drawing data) based on the projection data projected onto the projection plane A drawing setting means (function to execute the processing of steps S2310 to S2312 in the VDP 135), and a data storage means (display CPU 131, geometry calculation unit 151 and rendering unit 152) that stores the generated data generated Data storage means (F And Mubaffa 142),
Display control means (VDP135) for displaying an image corresponding to the generated data stored in the generated data storage means on the display unit (display surface P) of the display means (symbol display device 41);
In gaming machines equipped with
The game machine according to claim 1, wherein the data generating means includes a transparent value setting means (a function for executing the process of step S3815 in the VDP 135) for setting a transparent value corresponding to translucency for the projection data.

特徴F1によれば、投影データの作成後に半透明に対応する透明値が設定される構成であるため、オブジェクトデータを半透明な状態としなくても最終的に半透明の画像表示を行うことが可能となる。オブジェクトデータを半透明な状態とした後に投影データを作成すると、オブジェクトデータとして本来表示したくない裏側の画像部分が表示されてしまう可能性があり、それを回避しながら投影データを作成しようとすると処理が複雑化してしまう可能性がある。これに対して、オブジェクトデータを半透明な状態としなくても最終的に半透明の画像表示を行うことが可能であるため、当該半透明の画像表示を好適に行うことが可能となる。よって、表示制御を好適に行うことが可能となる。   According to the feature F1, since the transparency value corresponding to the semi-transparency is set after the projection data is created, the semi-transparent image display can be finally performed without setting the object data in the semi-transparent state. It becomes possible. If you create projection data after making the object data semi-transparent, the back side image part that you do not want to display as object data may be displayed. If you try to create projection data while avoiding this, Processing may be complicated. On the other hand, since it is possible to finally display a translucent image without setting the object data in a translucent state, the translucent image display can be suitably performed. Therefore, display control can be suitably performed.

特徴F2.前記データ生成手段は、前記透明値設定手段による前記半透明に対応する透明値の設定対象となる個別画像(図柄表示部CH16〜CH18)を表示するためのオブジェクトデータに対して、前記半透明に対応する透明値を設定しないことを特徴とする特徴F1に記載の遊技機。   Feature F2. The data generating means is translucent to object data for displaying individual images (symbol display portions CH16 to CH18) for which a transparent value corresponding to the translucency set by the transparent value setting means is displayed. The gaming machine according to Feature F1, wherein no corresponding transparency value is set.

特徴F2によれば、オブジェクトデータを半透明な状態としない構成であることにより、オブジェクトデータとして本来表示したくない裏側の画像部分が表示されてしまわないようにすることが可能となる。そして、上記特徴F1の構成を備え、投影データに対して半透明に対応する透明値を設定する構成であるため、上記のような不都合が生じしないようにしながら、半透明の画像表示を行うことが可能となる。   According to the feature F2, since the object data is configured not to be in a semitransparent state, it is possible to prevent the back side image portion that is not originally displayed as the object data from being displayed. And since it is the structure which has the structure of the said characteristic F1 and sets the transparency value corresponding to semi-transparency with respect to projection data, a semi-transparent image display is performed, preventing the above inconveniences. Is possible.

特徴F3.前記データ生成手段は、
複数の個別画像(演出用キャラクタCH15、図柄表示部CH16〜CH18)を表示する場合、これら複数の個別画像の一部の個別画像に対応する所定投影データを作成し、それとは別に、前記複数の個別画像のうち前記所定投影データに含まれない個別画像に対応する前記特定投影データを作成する個別作成手段(VDP135におけるステップS3802、ステップS3803、ステップS3805、ステップS3806、ステップS3808、ステップS3809、ステップS3811及びステップS3812の処理を実行する機能)と、
前記特定投影データが設定された記憶領域に対して前記透明値に応じた態様で前記所定投影データを設定する生成実行手段(VDP135におけるステップS3816の処理を実行する機能)と、
を備えていることを特徴とする特徴F1又はF2に記載の遊技機。
Feature F3. The data generation means includes
When displaying a plurality of individual images (effect character CH15, symbol display portions CH16 to CH18), predetermined projection data corresponding to some individual images of the plurality of individual images is created, and separately, the plurality of the plurality of individual images are displayed. Individual creation means (steps S3802, S3803, S3805, S3806, S3808, S3809, S3811 in the VDP 135) that creates the specific projection data corresponding to individual images not included in the predetermined projection data among the individual images. And a function of executing the process of step S3812),
Generation execution means (function to execute the process of step S3816 in the VDP 135) for setting the predetermined projection data in a mode corresponding to the transparency value in the storage area in which the specific projection data is set;
The gaming machine according to F1 or F2, characterized by comprising:

特徴F3によれば、投影データを複数回に亘って作成し、一部の投影データに対して半透明に対応する透明値の設定を行いながら複数の投影データを合成するだけで、複数の個別画像が表示部の奥行き方向に重なるように表示されるとともに奥側個別画像の重なり箇所の内容が手前側個別画像の重なり箇所に反映された状態となるようにすることが可能となる。   According to the feature F3, a plurality of individual projection data can be created by simply creating a plurality of projection data and combining a plurality of projection data while setting a transparent value corresponding to semi-transparency for a part of the projection data. Images can be displayed so as to overlap in the depth direction of the display unit, and the contents of the overlapping portions of the back individual images can be reflected in the overlapping portions of the front individual images.

特徴F4.前記個別作成手段は、
前記所定投影データ及び前記特定投影データを含めた各投影データを投影データ用記憶手段(描画用バッファBF1)に順次作成するデータ作成手段(VDP135におけるステップS3802、ステップS3805、ステップS3808及びステップS3811の処理を実行する機能)と、
前記投影データ用記憶手段に作成した投影データを保存記憶手段(第1〜第4保存用バッファBF2〜BF5)に書き込む手段(VDP135におけるステップS3803、ステップS3806、ステップS3809及びステップS3812の処理を実行する機能)と、
を備えていることを特徴とする特徴F3に記載の遊技機。
Feature F4. The individual creation means includes
Data creation means (steps S3802, S3805, S3808, and S3811 in the VDP 135) that sequentially creates each projection data including the predetermined projection data and the specific projection data in the projection data storage means (drawing buffer BF1). Function to execute)
Means (steps S3803, S3806, S3809, and S3812 in the VDP 135) for writing the projection data created in the storage unit for projection data into the storage unit (first to fourth storage buffers BF2 to BF5) is executed. Function)
The gaming machine according to Feature F3, comprising:

特徴F4によれば、投影データを複数作成した後にそれら投影データを合成することで生成データを生成する構成において、投影データの作成先となる記憶手段を投影データ用記憶手段に集約することが可能となる。これにより、投影データの作成に際して作成先の記憶手段を変更する必要がないため、処理設計の容易化が図られる。また、投影データ用記憶手段に作成された投影データを保存する保存記憶手段が設けられているため、作成済みの投影データを合成実行時まで別保存しておくことが可能となる。   According to the feature F4, in a configuration in which generation data is generated by synthesizing the projection data after generating a plurality of projection data, it is possible to consolidate the storage means as the projection data generation destination into the projection data storage means It becomes. As a result, it is not necessary to change the storage means of the creation destination when creating the projection data, so that the process design can be facilitated. In addition, since the storage unit for storing the projection data created in the projection data storage unit is provided, the created projection data can be stored separately until the synthesis is executed.

特徴F5.前記個別作成手段は、前記所定投影データ及び前記特定投影データを含めた各投影データを投影データ用記憶手段(描画用バッファBF1)に作成するものであり、
前記投影データ用記憶手段は複数の投影単位記憶エリアを有し、
それら各投影単位記憶エリアは、色情報と透明値の情報とを設定可能な構成であり、
前記個別作成手段は、前記投影データ用記憶手段における各投影単位記憶エリアの透明値の情報として透明に対応する透明値の情報を設定した後に前記所定投影データを作成し、当該所定投影データにおいて表示対象の個別画像に対応するデータが書き込まれる投影単位記憶エリアには透明値の情報として不透明に対応する透明値の情報が設定されそれ以外の投影単位記憶エリアには透明値の情報として前記透明に対応する透明値の情報が維持されるようにすることを特徴とする特徴F3又はF4に記載の遊技機。
Feature F5. The individual creation means creates each projection data including the predetermined projection data and the specific projection data in a projection data storage means (drawing buffer BF1),
The projection data storage means has a plurality of projection unit storage areas,
Each of these projection unit storage areas is configured to be able to set color information and transparency value information,
The individual creating means creates the predetermined projection data after setting the transparent value information corresponding to transparency as the transparent value information of each projection unit storage area in the projection data storage means, and displays the predetermined projection data in the predetermined projection data In the projection unit storage area in which data corresponding to the target individual image is written, transparent value information corresponding to opacity is set as transparency value information. In the other projection unit storage areas, the transparent value information is set as transparent value information. The game machine according to Feature F3 or F4, wherein information of a corresponding transparency value is maintained.

特徴F5によれば、投影データ用記憶手段における各投影単位エリアに透明に対応する透明値の情報が設定された後に当該投影データ用記憶手段に投影データが作成される構成であるため、投影データにおいて個別画像が描画されない部分の透明値の情報を投影データの作成後の後処理を実行することなく透明とすることが可能となる。これにより、最終的に複数の投影データを単に重ね合わせることで生成データを生成する構成であっても、各投影データにおいて投影対象となった個別画像のデータ部分がブランクのデータ部分によって上書きされてしまわないようにすることが可能となる。   According to the feature F5, the projection data is created in the projection data storage unit after the transparent value information corresponding to the transparency is set in each projection unit area in the projection data storage unit. In this case, it is possible to make the transparency value information of the portion where the individual image is not drawn transparent without performing post-processing after the creation of the projection data. As a result, even if the generated data is finally generated by simply superimposing a plurality of projection data, the data portion of the individual image to be projected in each projection data is overwritten by the blank data portion. It is possible to prevent it from being lost.

なお、特徴F1〜F5のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one of the features F1 to F5, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴G群>
特徴G1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール74)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU72、VDP76)と、
を備え、
前記表示用記憶手段には、所定画像(増加時用エフェクト画像EG6)を表示するための画像データとして、第1所定画像データ(通常エフェクト用画像データED5)と、当該第1所定画像データよりも解像度が低く設定された第2所定画像データ(簡易エフェクト用画像データED6)と、が記憶されており、
前記表示制御手段は、前記第2所定画像データを用いる場合であっても前記第1所定画像データを用いる場合と同様のサイズで前記所定画像が表示されるように当該第2所定画像データを拡大させる画像拡大手段(VDP76におけるステップS2109の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature G group>
Feature G1. Display means (symbol display device 41) having a display unit (display surface P);
Display storage means (memory module 74) for storing image data in advance;
Display control means (display CPU 72, VDP 76) for displaying an image on the display unit using image data stored in the display storage means;
With
The display storage means includes first predetermined image data (normal effect image data ED5) as image data for displaying a predetermined image (increase effect image EG6), and the first predetermined image data. Second predetermined image data (simple effect image data ED6) set with a low resolution is stored,
The display control means enlarges the second predetermined image data so that the predetermined image is displayed in the same size as when the first predetermined image data is used even when the second predetermined image data is used. A game machine characterized by comprising image enlargement means (function to execute the processing of step S2109 in the VDP 76).

特徴G1によれば、所定画像を表示するための画像データとして第1所定画像データだけでなく、当該第1所定画像データよりも解像度が低く設定された第2所定画像データが記憶されている。そして、第2所定画像データを利用する場合には第1所定画像データを用いる場合と同様のサイズで所定画像が表示されるように第2所定画像データが拡大して使用される。これにより、画質が高い状態で所定画像を表示する場合には第1所定画像データを利用し、画質が低下したとしても画像データの読み出しに要する時間を短縮化する必要がある場合には第2所定画像データを利用することが可能となる。よって、状況に応じた態様で所定画像を表示するためのデータ設定を行うことが可能となり、表示制御を好適に行うことが可能となる。   According to the feature G1, not only the first predetermined image data but also second predetermined image data whose resolution is set lower than that of the first predetermined image data is stored as image data for displaying the predetermined image. When the second predetermined image data is used, the second predetermined image data is enlarged and used so that the predetermined image is displayed in the same size as when the first predetermined image data is used. Thus, the first predetermined image data is used when a predetermined image is displayed in a state where the image quality is high, and the second time when the time required for reading the image data needs to be shortened even when the image quality is deteriorated. It is possible to use predetermined image data. Therefore, it is possible to perform data setting for displaying a predetermined image in a manner according to the situation, and display control can be suitably performed.

特徴G2.前記第1所定画像データを読み出すのに要する処理時間と前記第2所定画像データを読み出すのに要する処理時間との差分よりも、前記画像拡大手段において前記第2所定画像データを拡大するのに要する処理時間の方が短いことを特徴とする特徴G1に記載の遊技機。   Feature G2. The time required for enlarging the second predetermined image data in the image enlarging means is larger than the difference between the processing time required for reading the first predetermined image data and the processing time required for reading the second predetermined image data. The gaming machine of feature G1, wherein the processing time is shorter.

特徴G2によれば、第2所定画像データを読み出してそれを拡大した後に使用する場合の処理時間を、第1所定画像データを読み出して使用する処理時間よりも短くすることが可能となる。これにより、処理負荷が大きい状況においては第2所定画像データを敢えて使用することで、処理負荷が大きい状況であっても所定画像を表示することが可能となる。   According to the feature G2, the processing time when the second predetermined image data is read and used after being enlarged can be made shorter than the processing time when the first predetermined image data is read and used. As a result, the second predetermined image data is used in a situation where the processing load is heavy, so that the predetermined image can be displayed even in a situation where the processing load is heavy.

特徴G3.前記画像拡大手段は、前記第2所定画像データを拡大させた後の拡大後画像データを所定記憶手段(展開用バッファ81)に記憶させ、
前記表示制御手段は、前記第2所定画像データを利用して前記所定画像を表示する期間においては、前記所定記憶手段に記憶された前記拡大後画像データを使用することを特徴とする特徴G1又はG2に記載の遊技機。
Feature G3. The image enlarging means stores the enlarged image data after enlarging the second predetermined image data in a predetermined storage means (development buffer 81),
The display control means uses the enlarged image data stored in the predetermined storage means during a period of displaying the predetermined image using the second predetermined image data. A gaming machine according to G2.

特徴G3によれば、第2所定画像データを拡大させた後は拡大後画像データが所定記憶手段において記憶保持されるため、第2所定画像データを複数の更新タイミングに亘って使用する場合における処理負荷を低減することが可能となる。   According to the feature G3, after the second predetermined image data is enlarged, the post-enlarged image data is stored and held in the predetermined storage unit, so that the processing when the second predetermined image data is used over a plurality of update timings. The load can be reduced.

特徴G4.前記表示制御手段は、前記所定画像を表示するための画像データとして、前記第2所定画像データの前記画像拡大手段による拡大後の拡大後画像データを使用する状態から前記第1所定画像データを使用する状態に切り換える使用対象設定手段(表示CPU72におけるステップS2015〜ステップS2020の処理を実行する機能、VDP76におけるステップS2111の処理を実行する機能)を備えていることを特徴とする特徴G1乃至G3のいずれか1に記載の遊技機。   Feature G4. The display control means uses the first predetermined image data from a state in which the image data after enlargement by the image enlargement means of the second predetermined image data is used as image data for displaying the predetermined image. Any of the features G1 to G3, characterized in that it includes use target setting means (a function for executing the processing of steps S2015 to S2020 in the display CPU 72 and a function of executing the processing of step S2111 in the VDP 76). A gaming machine according to claim 1.

特徴G4によれば、所定画像の表示を継続しながら、処理負荷を低減すべく第2所定画像データを使用する状況から画質を向上させるべく第1所定画像データを使用する状況に切り換えることが可能となる。   According to the feature G4, it is possible to switch from the situation in which the second predetermined image data is used to reduce the processing load to the situation in which the first predetermined image data is used to improve the image quality while continuing to display the predetermined image. It becomes.

特徴G5.前記使用対象設定手段は、前記表示部に表示される個別画像の数が増加するタイミングにおいて前記所定画像の表示を開始する場合、前記所定画像を表示するための画像データとして、前記拡大後画像データを使用し、その後に前記所定画像を表示するための画像データを前記第1所定画像データに切り換えることを特徴とする特徴G4に記載の遊技機。   Feature G5. When the display of the predetermined image is started at a timing when the number of individual images displayed on the display unit increases, the use target setting unit, as the image data for displaying the predetermined image, The game machine according to Feature G4, wherein the image data for displaying the predetermined image is switched to the first predetermined image data.

特徴G5によれば、個別画像の数が増加するタイミングにおいて所定画像の表示を開始しようとする場合、そのタイミングにおける画像データの読み出しに要する時間が局所的に長時間化するおそれがあるが、当該タイミングにおいては第2所定画像データを拡大した後の拡大後画像データを使用して所定画像を表示することで、当該読み出しに要する時間の長時間化を抑えることが可能となる。その一方、当該タイミングよりも後において第1所定画像データを使用することにより、画像データの読み出しに要する時間に余裕がある状況において第1所定画像データを読み出して所定画像の画質を高めることが可能となる。   According to the feature G5, when the display of a predetermined image is started at the timing when the number of individual images increases, there is a possibility that the time required for reading the image data at the timing may be locally long. By displaying the predetermined image using the enlarged image data after the second predetermined image data is enlarged at the timing, it is possible to suppress the time required for the reading from being prolonged. On the other hand, by using the first predetermined image data after the timing, it is possible to read the first predetermined image data and improve the image quality of the predetermined image in a situation where the time required for reading the image data is sufficient. It becomes.

特徴G6.前記表示制御手段は、前記第1所定画像データを用いて前記所定画像を表示する場合、複数の更新タイミングにおいて異なる前記第1所定画像データを用いることで前記所定画像の表示態様を変化させ、前記第2所定画像データを用いて前記所定画像を表示する場合、当該所定画像の表示態様を変化させないことを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。   Feature G6. When displaying the predetermined image using the first predetermined image data, the display control means changes the display mode of the predetermined image by using the first predetermined image data different at a plurality of update timings, and The gaming machine according to any one of features G1 to G5, wherein when the predetermined image is displayed using the second predetermined image data, a display mode of the predetermined image is not changed.

特徴G6によれば、第1所定画像データを用いて所定画像を表示する場合には当該所定画像の表示態様を変化させることで表示内容が画一化してしまわないようにすることができる一方、第2所定画像データを用いて所定画像を表示する場合には処理負荷の低減を優先させることが可能となる。   According to the feature G6, when the predetermined image is displayed using the first predetermined image data, the display content can be prevented from being uniformed by changing the display mode of the predetermined image. When a predetermined image is displayed using the second predetermined image data, it is possible to prioritize the reduction in processing load.

特徴G7.前記第1所定画像データは前記所定画像の表示態様を複数の更新タイミングに亘って変化させることができるように複数設けられており、前記第2所定画像データは1個のみ設けられていることを特徴とする特徴G1乃至G6のいずれか1に記載の遊技機。   Feature G7. A plurality of the first predetermined image data are provided so that a display mode of the predetermined image can be changed over a plurality of update timings, and only one second predetermined image data is provided. The gaming machine according to any one of features G1 to G6.

特徴G7によれば、第1所定画像データが複数設けられていることにより所定画像の表示態様を変化させることができるようにしながら、第2所定画像データは1個のみ設けられているため第2所定画像データを利用して所定画像を表示する場合の処理構成を簡素化することが可能となる。   According to the characteristic G7, since the display mode of the predetermined image can be changed by providing a plurality of the first predetermined image data, only the second predetermined image data is provided. It is possible to simplify the processing configuration when displaying a predetermined image using the predetermined image data.

なお、特徴G1〜G7のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one of the configurations of the features G1 to G7, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7 Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴H群>
特徴H1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、更新タイミングとなることで画像の内容を更新させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、前記表示部に第1特定個別画像(ループ演出用AキャラクタCH8)及び第2特定個別画像(ループ演出用BキャラクタCH9)を含めて複数の個別画像が表示されている状況において、前記第1特定個別画像の表示態様を変更するために必要な第1表示情報(座標データ)を導出すべく情報導出処理(補間表示期間用処理)の実行を開始し、前記第2特定個別画像の表示態様を変更するために必要な第2表示情報を導出すべく前記情報導出処理の実行を開始する導出処理実行手段(表示CPU131における補間表示期間用処理を実行する機能)を備え、
当該導出処理実行手段は、一の更新タイミングから次の更新タイミングまでの期間を特定期間とした場合に、前記第1表示情報及び前記第2表示情報のうち一方である所定表示情報を導出するための前記情報導出処理の実行を所定の特定期間において開始し、前記第1表示情報及び前記第2表示情報のうち他方である特定表示情報を導出するための前記情報導出処理の実行を前記所定の特定期間よりも後の前記特定期間において開始することを特徴とする遊技機。
<Feature H group>
Feature H1. Display means (symbol display device 41) having a display unit (display surface P);
An image is displayed on the display unit using the generated data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152), and the content of the image is updated at the update timing. Display control means (VDP135);
With
The data generation means displays a plurality of individual images including a first specific individual image (loop effect A character CH8) and a second specific individual image (loop effect B character CH9) on the display unit. , The information derivation process (interpolation display period process) is started to derive the first display information (coordinate data) necessary for changing the display mode of the first specific individual image, and the second specific information Derivation process execution means (a function for executing the interpolated display period process in the display CPU 131) for starting the execution of the information derivation process to derive the second display information necessary for changing the display mode of the individual image,
The derivation processing execution means derives predetermined display information that is one of the first display information and the second display information when the period from one update timing to the next update timing is a specific period. Execution of the information deriving process is started in a predetermined specific period, and the information deriving process for deriving specific display information which is the other of the first display information and the second display information is performed in the predetermined period A gaming machine that starts in the specific period after the specific period.

特徴H1によれば、表示部に第1特定個別画像及び第2特定個別画像を含めて複数の個別画像が表示されている状況においてそれら第1特定個別画像及び第2特定個別画像の表示態様が変更される場合、当該表示態様を変更するために必要な第1表示情報の導出開始と、第2表示情報の導出開始とが異なる特定期間において行われる。これにより、第1表示情報の導出開始と第2表示情報の導出開始とが同一の特定期間において行われる構成に比べ、一の特定期間において処理負荷が極端に高くなってしまう事象が発生しないようにすることが可能となる。よって、第1特定個別画像及び第2特定個別画像の表示態様の変更を好適に行うことが可能となり、表示制御を好適に行うことが可能となる。   According to the feature H1, in the situation where a plurality of individual images including the first specific individual image and the second specific individual image are displayed on the display unit, the display mode of the first specific individual image and the second specific individual image is When changed, the start of derivation of the first display information necessary for changing the display mode and the start of derivation of the second display information are performed in different specific periods. This prevents an event that the processing load becomes extremely high in one specific period compared to a configuration in which the start of derivation of the first display information and the start of derivation of the second display information are performed in the same specific period. It becomes possible to. Therefore, it is possible to suitably change the display mode of the first specific individual image and the second specific individual image, and it is possible to suitably perform display control.

特徴H2.前記導出処理実行手段は、前記特定表示情報を導出するための前記情報導出処理の実行を前記所定の特定期間に対して次の前記特定期間において開始することを特徴とする特徴H1に記載の遊技機。   Feature H2. The game according to claim H1, wherein the derivation process execution means starts execution of the information derivation process for deriving the specific display information in the specific period next to the predetermined specific period. Machine.

特徴H2によれば、第1表示情報の導出開始タイミングと第2表示情報の導出開始タイミングとのずれを最小限に抑えながら、一の特定期間において処理負荷が極端に高くなってしまう事象が発生しないようにすることが可能となる。   According to the feature H2, an event occurs in which the processing load becomes extremely high in one specific period while minimizing the difference between the derivation start timing of the first display information and the derivation start timing of the second display information. It becomes possible not to do.

特徴H3.前記表示制御手段は、前記所定表示情報を導出するための前記情報導出処理の実行が開始された場合、前記特定表示情報を導出するための前記情報導出処理の実行が開始されていなくても、前記第1特定個別画像及び前記第2特定個別画像のうち前記所定表示情報の使用対象となる側において当該所定表示情報を使用した表示を開始することを特徴とする特徴H1又はH2に記載の遊技機。   Feature H3. When the execution of the information derivation process for deriving the predetermined display information is started, the display control means, even if the execution of the information derivation process for deriving the specific display information is not started, The game according to claim H1 or H2, wherein display using the predetermined display information is started on a side of the first specific individual image and the second specific individual image on which the predetermined display information is to be used. Machine.

特徴H3によれば、第1表示情報の導出開始タイミングと第2表示情報の導出開始タイミングとを意図的にずらした構成であっても、第1特定個別画像及び第2特定個別画像の表示態様の変更を早期に開始することが可能となる。   According to the feature H3, even if the derivation start timing of the first display information and the derivation start timing of the second display information are intentionally shifted, the display mode of the first specific individual image and the second specific individual image This change can be started early.

特徴H4.前記表示制御手段は、前記第1特定個別画像が第1所定動作表示(ループ演出用AキャラクタCH8の第1ループ演出態様)に続けて第1特定動作表示(ループ演出用AキャラクタCH8の補間表示期間の態様)を行い、前記第2特定個別画像が前記第2所定動作表示(ループ演出用BキャラクタCH9の第1ループ演出態様)に続けて第2特定動作表示(ループ演出用BキャラクタCH9の補間表示期間の態様)を行うように画像の内容を更新し、
前記第1表示情報は前記第1特定動作表示を行わせるための情報であり、前記第2表示情報は前記第2特定動作表示を行わせるための情報であることを特徴とする特徴H1乃至H3のいずれか1に記載の遊技機。
Feature H4. The display control means includes a first specific operation display (interpolation display of the loop effect A character CH8) following the first predetermined operation display (the first loop effect mode of the loop effect A character CH8). The second specific individual image is displayed after the second predetermined action display (the first loop effect form of the loop effect B character CH9) and the second specific action display (the loop effect B character CH9). Update the content of the image to perform the interpolation display period mode)
The first display information is information for performing the first specific operation display, and the second display information is information for performing the second specific operation display. H1 to H3 The gaming machine according to any one of the above.

特徴H4によれば、各表示情報の導出を開始する特定期間をずらすことで第1特定個別画像及び第2特定個別画像の特定動作表示の開始タイミングがずれたとしても、第1特定個別画像及び第2特定個別画像のそれぞれが所定動作表示に続けて特定動作表示を行う構成であるため、そのずれの内容も動作表示の一連の内容であると遊技者に認識させることが可能となる。よって、遊技者に違和感を与えないようにしながら処理負荷を分散させることが可能となる。   According to the feature H4, even if the start timing of the specific operation display of the first specific individual image and the second specific individual image is shifted by shifting the specific period for starting the derivation of each display information, the first specific individual image and Since each of the second specific individual images is configured to perform a specific action display following a predetermined action display, it is possible to make the player recognize that the content of the deviation is also a series of contents of the action display. Therefore, it is possible to distribute the processing load without giving the player a sense of incongruity.

特徴H5.前記所定表示情報を導出するための前記情報導出処理の実行を開始するタイミングにおける前記第1特定個別画像の動作態様と前記第2特定個別画像の動作態様とが相違していることを特徴とする特徴H4に記載の遊技機。   Feature H5. An operation mode of the first specific individual image is different from an operation mode of the second specific individual image at a timing of starting execution of the information derivation process for deriving the predetermined display information. A gaming machine according to Feature H4.

特徴H5によれば、各表示情報の導出を開始する特定期間をずらすことで第1特定個別画像及び第2特定個別画像の特定動作表示の開始タイミングがずれたとしても、情報導出処理の実行を開始するタイミングにおける第1特定個別画像の動作態様と第2特定個別画像の動作態様とが相違していることにより、その動作態様の相違によって開始タイミングのずれが目立たなくなる。よって、遊技者に違和感を与えないようにしながら処理負荷を分散させることが可能となる。   According to the feature H5, even if the specific operation display start timing of the first specific individual image and the second specific individual image is shifted by shifting the specific period for starting the derivation of each display information, the information derivation process is executed. Since the operation mode of the first specific individual image is different from the operation mode of the second specific individual image at the start timing, the difference in the start timing becomes inconspicuous due to the difference in the operation mode. Therefore, it is possible to distribute the processing load without giving the player a sense of incongruity.

特徴H6.前記第1所定動作表示が終了するタイミングにおける前記第1特定個別画像の動作態様は予め定められた態様であり、前記第2所定動作表示が終了するタイミングにおける前記第2特定個別画像の動作態様は予め定められた態様であり、
前記所定表示情報は前記第1表示情報であり、前記特定表示情報は前記第2表示情報であることを特徴とする特徴H4又はH5に記載の遊技機。
Feature H6. The operation mode of the first specific individual image at the timing when the first predetermined operation display ends is a predetermined mode, and the operation mode of the second specific individual image at the timing when the second predetermined operation display ends is It is a predetermined aspect,
The gaming machine according to claim H4 or H5, wherein the predetermined display information is the first display information, and the specific display information is the second display information.

特徴H6によれば、第1表示情報及び第2表示情報のうちいずれから情報導出処理を開始するのかが予め定められていることにより、情報導出処理を先に開始する対象を状況に応じて変更する必要がない点で処理構成の簡素化が図られる。また、所定動作表示が終了するタイミングにおける各特定個別画像の動作態様が定められているため、第1表示情報及び第2表示情報のうちいずれから情報導出処理を開始するのかが予め定められていたとしても、表示内容を視認した遊技者に違和感を与えないようにすることが可能となる。   According to the feature H6, since the information derivation process is started from either the first display information or the second display information in advance, the target to start the information derivation process is changed according to the situation. This simplifies the processing configuration in that it is not necessary to do so. Further, since the operation mode of each specific individual image at the timing when the predetermined operation display ends is determined, it has been determined in advance from which of the first display information and the second display information the information derivation process is started. However, it is possible to prevent the player who visually recognizes the display contents from feeling uncomfortable.

特徴H7.前記第1特定個別画像が前記第1所定動作表示を行い前記第2特定個別画像が前記第2所定動作表示を行っている状況において不規則に発生する切換契機が発生したことに基づいて、前記第1特定動作表示及び前記第2特定動作表示が開始される構成であり、
前記導出処理実行手段は、前記切換契機が発生したタイミングに応じて、前記第1表示情報及び前記第2表示情報のうち前記情報導出処理を先に開始する対象を決定する先開始決定手段(表示CPU131におけるステップS2702の処理を実行する機能)を備えていることを特徴とする特徴H4又はH5に記載の遊技機。
Feature H7. Based on the occurrence of a switching opportunity that occurs irregularly in a situation where the first specific individual image performs the first predetermined operation display and the second specific individual image performs the second predetermined operation display, The first specific operation display and the second specific operation display are started,
The derivation process executing means determines a destination start determination means (display) that determines a target to start the information derivation process first among the first display information and the second display information according to the timing at which the switching trigger occurs. A gaming machine according to Feature H4 or H5, wherein the gaming machine is provided with a function of executing the processing of Step S2702 in the CPU 131).

特徴H7によれば、所定動作表示を行っている状況から特定動作表示を行っている状況への切換契機が不規則に発生する構成であるため、表示内容を多様化することが可能となる。この場合に、切換契機が発生したタイミングに応じて、第1表示情報及び第2表示情報のうちいずれから情報導出処理を開始するのかが決定されるため、遊技者に違和感を与えづらい順序で特定動作表示を開始することが可能となる。   According to the feature H7, the display content can be diversified because the switching trigger from the situation where the predetermined action display is performed to the situation where the specific action display is performed irregularly occurs. In this case, since it is determined from which of the first display information and the second display information the information derivation process is started according to the timing when the switching opportunity occurs, it is specified in an order that makes it difficult for the player to feel uncomfortable. The operation display can be started.

特徴H8.前記データ生成手段は、
予め記憶された第1所定動作情報(Aキャラクタ用の第1アニメーションデータAD1)に従って、前記第1特定個別画像に前記第1所定動作表示を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
予め記憶された第1特別動作情報(Aキャラクタ用の第2アニメーションデータAD2)に従って、前記第1特定個別画像に第1特別動作表示(ループ演出用AキャラクタCH8の第2ループ演出態様)を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
予め記憶された第2所定動作情報(Bキャラクタ用の第1アニメーションデータAD3)に従って、前記第2特定個別画像に前記第2所定動作表示を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
予め記憶された第2特別動作情報(Bキャラクタ用の第2アニメーションデータAD4)に従って、前記第2特定個別画像に第2特別動作表示(ループ演出用BキャラクタCH9の第2ループ演出態様)を行わせるための情報を導出する手段(表示CPU131におけるステップS2407の処理を実行する機能)と、
を備え、
前記第1特定動作表示は前記第1所定動作表示が行われた後であって前記第1特別動作表示が行われる前に行われ、
前記第2特定動作表示は前記第2所定動作表示が行われた後であって前記第2特別動作表示が行われる前に行われ、
前記導出処理実行手段は、前記第1所定動作情報と前記第1特別動作情報とを使用して前記情報導出処理を実行することにより前記第1表示情報を導出し、前記第2所定動作情報と前記第2特別動作情報とを使用して前記情報導出処理を実行することにより前記第2表示情報を導出することを特徴とする特徴H4乃至H7のいずれか1に記載の遊技機。
Feature H8. The data generation means includes
Means for deriving information for causing the first specific individual image to display the first predetermined motion according to the first predetermined motion information (first animation data AD1 for A character) stored in advance (step in the display CPU 131) The function of executing the processing of S2407),
In accordance with first special action information (second animation data AD2 for A character) stored in advance, a first special action display (second loop effect mode of A character CH8 for loop effect) is performed on the first specific individual image. Means for deriving information (function to execute the process of step S2407 in the display CPU 131),
Means for deriving information for performing the second predetermined motion display on the second specific individual image according to the second predetermined motion information (first animation data AD3 for B character) stored in advance (step in the display CPU 131) The function of executing the processing of S2407),
In accordance with second special action information (second animation data AD4 for B character) stored in advance, a second special action display (second loop effect mode of B character CH9 for loop effect) is performed on the second specific individual image. Means for deriving information (function to execute the process of step S2407 in the display CPU 131),
With
The first specific operation display is performed after the first predetermined operation display is performed and before the first special operation display is performed,
The second specific action display is performed after the second predetermined action display is performed and before the second special action display is performed,
The derivation process execution means derives the first display information by executing the information derivation process using the first predetermined movement information and the first special movement information, and the second predetermined movement information and The gaming machine according to any one of features H4 to H7, wherein the second display information is derived by executing the information derivation process using the second special operation information.

特徴H8によれば、各所定動作表示と各特別動作表示との間において、予め記憶された所定動作情報及び特別動作情報を利用して導出された情報に基づき特定動作表示が行われることにより、予め情報を記憶しておくのに必要な情報量を抑えながら、所定動作表示を行っている状態から特別動作表示を行っている状態に表示内容を滑らかに変化させることが可能となる。但し、所定動作情報及び特別動作情報を利用して表示情報を導出する処理を一の特定期間においてまとめて行おうとすると処理負荷が極端に大きくなってしまうおそれがあるが、上記特徴H1にて記載した構成を備え、第1特定個別画像と第2特定個別画像とで異なる特定期間において表示情報の導出が開始されるため、処理負荷を分散することが可能となる。   According to the feature H8, between each predetermined operation display and each special operation display, the specific operation display is performed based on the information derived using the predetermined operation information and the special operation information stored in advance, It is possible to smoothly change the display content from the state where the predetermined operation display is performed to the state where the special operation display is performed while suppressing the amount of information necessary to store information in advance. However, if processing for deriving display information using predetermined operation information and special operation information is performed together in one specific period, the processing load may become extremely large. Since the derivation of display information is started in different specific periods between the first specific individual image and the second specific individual image, the processing load can be distributed.

なお、特徴H1〜H8のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one configuration of the features H1 to H8, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴I群>
特徴I1.表示部(表示面P)を有する表示手段(図柄表示装置41)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させる表示制御手段(VDP135)と、
を備え、
前記データ生成手段は、色情報を規定する数値情報が対応付けられた単位データを複数有する色規定画像データ(背景用テクスチャデータGTD1)を表示用記憶手段(メモリモジュール133)から読み出して利用することにより前記生成データを生成する構成であり、
前記表示用記憶手段は、前記色規定画像データと同様に前記単位データを複数有する調整用データ(第1屈折用テクスチャデータGTD2、第2屈折用テクスチャデータGTD3)を予め記憶しており、
前記データ生成手段は、前記調整用データの前記単位データから導出される数値情報を色情報とは異なる所定調整情報として利用することにより、前記色規定画像データを用いて表示される対応個別画像の表示内容を調整する内容調整手段(VDP135におけるステップS4103〜ステップS4107の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature I group>
Feature I1. Display means (symbol display device 41) having a display unit (display surface P);
Display control means (VDP135) for displaying an image on the display unit using generated data (drawing data) generated by data generation means (display CPU 131, geometry calculation unit 151 and rendering unit 152);
With
The data generation means reads out and uses color defining image data (background texture data GTD1) having a plurality of unit data associated with numerical information defining color information from the display storage means (memory module 133). The generation data is generated by
The display storage means stores in advance adjustment data (first refraction texture data GTD2, second refraction texture data GTD3) having a plurality of the unit data in the same manner as the color defining image data,
The data generation means uses numerical information derived from the unit data of the adjustment data as predetermined adjustment information different from the color information, so that the corresponding individual image displayed using the color defining image data is displayed. A gaming machine comprising content adjusting means for adjusting display content (function for executing the processing of steps S4103 to S4107 in the VDP 135).

特徴I1によれば、所定調整情報を利用することにより対応個別画像の表示内容が調整されるため、同一の色規定画像データを利用しながら表示内容を多様化させることが可能となる。この場合に、所定調整情報は、色規定画像データと同様に複数の単位データを有する調整用データを利用して導出される。これにより、色規定画像データと同様のデータとして表示用記憶手段に記憶されている調整用データを利用して対応個別画像の表示内容を調整することが可能となり、色規定画像データとはデータ形式が異なるデータとして調整用データを用意する構成に比べ、データを読み出すための処理及び読み出した後の一時記憶するための処理内容を共通化しながら対応個別画像の表示内容を調整することが可能となる。よって、表示制御を好適に行うことが可能となる。   According to the feature I1, since the display content of the corresponding individual image is adjusted by using the predetermined adjustment information, the display content can be diversified while using the same color-defined image data. In this case, the predetermined adjustment information is derived by using adjustment data having a plurality of unit data in the same manner as the color defining image data. As a result, it is possible to adjust the display content of the corresponding individual image using the adjustment data stored in the display storage means as the same data as the color stipulated image data. Compared to a configuration in which adjustment data is prepared as different data, it is possible to adjust the display content of the corresponding individual image while sharing the processing for reading the data and the processing for temporarily storing the data after the reading. . Therefore, display control can be suitably performed.

特徴I2.前記単位データは、ベース色に対応したベース色対応データ(R値、G値、B値)を複数有しており、
前記内容調整手段は、前記調整用データの前記単位データに設定されている複数のベース色対応データから導出される数値情報を利用して前記所定調整情報を特定することを特徴とする特徴I1に記載の遊技機。
Feature I2. The unit data includes a plurality of base color correspondence data (R value, G value, B value) corresponding to the base color,
The feature adjustment unit specifies the predetermined adjustment information by using numerical information derived from a plurality of base color correspondence data set in the unit data of the adjustment data. The gaming machine described.

特徴I2によれば、調整用データの単位データに設定されている複数のベース色対応情報を利用して所定調整情報を導出することにより、所定調整情報の内容を細かく制御することが可能となる。   According to the feature I2, it is possible to finely control the content of the predetermined adjustment information by deriving the predetermined adjustment information using a plurality of pieces of base color correspondence information set in the unit data of the adjustment data. .

特徴I3.前記単位データは、ベース色に対応したベース色対応データ(R値、G値、B値)を複数有しており、
前記内容調整手段は、前記調整用データの前記単位データに設定されている複数のベース色対応データのうち一部のデータから導出される数値情報を利用して前記所定調整情報を特定することを特徴とする特徴I1又はI2に記載の遊技機。
Feature I3. The unit data includes a plurality of base color correspondence data (R value, G value, B value) corresponding to the base color,
The content adjusting means specifies the predetermined adjustment information using numerical information derived from some data among a plurality of base color correspondence data set in the unit data of the adjustment data. The gaming machine according to the feature I1 or I2.

特徴I3によれば、調整用データの単位データに設定されている複数のベース色対応データのうち一部のデータを利用して所定調整情報を導出することにより、全てのベース色対応データを利用して所定調整情報を導出する構成に比べて所定調整情報を導出するための処理負荷を低減することが可能となる。   According to the feature I3, all the base color correspondence data is used by deriving predetermined adjustment information using a part of the plurality of base color correspondence data set in the unit data of the adjustment data. Thus, the processing load for deriving the predetermined adjustment information can be reduced as compared with the configuration for deriving the predetermined adjustment information.

特徴I4.前記データ生成手段は、
仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、
を有し、
前記色規定画像データは、前記オブジェクトデータに対して設定されるテクスチャデータであることを特徴とする特徴I1乃至I3のいずれか1に記載の遊技機。
Feature I4. The data generation means includes
An arrangement unit (a function for executing the processing of steps S2302 to S2304 in the VDP 135) that arranges object data that is three-dimensional information in a virtual three-dimensional space;
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function for executing the process of step S2306 in the VDP 135);
A drawing setting unit that projects the object data onto a projection plane set based on the viewpoint and generates generation data based on the data projected onto the projection plane (performs the processing of steps S2310 to S2312 in the VDP 135) Function)
Have
The gaming machine according to any one of features I1 to I3, wherein the color defining image data is texture data set for the object data.

特徴I4によれば、テクスチャデータとして用意されている調整用データを利用して所定調整情報を導出することが可能となる。   According to the feature I4, it is possible to derive predetermined adjustment information using adjustment data prepared as texture data.

特徴I5.前記内容調整手段は、前記所定調整情報を利用することにより前記オブジェクトデータの内容を調整するのではなく、前記テクスチャデータにおける前記単位データの内容を調整することを特徴とする特徴I4に記載の遊技機。   Feature I5. The game according to claim I4, wherein the content adjustment means adjusts the content of the unit data in the texture data, rather than adjusting the content of the object data by using the predetermined adjustment information. Machine.

特徴I5によれば、所定調整情報を利用してオブジェクトデータの内容を調整するのではなく、テクスチャデータにおける単位データの内容を調整する構成であるため、調整する対象を3次元情報ではなく2次元情報とすることが可能となり、調整を行うための処理負荷を低減することが可能となる。   According to the feature I5, since the content of the unit data in the texture data is adjusted instead of adjusting the content of the object data using the predetermined adjustment information, the target to be adjusted is not two-dimensional information but two-dimensional information. It becomes possible to use information, and it is possible to reduce the processing load for performing the adjustment.

特徴I6.前記内容調整手段は、前記オブジェクトデータに設定する前の状態において前記所定調整情報を利用して前記テクスチャデータの内容を調整することを特徴とする特徴I5に記載の遊技機。   Feature I6. The gaming machine according to the characteristic I5, wherein the content adjusting unit adjusts the content of the texture data using the predetermined adjustment information in a state before setting the object data.

特徴I6によれば、テクスチャデータをオブジェクトデータに設定した後におけるデータ状態に影響を受けることなく所定調整情報を利用した調整を行うことが可能であるため、当該調整を行い易くなる。   According to the feature I6, the adjustment using the predetermined adjustment information can be performed without being affected by the data state after the texture data is set as the object data, so that the adjustment can be easily performed.

特徴I7.前記内容調整手段は、前記所定調整情報を利用することにより、前記色規定画像データを用いて表示される対応個別画像の歪み表示を行わせることを特徴とする特徴I1乃至I6のいずれか1に記載の遊技機。   Feature I7. In any one of the characteristics I1 to I6, the content adjustment unit causes the corresponding individual image displayed using the color-defining image data to be distorted by using the predetermined adjustment information. The gaming machine described.

特徴I7によれば、色規定画像データと同様のデータとして表示用記憶手段に記憶されている調整用データを利用して対応個別画像の歪み表示を行うことが可能となる。   According to the feature I7, it is possible to perform distortion display of the corresponding individual image using the adjustment data stored in the display storage unit as data similar to the color defining image data.

なお、特徴I1〜I7のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   Note that for any one of the configurations of the features I1 to I7, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7 are used. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

<特徴J群>
特徴J1.仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段(VDP135におけるステップS2302〜ステップS2304の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS2306の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS2310〜ステップS2312の処理を実行する機能)と、を有するデータ生成手段によって生成された生成データを記憶する生成データ記憶手段(フレームバッファ142)と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置41)に表示させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記データ生成手段は、所定調整情報に基づいてオブジェクトデータ(背景用板状オブジェクトデータGSD)の内容を調整するのではなく、当該オブジェクトデータに対して設定されるテクスチャデータ(背景用テクスチャデータGTD1)の内容を前記所定調整情報に基づき調整することにより、これらオブジェクトデータ及びテクスチャデータを用いて表示される対応個別画像の表示内容を調整する内容調整手段(VDP135におけるステップS4103〜ステップS4107の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature J group>
Feature J1. Arranging means for arranging object data as three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S2302 to S2304 in the VDP 135) and viewpoint setting means for setting the viewpoint in the virtual three-dimensional space (VDP135) The function of executing the process of step S2306 in FIG. 2) and projecting the object data onto a projection plane set based on the viewpoint, and generating generation data (drawing data) based on the data projected onto the projection plane. Generation data storage means (frame buffer 142) for storing the generated data generated by the data generation means having drawing setting means (function to execute the processing of steps S2310 to S2312 in the VDP 135);
Display control means (VDP135) for causing the display means (symbol display device 41) to display an image corresponding to the generated data stored in the generated data storage means;
In gaming machines equipped with
The data generating means does not adjust the content of the object data (background plate-like object data GSD) based on the predetermined adjustment information, but texture data (background texture data GTD1) set for the object data. Is adjusted based on the predetermined adjustment information to adjust the display content of the corresponding individual image displayed using the object data and texture data (the processing of steps S4103 to S4107 in the VDP 135 is executed) A gaming machine characterized by having a function of

特徴J1によれば、所定調整情報を利用してオブジェクトデータの内容を調整するのではなく、テクスチャデータにおける単位データの内容を調整する構成であるため、調整する対象を3次元情報ではなく2次元情報とすることが可能となり、調整を行うための処理負荷を低減することが可能となる。よって、表示制御を好適に行うことが可能となる。   According to the feature J1, since the content of the unit data in the texture data is adjusted instead of adjusting the content of the object data using the predetermined adjustment information, the adjustment target is not 3D information but 2D. It becomes possible to use information, and it is possible to reduce the processing load for performing the adjustment. Therefore, display control can be suitably performed.

特徴J2.前記内容調整手段は、前記オブジェクトデータに設定する前の状態において前記所定調整情報を利用して前記テクスチャデータの内容を調整することを特徴とする特徴J1に記載の遊技機。   Feature J2. The game machine according to Feature J1, wherein the content adjustment means adjusts the content of the texture data using the predetermined adjustment information in a state before setting the object data.

特徴J2によれば、テクスチャデータをオブジェクトデータに設定した後におけるデータ状態に影響を受けることなく所定調整情報を利用した調整を行うことが可能であるため、当該調整を行い易くなる。   According to the feature J2, the adjustment using the predetermined adjustment information can be performed without being affected by the data state after the texture data is set as the object data, so that the adjustment can be easily performed.

なお、特徴J1〜J2のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   Note that for any one of the configurations of the features J1 to J2, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

上記特徴A群〜上記特徴J群の各発明は、以下の課題を解決することが可能である。   The inventions of the above-described feature group A to feature group J can solve the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

ここで、上記例示等のような遊技機においては、表示制御を好適に行うことが可能な構成が求められており、この点について未だ改良の余地がある。   Here, in the gaming machines such as the above-described examples, a configuration capable of suitably performing display control is required, and there is still room for improvement in this respect.

<特徴K群>
特徴K1.演出の実行内容を決定する第1制御手段(音光側MPU62)と、
当該第1制御手段が送信した送信情報に基づいて演出実行手段(図柄表示装置41)を制御する第2制御手段(表示CPU72)と、
を備え、
所定実行契機が発生した場合に前記演出実行手段において契機対応演出(予告表示)が実行される構成であり、
当該契機対応演出は、実行有無及び内容の少なくとも一方である変動対象内容が変動する演出要素(第2種別の内容)を複数有し、
それら複数の演出要素についての変動対象内容の組合せパターンにより前記契機対応演出の実行パターンが相違する構成であり、
前記第1制御手段は、前記契機対応演出を実行させるための送信情報を送信する場合、所定の演出要素の前記変動対象内容に対応する対応送信情報(第1コマンドデータCD1、第2コマンドデータCD2、第3コマンドデータCD3)と、他の演出要素の前記変動対象内容に対応する対応送信情報(第1コマンドデータCD1、第2コマンドデータCD2、第3コマンドデータCD3)とを区別して送信する情報送信手段(音光側MPU62におけるコマンド選択処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature K group>
Feature K1. First control means (sound light side MPU 62) for determining the execution content of the production;
Second control means (display CPU 72) for controlling the effect execution means (symbol display device 41) based on the transmission information transmitted by the first control means;
With
When a predetermined execution opportunity occurs, the effect execution means (preliminary display) is executed in the effect execution means,
The opportunity corresponding effect includes a plurality of effect elements (contents of the second type) in which the content to be changed that is at least one of execution presence and content changes.
The execution pattern of the opportunity corresponding effect is different depending on the combination pattern of the contents to be changed for the plurality of effect elements,
When transmitting the transmission information for executing the opportunity corresponding effect, the first control means corresponds to the corresponding transmission information (first command data CD1, second command data CD2) corresponding to the variation target contents of a predetermined effect element. , The third command data CD3) and the corresponding transmission information (the first command data CD1, the second command data CD2, the third command data CD3) corresponding to the contents to be changed of other effect elements and transmitted. A gaming machine comprising a transmission means (function for executing a command selection process in the sound light side MPU 62).

特徴K1によれば、複数の演出要素についての変動対象内容の組合せパターンにより契機対応演出の実行パターンが相違する構成であるため、契機対応演出の演出内容を多様化することが可能となる。この場合に、所定の演出要素の変動対象内容に対応する第1対応送信情報と、他の演出要素の変動対象内容に対応する第2対応送信情報とが区別して送信される構成であるため、演出要素の数を増減させる場合や、変動対象内容を変更する場合であっても、対応する演出要素の単位で対応送信情報の変更を行えばよいため、送信情報の設計の容易化が図られる。   According to the feature K1, since the execution pattern of the opportunity corresponding effect is different depending on the combination pattern of the contents to be varied for the plurality of effect elements, the effect content of the opportunity corresponding effect can be diversified. In this case, since the first corresponding transmission information corresponding to the variation target content of the predetermined effect element and the second corresponding transmission information corresponding to the variation target content of the other effect element are transmitted separately, Even if the number of effect elements is increased or decreased, or the contents to be changed are changed, it is only necessary to change the corresponding transmission information in units of the corresponding effect elements, so that the design of transmission information can be facilitated. .

特徴K2.前記所定の演出要素及び前記他の演出要素のそれぞれは同時に実行される演出内容を決定付けることを特徴とする特徴K1に記載の遊技機。   Feature K2. Each of the predetermined effect element and the other effect elements determines the effect content to be executed simultaneously, The gaming machine according to the feature K1.

特徴K2によれば、同時に実行される演出内容を決定付ける複数の演出要素であっても、それら演出要素の変動対象内容を第2制御手段に特定させるための対応送信情報が演出要素の種類毎に送信される構成であるため、送信情報の設計の容易化が図られる。   According to the feature K2, even if there are a plurality of effect elements that determine the effect contents to be executed at the same time, the corresponding transmission information for causing the second control means to specify the contents to be changed of the effect elements is different for each effect element type. Therefore, the design of transmission information can be facilitated.

特徴K3.前記第1制御手段は、前記契機対応演出を実行させるために必要な対応送信情報の全てを送信したことを示す終了送信情報(終了コマンド)を送信する終了送信手段(音光側MPU62におけるステップS509の処理を実行する機能)を備えていることを特徴とする特徴K1又はK2に記載の遊技機。   Feature K3. The first control means transmits end transmission information (end command) indicating that all the corresponding transmission information necessary for executing the opportunity response effect is transmitted (end transmission means (step S509 in the sound light side MPU 62). A game machine according to the feature K1 or K2.

特徴K3によれば、演出要素の単位で対応送信情報が送信される構成において契機対応演出を実行させるために必要な対応送信情報の全てが送信された場合には終了送信情報が送信されるため、契機対応演出に含まれる演出要素の数を固定しなくても契機対応演出を実行するために必要な全ての対応送信情報の送信が完了したことを第2制御手段に認識させることが可能となる。   According to the feature K3, the end transmission information is transmitted when all of the corresponding transmission information necessary for executing the opportunity response effect is transmitted in the configuration in which the corresponding transmission information is transmitted in units of effect elements. The second control means can recognize that the transmission of all the corresponding transmission information necessary for executing the opportunity response effect has been completed without fixing the number of effect elements included in the event response effect. Become.

特徴K4.前記第2制御手段は、
受信した前記対応送信情報を情報格納手段(コマンド格納バッファ101)に格納する格納実行手段(表示CPU72におけるコマンド割込み処理を実行する機能)と、
前記終了送信情報を受信した場合に、前記情報格納手段に格納されている複数の対応送信情報に対応する前記契機対応演出を実行するために用いられる参照情報(実行対象テーブル)を設定する参照情報設定手段(表示CPU72におけるコマンド対応処理を実行する機能)と、
を備えていることを特徴とする特徴K3に記載の遊技機。
Feature K4. The second control means includes
Storage execution means for storing the received corresponding transmission information in the information storage means (command storage buffer 101) (function for executing command interrupt processing in the display CPU 72);
Reference information for setting reference information (execution target table) used to execute the trigger corresponding effect corresponding to a plurality of corresponding transmission information stored in the information storage means when the end transmission information is received Setting means (function for executing command response processing in the display CPU 72);
The gaming machine according to Feature K3, comprising:

特徴K4によれば、第2制御手段は契機対応演出を実行するために必要な全ての対応送信情報を受信した後に、契機対応演出を実行するために用いられる参照情報を設定する構成であるため、演出要素の変動対象内容のそれぞれに対応する参照情報を設定するのではなく、全ての演出要素の変動対象内容の全てに対応する一の参照情報を設定することが可能となる。   According to the feature K4, the second control unit is configured to set the reference information used to execute the trigger response effect after receiving all the corresponding transmission information necessary to execute the trigger response effect. Instead of setting the reference information corresponding to each variation target content of the production element, it is possible to set one reference information corresponding to all the variation target content of all the production elements.

特徴K5.前記対応送信情報は、当該対応送信情報に対応する演出要素の大枠の内容を特定するための大枠情報(第1コマンドデータCD1)と、当該大枠情報に対応する大枠の内容に含まれる分岐内容のうちいずれを実行するのかを特定するための分岐情報(第2コマンドデータCD2、第3コマンドデータCD3)と、を含むことを特徴とする特徴K1乃至K4のいずれか1に記載の遊技機。   Feature K5. The correspondence transmission information includes outline information (first command data CD1) for specifying the contents of the outline of the effect element corresponding to the correspondence transmission information, and branch contents included in the contents of the outline corresponding to the outline information. The game machine according to any one of features K1 to K4, including branch information (second command data CD2 and third command data CD3) for specifying which of them is executed.

特徴K5によれば、一の対応送信情報においても大枠情報と分岐情報とに区分けされているため、一の対応送信情報についても設計の容易化が図られる。   According to the feature K5, even one piece of corresponding transmission information is divided into broad frame information and branch information, so that the design of one piece of correspondence transmission information can be facilitated.

特徴K6.前記第2制御手段は、同一の前記分岐情報の内容であっても前記大枠情報の内容により前記分岐情報から異なる内容を把握することを特徴とする特徴K5に記載の遊技機。   Feature K6. The gaming machine according to feature K5, wherein the second control means grasps different contents from the branch information according to the contents of the outline information even if the contents of the same branch information are the same.

特徴K6によれば、複数の対応送信情報間において分岐情報が共通して使用される構成であるため、送信対応情報を予め記憶しておくために必要な記憶容量を抑えることが可能となる。   According to the feature K6, since the branch information is used in common among a plurality of pieces of corresponding transmission information, it is possible to suppress the storage capacity necessary for storing the transmission correspondence information in advance.

なお、特徴K1〜K6のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one of the features K1 to K6, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

上記特徴K群の発明は、以下の課題を解決することが可能である。   The invention of the above-mentioned feature K group can solve the following problems.

遊技機の一種として、パチンコ機やスロットマシン等が知られている。これらの遊技機では、一の制御手段から送信されたコマンドを利用して他の制御手段にて当該コマンドに対応した制御が実行される構成が知られている。   As a kind of gaming machine, a pachinko machine or a slot machine is known. In these gaming machines, a configuration is known in which control corresponding to the command is executed by another control means using a command transmitted from one control means.

例えば、パチンコ機においては遊技の進行を制御する主制御手段から送信されたコマンドに基づいて演出用の制御手段にて演出の実行制御が行われる構成や、一の演出用の制御手段から送信されたコマンドに基づいて他の演出用の制御手段にて演出の実行制御が行われる構成が知られている。   For example, in a pachinko machine, the execution control of the production is performed by the production control unit based on the command transmitted from the main control unit that controls the progress of the game, or the one production control unit. There is known a configuration in which production execution control is performed by another production control means based on the command.

ここで、上記例示等のような遊技機においては、演出を実行させるために一の制御手段から他の制御手段に送信される送信情報の構成の好適化を図る必要があり、この点について未だ改良の余地がある。   Here, in a gaming machine such as the above-described example, it is necessary to optimize the configuration of transmission information transmitted from one control unit to another control unit in order to execute an effect. There is room for improvement.

<特徴L群>
特徴L1.開始契機が発生した場合に演算用情報(実行対象テーブル)を利用して演算処理を開始する演算実行手段(表示CPU72におけるタスク処理を実行する機能)と、
前記演算処理の演算結果を利用して特定処理を実行する結果利用手段(表示CPU72におけるステップS609の処理を実行する機能、VDP76)と、
を備え、
前記演算実行手段は、所定の実行回における前記演算処理の途中で終了条件が成立して当該演算処理を途中で終了させた場合、当該所定の実行回に対して次の実行回において当該所定の実行回にて利用対象として設定された前記演算用情報を利用した前記演算処理を実行するための再実行手段(表示CPU72におけるステップS606、ステップS610及びステップS916の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature L group>
Feature L1. Calculation execution means (function for executing task processing in the display CPU 72) for starting calculation processing using the calculation information (execution target table) when a start trigger occurs;
Result utilization means (a function for executing the process of step S609 in the display CPU 72, VDP 76) that executes the specific process using the calculation result of the calculation process;
With
When the calculation execution means ends the calculation process in the middle of the calculation process in a predetermined execution time and ends the calculation process in the middle, the calculation execution means Re-execution means (a function for executing the processes of steps S606, S610, and S916 in the display CPU 72) for executing the calculation process using the calculation information set as the use target at the execution time is provided. A gaming machine characterized by

特徴L1によれば、演算処理の途中で終了条件が成立した場合には当該演算処理が途中で終了される構成であるため、演算処理の処理時間が変動して他の処理の実行が大きく制限されてしまうという事象の発生を阻止することが可能となる。また、演算処理が途中で終了された場合には次の実行回の演算処理において、その途中で終了した演算処理にて利用対象とされた演算用情報を利用した演算処理が再度実行される。これにより、演算処理が途中で終了され得る構成であったとしても、各演算用情報を利用した演算処理の実行を完了させることが可能となる。   According to the feature L1, when the end condition is satisfied in the middle of the arithmetic processing, the arithmetic processing is terminated in the middle. Therefore, the processing time of the arithmetic processing fluctuates and execution of other processing is greatly limited. It is possible to prevent the occurrence of an event of being done. In addition, when the arithmetic processing is terminated in the middle, in the next execution processing, the arithmetic processing using the calculation information that is the target of use in the arithmetic processing terminated in the middle is executed again. As a result, even if the calculation process can be terminated halfway, it is possible to complete the execution of the calculation process using each calculation information.

特徴L2.前記再実行手段は、前記所定の実行回に対して次の実行回において、前記所定の実行回にて終了した途中の内容から前記演算処理を再開することを特徴とする特徴L1に記載の遊技機。   Feature L2. The game according to Feature L1, wherein the re-execution means resumes the arithmetic processing from the content that was halfway completed at the predetermined execution time in the next execution time with respect to the predetermined execution time. Machine.

特徴L2によれば、前回の実行回において利用対象となった演算用情報を利用した演算処理が再度実行される場合には、前回の実行回にて終了した途中の内容から演算処理が再開されるため、新たな実行回において再開した演算処理を終了するのに要する時間を短縮することが可能となる。   According to the feature L2, when the calculation process using the calculation information that is the target of use in the previous execution time is executed again, the calculation process is restarted from the content that was completed in the previous execution time. For this reason, it is possible to reduce the time required to end the arithmetic processing resumed in a new execution time.

特徴L3.前記演算処理は複数種類の個別演算処理(ステップS902、ステップS903、ステップS906、ステップS909、ステップS912〜ステップS914)を含み、前記演算処理の各実行回においてそれら複数種類の個別演算処理が順次実行対象となる構成であり、
前記演算実行手段は、前記個別演算処理の実行途中において前記終了させる条件が成立したとしても当該個別演算処理の終了後に今回の前記演算処理を終了させることを特徴とする特徴L2に記載の遊技機。
Feature L3. The arithmetic processing includes a plurality of types of individual arithmetic processing (step S902, step S903, step S906, step S909, step S912 to step S914), and the plurality of types of individual arithmetic processing are sequentially executed in each execution time of the arithmetic processing. It is a target configuration,
The game machine according to Feature L2, wherein the calculation execution means ends the current calculation process after the completion of the individual calculation process even if the condition for termination is satisfied during the execution of the individual calculation process. .

特徴L3によれば、演算処理が途中で終了される場合であっても個別演算処理の途中で終了されることはないため、演算処理を途中から再開するための情報の設定処理の複雑化を抑えることが可能となる。   According to the feature L3, even if the calculation process is terminated in the middle, it is not terminated in the middle of the individual calculation process. Therefore, the information setting process for resuming the calculation process from the middle is complicated. It becomes possible to suppress.

特徴L4.前記演算処理は定期的に実行条件が成立する定期処理(V割込み処理)の一部の処理として実行され、
前記演算実行手段は、前記演算処理の途中で前記終了条件として前記実行条件が成立することで、当該演算処理を途中で終了させることを特徴とする特徴L1乃至L3のいずれか1に記載の遊技機。
Feature L4. The arithmetic processing is executed as a part of periodic processing (V interrupt processing) in which an execution condition is periodically satisfied,
The game according to any one of features L1 to L3, wherein the calculation execution unit ends the calculation process in the middle when the execution condition is satisfied as the end condition in the middle of the calculation process. Machine.

特徴L4によれば、定期処理の定期的な実行を担保しながら、各演算用情報を利用した演算処理の実行を完了させることが可能となる。   According to the feature L4, it is possible to complete the execution of the arithmetic processing using each calculation information while ensuring the periodic execution of the periodic processing.

特徴L5.前記演算実行手段は、前記所定の実行回において前記演算処理を途中で終了させた場合であっても優先事象(報知用の実行対象テーブルのセット)が発生している場合には、当該所定の実行回に対して次の実行回において、前記所定の実行回にて利用対象として設定された前記演算用情報を利用するのではなく、前記優先事象に対応する前記演算用情報を利用した前記演算処理を実行することを特徴とする特徴L1乃至L4のいずれか1に記載の遊技機。   Feature L5. The calculation execution means is configured to execute the predetermined event when a priority event (set of a notification execution target table) occurs even when the calculation process is terminated in the predetermined execution time. In the next execution time with respect to the execution time, the calculation using the calculation information corresponding to the priority event is used instead of using the calculation information set as a use target in the predetermined execution time. The gaming machine according to any one of features L1 to L4, wherein the processing is executed.

特徴L5によれば、途中で終了した演算処理にて演算用情報を利用した演算処理の再開よりも、優先事象に対応する演算用情報を利用した演算処理の実行が優先されるため、優先事象に対応する演算用情報を利用した演算処理の実行を遅延させないようにしながら既に説明したような優れた効果を奏することが可能となる。   According to the feature L5, since the execution of the arithmetic process using the calculation information corresponding to the priority event is prioritized over the resumption of the arithmetic process using the calculation information in the arithmetic process terminated in the middle, the priority event As described above, it is possible to achieve the excellent effects as described above while not delaying the execution of the calculation process using the calculation information corresponding to.

特徴L6.前記演算実行手段を有する特定制御手段は、前記再実行手段による前記演算処理の再実行の設定が行われることとなる場合、再実行対応情報(遅延コマンド)を送信する再実行対応送信手段(表示CPU72におけるステップS611の処理を実行する機能)を備えていることを特徴とする特徴L1乃至L5のいずれか1に記載の遊技機。   Feature L6. The specific control means having the arithmetic execution means is a re-execution corresponding transmission means (display) that transmits re-execution correspondence information (delay command) when the re-execution setting of the arithmetic processing is to be performed by the re-execution means. The gaming machine according to any one of features L1 to L5, wherein the gaming machine includes a function of executing the process of step S611 in the CPU 72).

特徴L6によれば、所定の実行回における演算処理が途中で終了されるとともにその次の実行回において当該演算処理が再度実行される場合には再実行対応情報が送信されるため、特定制御手段以外の動作を当該演算処理の再実行に対応させることが可能となる。   According to the feature L6, the re-execution correspondence information is transmitted when the arithmetic processing in the predetermined execution time is ended halfway and the arithmetic processing is executed again in the next execution time. Operations other than can be made to correspond to re-execution of the arithmetic processing.

特徴L7.前記特定制御手段とは別に所定制御手段(音光側MPU62)を備え、
当該所定制御手段は、前記再実行対応情報を受信した場合、所定処理の実行内容を調整する処理調整手段(音光側MPU62における表示側コマンド対応処理を実行する機能)を備えていることを特徴とする特徴L6に記載の遊技機。
Feature L7. In addition to the specific control means, a predetermined control means (sound light side MPU 62) is provided,
The predetermined control means includes a process adjustment means (a function for executing a display side command corresponding process in the sound light side MPU 62) that adjusts the execution content of the predetermined process when the re-execution correspondence information is received. The gaming machine according to Feature L6.

特徴L7によれば、演算処理の再実行が行われる場合には所定制御手段における所定処理の実行内容が調整されるため、特定処理の処理内容と所定処理の処理内容とを対応させることが可能となる。   According to the feature L7, when the re-execution of the arithmetic process is performed, the execution content of the predetermined process in the predetermined control unit is adjusted, so that the process content of the specific process can be associated with the process content of the predetermined process. It becomes.

特徴L8.前記結果利用手段は、前記特定処理として、前記演算処理の演算結果を利用して特定演出実行手段(図柄表示装置41)における演出の実行制御を行い、
前記所定制御手段は、前記所定処理として、所定演出実行手段(表示発光部44、スピーカ部45)における演出の実行制御を行うことを特徴とする特徴L7に記載の遊技機。
Feature L8. The result use means performs execution control of the effect in the specific effect execution means (symbol display device 41) using the calculation result of the calculation process as the specific process,
The gaming machine according to feature L7, wherein the predetermined control means performs execution control of a predetermined effect execution means (display light emitting unit 44, speaker unit 45) as the predetermined process.

特徴L8によれば、特定演出実行手段における演出の実行制御を行うために実行される演算処理において演算結果の導出が遅延した場合には、所定演出実行手段における演出の実行制御を行うために実行される所定処理の処理内容も調整されるため、各演出実行手段における演出の内容を相互に対応させることが可能となる。   According to the feature L8, when the derivation of the calculation result is delayed in the calculation process executed for performing the execution control of the effect in the specific effect executing means, the execution is performed for performing the execution control of the effect in the predetermined effect executing means. Since the processing content of the predetermined processing is also adjusted, it is possible to make the contents of the effects in each effect executing means correspond to each other.

特徴L9.前記結果利用手段は、前記所定の実行回において前記演算処理の途中で前記終了条件が成立して当該演算処理を途中で終了させた場合、当該所定の実行回よりも前の実行回における前記演算処理の演算結果を利用して前記特定処理を実行することを特徴とする特徴L1乃至L8のいずれか1に記載の遊技機。   Feature L9. The result use means, when the end condition is satisfied in the middle of the arithmetic processing in the predetermined execution time and the arithmetic processing is ended in the middle, the arithmetic operation in the execution time before the predetermined execution time. The gaming machine according to any one of features L1 to L8, wherein the specific process is executed using a calculation result of the process.

特徴L9によれば、演算処理が途中で終了される場合にはその演算途中の内容を利用して特定処理が実行されるのではなく、それよりも前に完了している演算処理の演算結果を利用して特定処理が実行されるため、特定処理の実行内容が異常な内容となってしまわないようにすることが可能となる。   According to the feature L9, when the calculation process is terminated halfway, the specific process is not executed using the contents during the calculation, but the calculation result of the calculation process completed before that Since the specific process is executed using the, it is possible to prevent the execution contents of the specific process from becoming abnormal contents.

なお、特徴L1〜L9のいずれか1の構成に対して、特徴A1〜A9、特徴B1〜B6、特徴C1〜C8、特徴D1〜D7、特徴E1〜E6、特徴F1〜F5、特徴G1〜G7、特徴H1〜H8、特徴I1〜I7、特徴J1〜J2、特徴K1〜K6、特徴L1〜L9のうちいずれか1又は複数の構成を適用してもよい。これにより、その組合せた構成による相乗的な効果を奏することが可能となる。   In addition, with respect to any one of the configurations of the features L1 to L9, the features A1 to A9, the features B1 to B6, the features C1 to C8, the features D1 to D7, the features E1 to E6, the features F1 to F5, and the features G1 to G7. Any one or a plurality of configurations of features H1 to H8, features I1 to I7, features J1 to J2, features K1 to K6, and features L1 to L9 may be applied. Thereby, it becomes possible to produce a synergistic effect by the combined configuration.

上記特徴L群の発明は、以下の課題を解決することが可能である。   The invention of the above-mentioned feature L group can solve the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに制御プログラムが記憶されたメモリ等の素子が実装された制御手段を備えており、その制御手段において演算処理が実行されることを通じて遊技を行わせることを可能とするための制御が行われている。なお、CPUやメモリが個別に制御手段に実装されているのではなく、それらが集積化された状態で制御手段に実装された構成も知られている。   As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. These gaming machines are equipped with a control means in which an element such as a memory in which a CPU is mounted and a control program is stored is mounted, and a game is played through execution of arithmetic processing in the control means. Controls are made to enable this. A configuration is also known in which the CPU and the memory are not individually mounted on the control unit, but are mounted on the control unit in an integrated state.

ここで、上記例示等のような遊技機においては、制御手段における演算処理を好適に実行することが可能な構成が求められており、この点について未だ改良の余地がある。   Here, in gaming machines such as the above-described examples, there is a demand for a configuration that can suitably execute arithmetic processing in the control means, and there is still room for improvement in this regard.

以下に、以上の各特徴を適用し得る又は各特徴に適用される遊技機の基本構成を示す。   The basic configuration of the gaming machine to which the above features can be applied or applied to each feature is shown below.

パチンコ遊技機:遊技者が操作する操作手段と、その操作手段の操作に基づいて遊技球を発射する遊技球発射手段と、その発射された遊技球を所定の遊技領域に導く球通路と、遊技領域内に配置された各遊技部品とを備え、それら各遊技部品のうち所定の通過部を遊技球が通過した場合に遊技者に特典を付与する遊技機。   Pachinko gaming machine: operation means operated by a player, game ball launching means for launching a game ball based on the operation of the operation means, a ball path for guiding the launched game ball to a predetermined game area, and a game A gaming machine that includes each gaming component arranged in an area, and gives a bonus to a player when a gaming ball passes through a predetermined passing portion of each gaming component.

スロットマシン等の回胴式遊技機:複数の絵柄を可変表示させる絵柄表示装置を備え、始動操作手段の操作に起因して前記複数の絵柄の可変表示が開始され、停止操作手段の操作に起因して又は所定時間経過することにより前記複数の絵柄の可変表示が停止され、その停止後の絵柄に応じて遊技者に特典を付与する遊技機。   Revolving type gaming machine such as a slot machine: equipped with a picture display device for variably displaying a plurality of pictures, variably starting display of the plurality of pictures due to the operation of the start operation means, and due to the operation of the stop operation means In addition, the game machine is configured such that the variable display of the plurality of patterns is stopped when a predetermined time elapses and a privilege is given to the player according to the pattern after the stop.

10…パチンコ機、41…図柄表示装置、44…表示発光部、45…スピーカ部、62…音光側MPU、72…表示CPU、74…メモリモジュール、76…VDP、81…展開用バッファ、82…フレームバッファ、93…動画デコーダ、101…コマンド格納バッファ、121…単位エリア、122…ピクセル、131…表示CPU、133…メモリモジュール、135…VDP、142…フレームバッファ、151…ジオメトリ演算部、152…レンダリング部、169…座標演算用エリア、ABD1〜ABD50…ボーンデータ、AD1〜AD4…アニメーションデータ、BF1…描画用バッファ、BF2〜BF5…保存用バッファ、BG…地面画像、BGD…地面用オブジェクトデータ、BMD…ベース動画データ、BOD1〜BOD50…ボーンデータ、BSD…平面影用板状オブジェクトデータ、BST1…第1平面影用テクスチャデータ、BST2…第2平面影用テクスチャデータ、BTD1…テクスチャデータ、BTD2…集合用テクスチャデータ、CD1〜CD3…コマンドデータ、CH1…色替え演出用キャラクタ、CH2…エフェクト演出用キャラクタ、CH8…ループ演出用Aキャラクタ、CH9…ループ演出用Bキャラクタ、CH10…ボーン表示用キャラクタ、CH11…演出用キャラクタ、CH12…影画像、CH13…演出用キャラクタ、CH14…影画像、CH15…演出用キャラクタ、CH16〜CH18…図柄表示部、CHG1〜CHG5…集合単位キャラクタ、CR…色替え対象領域、ED5…通常エフェクト用画像データ、ED6…簡易エフェクト用画像データ、EG2…エフェクト画像、EG6…増加時用エフェクト画像、FRD1…骨格データ、FRD2…集合用骨格データ、GSD…背景用板状オブジェクトデータ、GTD1…背景用テクスチャデータ、GTD2,GTD3…屈折用テクスチャデータ、P…表示面、PD1〜PD3…パーツ画像データ、SG…階段画像、SGD…階段用オブジェクトデータ、SKD1…皮膚データ、SKD2…集合用皮膚データ、SSD…段差影用板状オブジェクトデータ。   DESCRIPTION OF SYMBOLS 10 ... Pachinko machine, 41 ... Symbol display apparatus, 44 ... Display light emission part, 45 ... Speaker part, 62 ... Sound light side MPU, 72 ... Display CPU, 74 ... Memory module, 76 ... VDP, 81 ... Buffer for expansion | deployment, 82 ... Frame buffer, 93 ... Video decoder, 101 ... Command storage buffer, 121 ... Unit area, 122 ... Pixel, 131 ... Display CPU, 133 ... Memory module, 135 ... VDP, 142 ... Frame buffer, 151 ... Geometry operation unit, 152 ... Rendering unit, 169 ... Coordinate calculation area, ABD1 to ABD50 ... Bone data, AD1 to AD4 ... Animation data, BF1 ... Drawing buffer, BF2 to BF5 ... Storage buffer, BG ... Ground image, BGD ... Ground object data , BMD ... Base video data, BOD1-B D50 ... bone data, BSD ... plane shadow plate-like object data, BST1 ... first plane shadow texture data, BST2 ... second plane shadow texture data, BTD1 ... texture data, BTD2 ... set texture data, CD1 to CD3 ... command data, CH1 ... color change effect character, CH2 ... effect effect character, CH8 ... loop effect A character, CH9 ... loop effect B character, CH10 ... bone display character, CH11 ... effect character, CH12 ... Shadow image, CH13 ... effect character, CH14 ... shadow image, CH15 ... effect character, CH16-CH18 ... design display, CHG1-CHG5 ... collective unit character, CR ... color change target area, ED5 ... normal effect image data ED6 ... Easy-effect image data, EG2 ... effect image, EG6 ... Increase effect image, FRD1 ... skeleton data, FRD2 ... collection skeleton data, GSD ... background plate-like object data, GTD1 ... background texture data, GTD2, GTD3 ... Refraction texture data, P ... Display surface, PD1 to PD3 ... Parts image data, SG ... Stair image, SGD ... Stair object data, SKD1 ... Skin data, SKD2 ... Assembly skin data, SSD ... Plate for step shadow Object data.

Claims (2)

仮想3次元空間内に3次元情報であるオブジェクトデータを配置する配置手段と、前記仮想3次元空間に視点を設定する視点設定手段と、前記視点に基づいて設定される投影平面に前記オブジェクトデータを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段と、を有するデータ生成手段によって生成された生成データを記憶する生成データ記憶手段と、
当該生成データ記憶手段に記憶された生成データに対応した画像を表示手段に表示させる表示制御手段と、
を備えている遊技機において、
前記配置手段は、第1個別画像の影画像及び反射画像のうちいずれかである対応画像を第2個別画像の一部に対して重ねるようにして表示する場合、前記対応画像を表示するためのオブジェクトデータである対応オブジェクトデータを、前記第2個別画像を表示するためのオブジェクトデータとは別に前記仮想3次元空間に配置するものであり、
前記データ生成手段は、前記オブジェクトデータに対してテクスチャデータを設定するテクスチャ設定手段を備え、
当該テクスチャ設定手段は、前記第1個別画像の表示位置が変更される場合、前記仮想3次元空間における前記対応オブジェクトデータの位置が変更されない状況において前記対応画像を表示するためのテクスチャデータの前記対応オブジェクトデータに対する設定位置関係を変更する設定位置変更手段を備えていることを特徴とする遊技機。
Arrangement means for arranging object data as three-dimensional information in a virtual three-dimensional space; viewpoint setting means for setting a viewpoint in the virtual three-dimensional space; and the object data on a projection plane set based on the viewpoint. A generation data storage means for storing the generation data generated by the data generation means having a drawing setting means for projecting and generating generation data based on the data projected onto the projection plane;
Display control means for causing the display means to display an image corresponding to the generated data stored in the generated data storage means;
In gaming machines equipped with
The arrangement means displays the corresponding image when displaying the corresponding image that is one of the shadow image and the reflection image of the first individual image so as to overlap a part of the second individual image. Corresponding object data that is object data is arranged in the virtual three-dimensional space separately from object data for displaying the second individual image ,
The data generation means includes texture setting means for setting texture data for the object data,
The texture setting means, when the display position of the first individual image is changed, the correspondence of the texture data for displaying the corresponding image in a situation where the position of the corresponding object data in the virtual three-dimensional space is not changed A gaming machine comprising a setting position changing means for changing a setting position relationship with respect to object data .
遊技媒体を利用して遊技が行われることを特徴とする請求項1に記載の遊技機。The game machine according to claim 1, wherein a game is played using a game medium.
JP2014114043A 2014-06-02 2014-06-02 Game machine Active JP6090237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014114043A JP6090237B2 (en) 2014-06-02 2014-06-02 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014114043A JP6090237B2 (en) 2014-06-02 2014-06-02 Game machine

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017020835A Division JP2017080539A (en) 2017-02-08 2017-02-08 Game machine

Publications (2)

Publication Number Publication Date
JP2015226683A JP2015226683A (en) 2015-12-17
JP6090237B2 true JP6090237B2 (en) 2017-03-08

Family

ID=54884610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014114043A Active JP6090237B2 (en) 2014-06-02 2014-06-02 Game machine

Country Status (1)

Country Link
JP (1) JP6090237B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017080539A (en) * 2017-02-08 2017-05-18 株式会社三洋物産 Game machine

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4105788B2 (en) * 1997-11-14 2008-06-25 任天堂株式会社 Video game apparatus and storage medium thereof
JP4114029B2 (en) * 1999-07-16 2008-07-09 株式会社セガ Image processing apparatus, image processing method, and recording medium
JP2007200110A (en) * 2006-01-27 2007-08-09 Samii Kk Image processing device, image processing method, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017080539A (en) * 2017-02-08 2017-05-18 株式会社三洋物産 Game machine

Also Published As

Publication number Publication date
JP2015226683A (en) 2015-12-17

Similar Documents

Publication Publication Date Title
JP6394073B2 (en) Game machine
JP6036749B2 (en) Game machine
JP2018164742A (en) Game machine
JP6060936B2 (en) Game machine
JP6287593B2 (en) Game machine
JP6090237B2 (en) Game machine
JP6446841B2 (en) Game machine
JP6354826B2 (en) Game machine
JP7095782B2 (en) Pachinko machine
JP7235091B2 (en) game machine
JP7107416B2 (en) game machine
JP6648846B2 (en) Gaming machine
JP6492421B2 (en) Game machine
JP2015226690A (en) Game machine
JP2019037848A (en) Game machine
JP2019000695A (en) Game machine
JP2018183662A (en) Game machine
JP2018089486A (en) Game machine
JP2018065033A (en) Game machine
JP2017080539A (en) Game machine
JP2017023810A (en) Game machine
JP2020073031A (en) Game machine
JP6532194B2 (en) Gaming machine
JP2020054902A (en) Game machine
JP2020114463A (en) Game machine

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6090237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250